Cos’è l’intelligenza artificiale

// obiettivi di apprendimento
Dare una definizione rigorosa di intelligenza artificiale distinguendola da automazione e programmazione classica
Ripercorrere le tappe storiche fondamentali — da Turing (1950) all’esplosione del Deep Learning e alla Generative AI
Distinguere i tre approcci principali: AI simbolica (rule-based), Machine Learning e Deep Learning
Spiegare perché l’AI è esplosa proprio negli anni 2010 — il ruolo di dati, GPU e algoritmi
🎬
Video
Lezione completa su YouTube
Guarda →
📄
Cheatsheet
cheatsheet-ai-ml-dl-tassonomia.md
GitHub →
⚗️
Lab
ex-ai-l1-m1-ai-use-cases.md
GitHub →
🔗
Risorse
Paper originali e letture
Vedi →

Cosa significa “intelligenza artificiale”

Il termine Intelligenza Artificiale fu coniato nel 1956 da John McCarthy, uno dei padri fondatori del campo. La definizione originale era sorprendentemente ambiziosa: «far sì che una macchina si comporti in modi che, se fossero compiuti da un essere umano, sarebbero descritti come intelligenti».

Oggi usiamo AI come etichetta per sistemi in grado di eseguire compiti che normalmente richiedono intelligenza umana: riconoscere immagini, comprendere il linguaggio, prendere decisioni, giocare a scacchi, scrivere codice. Ma attenzione a una distinzione fondamentale spesso ignorata.

// AI ≠ programmazione classica
Programmazione classica

Il programmatore scrive regole esplicite.
Input + Regole → Output

if temp > 100: allarme_caldo()

La macchina esegue esattamente ciò che le dici. Non impara.

Machine Learning (AI)

Il sistema apprende le regole dai dati.
Input + Output → Regole (apprese)

model.fit(dati_storici, etichette)

La macchina estrae pattern da milioni di esempi senza regole esplicite.

Il Test di Turing — il primo criterio di intelligenza

Nel 1950, Alan Turing propose una domanda radicale nel suo paper “Computing Machinery and Intelligence”: invece di chiederci “le macchine possono pensare?”, chiediamoci — una macchina può ingannare un essere umano facendosi credere umana?

// il Gioco dell’Imitazione

Un giudice umano dialoga via testo con due interlocutori nascosti: un umano e una macchina. Se il giudice non riesce a distinguerli, la macchina supera il test. Turing predisse che entro il 2000 le macchine avrebbero superato il test nel 30% dei casi. Siamo arrivati vicini solo negli anni 2010 con i modelli linguistici — ma il dibattito su cosa significhi davvero “intelligenza” è tutt’altro che chiuso.

Breve storia dell’AI — dai sogni agli inverni, fino all’esplosione

1950–1956 — Le fondamenta

Turing pubblica il paper sul Test di Turing (1950). Nel 1956, la Conferenza di Dartmouth — organizzata da McCarthy, Minsky, Shannon e altri — lancia ufficialmente l’AI come disciplina. L’ottimismo è senza limiti: “Una macchina in grado di simulare qualsiasi aspetto dell’intelligenza umana entro una generazione”.

1956–1974 — Età dell’oro

Nascono i primi programmi che dimostrano ragionamento: Logic Theorist (dimostra teoremi matematici), ELIZA (1966, primo chatbot), Shakey (primo robot mobile). I finanziamenti governativi abbondano, specialmente dal DARPA americano durante la Guerra Fredda.

1974–1980 — Primo Inverno AI ❄️

Le promesse non si materializzano. Il rapporto Lighthill (1973) demolisce la credibilità del campo: traduzione automatica deludente, scacchi ancora dominati dagli umani, problemi computazionali insormontabili. DARPA taglia i fondi. Il termine “AI winter” entra nel vocabolario.

1980–1987 — Expert Systems

L’approccio simbolico torna in auge con i sistemi esperti: programmi con migliaia di regole IF-THEN codificate da esperti umani. MYCIN diagnotica infezioni batteriche meglio dei medici junior. XCON di DEC risparmia 40 milioni di dollari all’anno. L’industria investe massicciamente.

1987–1993 — Secondo Inverno AI ❄️

I sistemi esperti si rivelano fragili: impossibile da aggiornare, ogni eccezione richiede nuove regole. Il mercato hardware AI collassa. Secondo round di tagli ai finanziamenti. Nel frattempo, però, nelle università si sviluppano in silenzio le reti neurali artificiali.

1993–2012 — Rinascita del Machine Learning

Deep Blue batte Kasparov a scacchi (1997). Nascono Support Vector Machine, Random Forest, Gradient Boosting. Internet produce dati in quantità industriale. PageRank di Google è ML puro. Nel 2006, Hinton e collaboratori pubblicano paper fondamentali sulle reti neurali profonde. La parola “deep learning” inizia a circolare.

2012 — La Rivoluzione del Deep Learning 🚀

AlexNet (Krizhevsky, Sutskever, Hinton) vince ImageNet con un margine di errore dimezzato rispetto al secondo classificato. Tutto cambia. Le GPU NVIDIA, progettate per i videogiochi, si rivelano perfette per le reti neurali. Da quel momento: esplosione. TensorFlow (Google, 2015), PyTorch (Facebook, 2016).

2017–oggi — Transformer e Generative AI 🌐

Il paper “Attention Is All You Need” (Google, 2017) introduce l’architettura Transformer. GPT-1 (2018), GPT-2 (2019), GPT-3 (2020), ChatGPT (nov. 2022): 100 milioni di utenti in 2 mesi, il prodotto consumer più veloce nella storia. AlphaFold 2 risolve il protein folding problem — 50 anni di biologia compressa in un modello. L’AI diventa mainstream.

I tre approcci principali

L’AI non è un monolite: esistono approcci profondamente diversi, ciascuno con punti di forza e limiti propri.

① AI Simbolica
Rule-based / GOFAI

Rappresenta la conoscenza come simboli e regole logiche esplicite. Il programmatore definisce ogni condizione.

SE febbre > 38
E tosse == vero
ALLORA diagnosi = influenza
✓ Trasparente, spiegabile
✓ Non richiede dati
✗ Fragile fuori dai casi previsti
✗ Non scala a problemi complessi
Esempi: sistemi esperti medici, motori di regole bancarie, Prolog
② Machine Learning
Learning from data

Il sistema impara pattern dai dati attraverso algoritmi statistici. Le “regole” emergono dall’analisi di migliaia di esempi.

model = RandomForest()
model.fit(X_train, y_train)
pred = model.predict(X_new)
✓ Si adatta ai dati reali
✓ Gestisce input numerici strutturati
✗ Richiede feature engineering
✗ Difficoltà con dati non strutturati
Esempi: spam filter, previsione prezzi, scoring del credito
③ Deep Learning
Neural networks

Reti neurali con molti strati (livelli “profondi”) che apprendono rappresentazioni gerarchiche direttamente dai dati grezzi.

model = Sequential([
 Dense(128, relu),
 Dense(64, relu),
 Dense(10, softmax)])
✓ Eccelle su immagini, testo, audio
✓ Impara le feature automaticamente
✗ Richiede enormi quantità di dati
✗ “Scatola nera” — difficile da spiegare
Esempi: GPT-4, DALL-E, AlphaFold, riconoscimento vocale

Perché l’AI è esplosa proprio ora

Le reti neurali artificiali esistevano teoricamente dagli anni ’40. Allora perché l’esplosione è avvenuta solo dopo il 2012? Tre fattori si sono allineati simultaneamente, creando una tempesta perfetta.

// il triangolo della rivoluzione AI
📦
DATI

Internet, smartphone e sensori IoT hanno prodotto un’esplosione di dati etichettati. ImageNet: 14 milioni di immagini classificate. Common Crawl: petabyte di testo. I dati sono il “carburante” del ML.

CALCOLO

Le GPU NVIDIA (nate per i videogame) sono perfette per le moltiplicazioni matriciali del deep learning — 1000× più veloci delle CPU per queste operazioni. Poi sono arrivati i TPU di Google progettati appositamente.

🧠
ALGORITMI

Innovazioni fondamentali: Backpropagation efficiente, ReLU come funzione di attivazione, Dropout per prevenire overfitting, Batch Normalization, e infine l’architettura Transformer (2017).

// legge di scaling

Una scoperta chiave degli anni 2020: le prestazioni dei grandi modelli linguistici scalano prevedibilmente con la quantità di dati, parametri e calcolo — la cosiddetta scaling law. Questo ha motivato OpenAI, Google e altri a investire miliardi in modelli sempre più grandi: da GPT-2 (1,5 miliardi di parametri, 2019) a GPT-4 (stima ~1,8 trilioni, 2023).

Narrow AI, AGI e Superintelligenza

È importante distinguere tra quello che abbiamo oggi e ciò che i ricercatori discutono per il futuro.

TipoDescrizioneStatoEsempio
Narrow AIEccelle in un compito specifico, completamente incapace fuori da esso✅ ESISTE ORAGPT-4 scrive testo; AlphaFold piega proteine; ma nessuno dei due sa guidare un’auto
AGIArtificial General Intelligence — ragionamento flessibile e trasferibile su qualsiasi compito come un umano⚠️ DIBATTITO APERTOAncora non esiste. Stime: anni 2030–2060 (visioni molto divergenti tra esperti)
ASIArtificial Superintelligence — supera l’intelligenza umana in ogni dominio🔮 SPECULATIVOScenario ipotetico discusso da Bostrom, Yudkowsky, LeCun — nessun consenso sulla sua possibilità o tempistica
// nota critica

GPT-4 sembra intelligente perché genera testo coerente, ma non capisce, non ragiona, non ha obiettivi. È un modello statistico sofisticato che predice il prossimo token. Questa distinzione — tra simulazione dell’intelligenza e intelligenza autentica — è al centro del dibattito filosofico sull’AI e si chiama Chinese Room Argument (Searle, 1980).

📌 Riepilogo — Punti chiave
  • L’AI si distingue dalla programmazione classica perché apprende regole dai dati invece di riceverle dal programmatore
  • Il campo ha attraversato due “inverni” (anni ’70 e ’90) prima di esplodere definitivamente nel 2012 con AlexNet e il deep learning
  • I tre approcci principali sono: AI simbolica (regole esplicite), Machine Learning (pattern statistici), Deep Learning (reti neurali profonde)
  • La rivoluzione AI è stata resa possibile dall’allineamento di tre fattori: dati (Internet), calcolo (GPU/TPU) e algoritmi (Transformer, backprop efficiente)
  • Tutto ciò che esiste oggi è Narrow AI: eccezionale in un dominio specifico, incapace al di fuori. AGI rimane un obiettivo di ricerca non raggiunto

Lascia un commento