Cosa significa “intelligenza artificiale”
Il termine Intelligenza Artificiale fu coniato nel 1956 da John McCarthy, uno dei padri fondatori del campo. La definizione originale era sorprendentemente ambiziosa: «far sì che una macchina si comporti in modi che, se fossero compiuti da un essere umano, sarebbero descritti come intelligenti».
Oggi usiamo AI come etichetta per sistemi in grado di eseguire compiti che normalmente richiedono intelligenza umana: riconoscere immagini, comprendere il linguaggio, prendere decisioni, giocare a scacchi, scrivere codice. Ma attenzione a una distinzione fondamentale spesso ignorata.
Il programmatore scrive regole esplicite.
Input + Regole → Output
La macchina esegue esattamente ciò che le dici. Non impara.
Il sistema apprende le regole dai dati.
Input + Output → Regole (apprese)
La macchina estrae pattern da milioni di esempi senza regole esplicite.
Il Test di Turing — il primo criterio di intelligenza
Nel 1950, Alan Turing propose una domanda radicale nel suo paper “Computing Machinery and Intelligence”: invece di chiederci “le macchine possono pensare?”, chiediamoci — una macchina può ingannare un essere umano facendosi credere umana?
Un giudice umano dialoga via testo con due interlocutori nascosti: un umano e una macchina. Se il giudice non riesce a distinguerli, la macchina supera il test. Turing predisse che entro il 2000 le macchine avrebbero superato il test nel 30% dei casi. Siamo arrivati vicini solo negli anni 2010 con i modelli linguistici — ma il dibattito su cosa significhi davvero “intelligenza” è tutt’altro che chiuso.
Breve storia dell’AI — dai sogni agli inverni, fino all’esplosione
Turing pubblica il paper sul Test di Turing (1950). Nel 1956, la Conferenza di Dartmouth — organizzata da McCarthy, Minsky, Shannon e altri — lancia ufficialmente l’AI come disciplina. L’ottimismo è senza limiti: “Una macchina in grado di simulare qualsiasi aspetto dell’intelligenza umana entro una generazione”.
Nascono i primi programmi che dimostrano ragionamento: Logic Theorist (dimostra teoremi matematici), ELIZA (1966, primo chatbot), Shakey (primo robot mobile). I finanziamenti governativi abbondano, specialmente dal DARPA americano durante la Guerra Fredda.
Le promesse non si materializzano. Il rapporto Lighthill (1973) demolisce la credibilità del campo: traduzione automatica deludente, scacchi ancora dominati dagli umani, problemi computazionali insormontabili. DARPA taglia i fondi. Il termine “AI winter” entra nel vocabolario.
L’approccio simbolico torna in auge con i sistemi esperti: programmi con migliaia di regole IF-THEN codificate da esperti umani. MYCIN diagnotica infezioni batteriche meglio dei medici junior. XCON di DEC risparmia 40 milioni di dollari all’anno. L’industria investe massicciamente.
I sistemi esperti si rivelano fragili: impossibile da aggiornare, ogni eccezione richiede nuove regole. Il mercato hardware AI collassa. Secondo round di tagli ai finanziamenti. Nel frattempo, però, nelle università si sviluppano in silenzio le reti neurali artificiali.
Deep Blue batte Kasparov a scacchi (1997). Nascono Support Vector Machine, Random Forest, Gradient Boosting. Internet produce dati in quantità industriale. PageRank di Google è ML puro. Nel 2006, Hinton e collaboratori pubblicano paper fondamentali sulle reti neurali profonde. La parola “deep learning” inizia a circolare.
AlexNet (Krizhevsky, Sutskever, Hinton) vince ImageNet con un margine di errore dimezzato rispetto al secondo classificato. Tutto cambia. Le GPU NVIDIA, progettate per i videogiochi, si rivelano perfette per le reti neurali. Da quel momento: esplosione. TensorFlow (Google, 2015), PyTorch (Facebook, 2016).
Il paper “Attention Is All You Need” (Google, 2017) introduce l’architettura Transformer. GPT-1 (2018), GPT-2 (2019), GPT-3 (2020), ChatGPT (nov. 2022): 100 milioni di utenti in 2 mesi, il prodotto consumer più veloce nella storia. AlphaFold 2 risolve il protein folding problem — 50 anni di biologia compressa in un modello. L’AI diventa mainstream.
I tre approcci principali
L’AI non è un monolite: esistono approcci profondamente diversi, ciascuno con punti di forza e limiti propri.
Rappresenta la conoscenza come simboli e regole logiche esplicite. Il programmatore definisce ogni condizione.
E tosse == vero
ALLORA diagnosi = influenza
Il sistema impara pattern dai dati attraverso algoritmi statistici. Le “regole” emergono dall’analisi di migliaia di esempi.
model.fit(X_train, y_train)
pred = model.predict(X_new)
Reti neurali con molti strati (livelli “profondi”) che apprendono rappresentazioni gerarchiche direttamente dai dati grezzi.
Dense(128, relu),
Dense(64, relu),
Dense(10, softmax)])
Perché l’AI è esplosa proprio ora
Le reti neurali artificiali esistevano teoricamente dagli anni ’40. Allora perché l’esplosione è avvenuta solo dopo il 2012? Tre fattori si sono allineati simultaneamente, creando una tempesta perfetta.
Internet, smartphone e sensori IoT hanno prodotto un’esplosione di dati etichettati. ImageNet: 14 milioni di immagini classificate. Common Crawl: petabyte di testo. I dati sono il “carburante” del ML.
Le GPU NVIDIA (nate per i videogame) sono perfette per le moltiplicazioni matriciali del deep learning — 1000× più veloci delle CPU per queste operazioni. Poi sono arrivati i TPU di Google progettati appositamente.
Innovazioni fondamentali: Backpropagation efficiente, ReLU come funzione di attivazione, Dropout per prevenire overfitting, Batch Normalization, e infine l’architettura Transformer (2017).
Una scoperta chiave degli anni 2020: le prestazioni dei grandi modelli linguistici scalano prevedibilmente con la quantità di dati, parametri e calcolo — la cosiddetta scaling law. Questo ha motivato OpenAI, Google e altri a investire miliardi in modelli sempre più grandi: da GPT-2 (1,5 miliardi di parametri, 2019) a GPT-4 (stima ~1,8 trilioni, 2023).
Narrow AI, AGI e Superintelligenza
È importante distinguere tra quello che abbiamo oggi e ciò che i ricercatori discutono per il futuro.
| Tipo | Descrizione | Stato | Esempio |
|---|---|---|---|
| Narrow AI | Eccelle in un compito specifico, completamente incapace fuori da esso | ✅ ESISTE ORA | GPT-4 scrive testo; AlphaFold piega proteine; ma nessuno dei due sa guidare un’auto |
| AGI | Artificial General Intelligence — ragionamento flessibile e trasferibile su qualsiasi compito come un umano | ⚠️ DIBATTITO APERTO | Ancora non esiste. Stime: anni 2030–2060 (visioni molto divergenti tra esperti) |
| ASI | Artificial Superintelligence — supera l’intelligenza umana in ogni dominio | 🔮 SPECULATIVO | Scenario ipotetico discusso da Bostrom, Yudkowsky, LeCun — nessun consenso sulla sua possibilità o tempistica |
GPT-4 sembra intelligente perché genera testo coerente, ma non capisce, non ragiona, non ha obiettivi. È un modello statistico sofisticato che predice il prossimo token. Questa distinzione — tra simulazione dell’intelligenza e intelligenza autentica — è al centro del dibattito filosofico sull’AI e si chiama Chinese Room Argument (Searle, 1980).
- L’AI si distingue dalla programmazione classica perché apprende regole dai dati invece di riceverle dal programmatore
- Il campo ha attraversato due “inverni” (anni ’70 e ’90) prima di esplodere definitivamente nel 2012 con AlexNet e il deep learning
- I tre approcci principali sono: AI simbolica (regole esplicite), Machine Learning (pattern statistici), Deep Learning (reti neurali profonde)
- La rivoluzione AI è stata resa possibile dall’allineamento di tre fattori: dati (Internet), calcolo (GPU/TPU) e algoritmi (Transformer, backprop efficiente)
- Tutto ciò che esiste oggi è Narrow AI: eccezionale in un dominio specifico, incapace al di fuori. AGI rimane un obiettivo di ricerca non raggiunto