Mentre LeCun cerca di dare all’IA un corpo e un senso della realtà, Patel sta cercando di dare all’IA una memoria e un metodo logico. Entrambi stanno costruendo il futuro, noi lo subiamo, ma solo uno dei due potrebbe avere la chiave per l’ultima porta, quella che conduce a una mente artificiale capace di superare i suoi creatori in ogni ambito del pensiero.
Il cuore pulsante della Silicon Valley non è mai stato così diviso. Non si tratta della solita competizione commerciale tra giganti come Google e Meta, ma di una frattura ideologica e scientifica che scuote le fondamenta stesse di ciò che definiamo “intelligenza”. Da un lato, i sostenitori della continuità credono che la strada verso la superintelligenza sia una scala infinita fatta di dati e potenza di calcolo; dall’altro, i ribelli del paradigma sostengono che stiamo cercando di raggiungere la Luna costruendo una torre di mattoni sempre più alta, quando servirebbe, invece, inventare il razzo.
Questa tensione vede protagonisti due giganti: Yann LeCun, il pioniere che ha dato i natali alle reti neurali moderne, e Rohit Patel, il pragmatico architetto che vede nei modelli linguistici attuali non un limite, ma il nucleo atomico di una rivoluzione già in atto. Per comprendere dove stiamo andando, dobbiamo immergerci nelle viscere di questo scontro, analizzando perché la predizione della “prossima parola” potrebbe essere l’arma definitiva o, al contrario, il più grande abbaglio tecnologico del secolo.
L’Eresia di LeCun: Perché gli LLM sono Giganti d’Argilla
Yann LeCun non è un critico qualunque. È uno dei padri nobili dell’IA, eppure la sua diagnosi è spietata, i Large Language Models (LLM) sono strutturalmente incapaci di raggiungere l’intelligenza di livello umano. La sua partenza da Meta per fondare AMI Labs non è stata una semplice mossa di business, ma una dichiarazione di guerra intellettuale supportata da oltre un miliardo di dollari. La tesi di LeCun si basa su un’osservazione biologica elementare: un bambino impara a non cadere da un dirupo osservando la gravità in pochi secondi, senza bisogno di leggere milioni di manuali di fisica.
Gli attuali sistemi di IA, al contrario, divorano l’intero scibile umano testuale eppure non sanno che, se sposti un bicchiere oltre il bordo del tavolo, questo cadrà. Questa assenza di un “modello del mondo” (World Model) rende l’IA attuale un’entità puramente linguistica, una sorta di bibliotecario universale che sa tutto ma non capisce nulla della realtà fisica. LeCun sostiene che la superintelligenza emergerà solo quando creeremo macchine capaci di osservare video, percepire lo spazio e pianificare azioni nel tempo, comprendendo il nesso di causa ed effetto che governa l’universo. Senza questa “fisica interna”, l’IA rimarrà confinata in un mondo di simboli, soggetta a errori grossolani e incapace di vera autonomia.
La Difesa di Patel: Combinazione e l’Intelligenza di Base
Dall’altra parte della barricata, Rohit Patel incarna la visione del “Superintelligence Lab” di Mark Zuckerberg. La sua posizione è meno metafisica e molto più ancorata all’evoluzione storica delle tecnologie. Patel non nega che gli LLM abbiano dei buchi neri logici, ma li vede come componenti di un sistema più vasto. Per lui, il linguaggio non è solo un insieme di parole, ma il sistema operativo della civiltà umana. Se un modello riesce a padroneggiare il linguaggio, ha già assorbito gran parte della logica, della cultura e delle strategie di risoluzione dei problemi accumulate in millenni.
Patel paragona l’attuale fase dell’IA alla nascita della commutazione di pacchetto per Internet. Inizialmente era una tecnologia grezza, lenta e limitata, ma era il “nucleo” giusto. Non è stato necessario cambiare il protocollo di base per avere lo streaming video o l’e-commerce; è bastato costruire sopra quel nucleo strati di complessità, strumenti e infrastrutture. Allo stesso modo, Patel suggerisce che non serva buttare via l’architettura dei trasformatori (la base di GPT e Gemini). Basta “comporre” questi modelli con memorie esterne, moduli di ragionamento logico e capacità di interazione con il mondo reale. Secondo questa visione, la superintelligenza non sarà un singolo algoritmo miracoloso, ma un ecosistema di modelli interconnessi che collaborano.
Il Paradosso della Creatività e il Valore della Logica
Uno degli aspetti più affascinanti del pensiero di Patel riguarda il ribaltamento delle nostre aspettative fantascientifiche. Abbiamo sempre pensato che le macchine sarebbero state fredde calcolatrici e che l’uomo sarebbe rimasto l’ultimo baluardo dell’immaginazione. Invece, i modelli linguistici sono diventati macchine iper-creative, capaci di scrivere poesie o sceneggiature in pochi secondi, ma inclini a sbagliare una semplice sottrazione se non guidati correttamente.
Le allucinazioni, tanto criticate, sono per Patel il segno che queste macchine possiedono una sorta di intuizione grezza. Il problema è che questa intuizione non è ancora bilanciata da un “sistema 2” (secondo la terminologia psicologica), ovvero un pensiero lento, deliberato e rigoroso. La corsa attuale non è dunque verso la creatività, ma verso la stabilizzazione logica. Rendere l’IA più affidabile ha un valore economico incalcolabile: un’IA che inventa una storia è un divertimento, un’IA che analizza un contratto legale o programma un software senza errori è un motore di ricchezza senza precedenti. Per Patel, stiamo già vedendo i frutti di questo processo: la riduzione del tempo di programmazione e l’assistenza avanzata nella ricerca scientifica sono già realtà, anche se i modelli non “capiscono” la fisica come vorrebbe LeCun.
L’IA come compagno: Oltre l’umano, ma non contro l’umano
Il dibattito sulla superintelligenza spesso scivola nella paura della sostituzione. Patel cerca di smontare questo mito attraverso il concetto di “base intelligence”. Se osserviamo le capacità umane e quelle dell’IA come due cerchi che si sovrappongono, noteremo che l’intelligenza artificiale ha già superato l’uomo in estensione. Nessun medico può leggere tutti gli articoli scientifici pubblicati ogni giorno nel mondo, ma un’IA può farlo. Tuttavia, l’uomo mantiene una superiorità schiacciante nella gestione dell’imprevisto fisico, nell’empatia e nella coordinazione motoria fine.
La superintelligenza, in quest’ottica, non sarà un “Dio” in una scatola, ma un potenziatore. Sarà quel compagno di viaggio che possiede una memoria infinita e una velocità di calcolo sovrumana, permettendo all’umano di concentrarsi sulle decisioni di alto livello e sulla direzione morale. Questa visione è profondamente pragmatica: non ci serve che l’IA provi emozioni o che capisca perfettamente cosa si prova a toccare l’erba, ci serve che ci aiuti a risolvere il cambiamento climatico o a scoprire nuovi farmaci usando la sua immensa capacità di processare informazioni.
Salto Quantico e Progresso
Siamo dunque di fronte a due scenari futuri radicalmente diversi. Se avrà ragione Yann LeCun, potremmo trovarci presto davanti a un “muro”: un punto in cui, nonostante l’aggiunta di trilioni di dati e miliardi di dollari di chip, l’IA smetterà di migliorare in modo significativo. In quel caso, il miliardo investito in AMI Labs sarà stato il seme di una nuova era, portandoci verso robot autonomi capaci di operare nelle nostre case con la stessa naturalezza di un animale domestico o di un aiutante umano. Sarebbe il trionfo della “comprensione” sulla “statistica”.
Se invece avrà ragione Patel, l’architettura attuale continuerà a scalare e a integrarsi. Vedremo l’IA diventare invisibile, come l’elettricità, alimentando ogni nostra interazione digitale e fisica attraverso un’architettura che combina il linguaggio con la logica esterna. In questo scenario, la superintelligenza arriverà non tramite un’unica scoperta sensazionale, ma attraverso una serie di raffinamenti costanti che renderanno il mondo sempre più automatizzato ed efficiente.



