L’articolo intitolato “Come l’Intelligenza Artificiale Distrugge le Istituzioni”, scritto dai professori di legge della Boston University Woodrow Hartzog e Jessica Silbey denuncia che i sistemi di AI attuali non sono strumenti neutri di efficienza, ma rappresentano una minaccia esistenziale per le istituzioni civiche che sostengono la democrazia.

Gli autori partono da una definizione chiara: le istituzioni civiche, le università, la stampa libera e la vita democratica, sono il pilastro delle società complesse contemporanee. Funzionano promuovendo cooperazione, stabilità e adattabilità, attraverso gerarchie di autorità, ruoli definiti, regole iterative e legittimità del sapere prodotto. Il valore delle Istituzioni sta nel coltivare legami interpersonali, ampliare prospettive e rafforzare l’impegno condiviso per obiettivi comuni. Trasparenza, accountability e cooperazione umana sono essenziali per trasmettere conoscenza legittima attraverso generazioni e risolvere problemi collettivi.

Il commento di Dario Denni

Dario Denni: “Hanno ragione Hartzog e Silbey. Con il cattivo uso dell’AI anche le istituzioni sono a rischio. Un problema che emerso da qualche tempo ma non se ne parla abbastanza. Credo ci siano riflessi anche sulla produzione normativa accelerata da AI perchè riscontro da tempo un’ipertrofia che dimostra un cattivo uso dello strumento AI. Certo, è vero che magari potrebbe semplificare, rendere piu’ comprensibile il testo, invece lo complica. La comprensione passa dall’assimilazione, devi rendere simile e a te quello che leggi sulla base delle tue conoscenze per poter capire. E’ chiaro che un testo preconfezionato con soggetto verbo e complemento sarebbe utile allo scopo invece di costruzioni del linguaggio ampollose che sono tipiche di certa dottrina e che comunque hanno segnato il bello della varianza umana finora”.

L’intervento di Dario Amodei CEO di Anthropic

Dario Amodei, CEO di Anthropic, aveva già avvertito nel suo saggio “L’adolescenza della tecnologia” che l’umanità sta affrontando un rito di passaggio cruciale e turbolento dovuto all’imminente arrivo di IA potentissime. L’imprenditore sostiene che i nostri sistemi sociali non siano ancora pronti a gestire un simile potere e invita il mondo a “svegliarsi” per dare priorità alla sicurezza tecnologica. Amodei critica aspramente la negligenza di alcune aziende rivali, citando i rischi legati ai deepfake e alla tutela dei minori come segnali di una scarsa responsabilità etica nel settore. Nonostante i timori, Anthropic collabora attivamente con i governi per integrare l’IA nei servizi pubblici, guidata da una rigorosa “costituzione” interna volta a garantire uno sviluppo sicuro.

Il messaggio centrale è chiaro: nel 2026 il pericolo reale è più vicino che mai e richiede una maturità collettiva senza precedenti per evitare derive incontrollate della specie. Purtroppo, secondo Hartzog e Silbey, le affordances (caratteristiche intrinseche) dell’AI generativa, predittiva e di automazione decisionale, distruggono già oggi proprio queste qualità sulla base di tre meccanismi principali:

  1. Erosione dell’expertise: L’AI sposta compiti che richiedono saggezza e abilità umana su macchine, creando un’illusione di accuratezza. Questo porta ad atrofia delle competenze, offloading cognitivo errato e necessità di continue correzioni per errori e “allucinazioni”. L’expertise istituzionale, accumulata collettivamente, perde legittimità.
  2. Scorciatoia nel processo decisionale: Automatizzando scelte complesse, l’AI esternalizza giudizi morali e riflessivi che dovrebbero rimanere umani. Appiattisce le gerarchie (privilegiando macchine su persone), elimina momenti di conflitto e riflessione critica, rendendo le istituzioni rigide e incapaci di adattarsi ai cambiamenti.
  3. Isolamento umano: Sostituendo interazioni personali con interfacce automatizzate, l’AI elimina opportunità di connessione, crescita relazionale e costruzione di scopo condiviso. Senza solidarietà e dibattito in buona fede, le istituzioni perdono coesione e capacità di evoluzione.

Lo stato di diritto perde accountability con decisioni automatizzate opache; le università vedono eroso l’apprendimento critico e la ricerca autentica; il giornalismo e la libera espressione subiscono disinformazione e erosione della fiducia; la democrazia soffre per mancanza di deliberazione umana.

Le regole europee nel dibattito sugli algoritmi

C’è poi il tema della responsabilità a cui l’Europa sembra aver rinunciato. Nel nostro sistema legale vale il principio che ciò che è lecito (o illecito) nella vita reale deve esserlo anche online. Nella realtà dei social, però, succede spesso il contrario e il risultato appare paradossale. Opere d’arte celebri con nudo (Canova, Klimt, Schiele, Courbet, Jago) vengono bloccate dagli algoritmi come “contenuti inappropriati”, mentre minacce, insulti virali o tool di deepfake che spogliano persone senza consenso girano liberamente e diventano popolari, anche se nella vita reale scatenano denunce immediate. Questo doppio standard nasce dagli algoritmi: decidono in base a dati di addestramento, impostazioni tecniche e valori culturali scelti dalle piattaforme, non in base alle nostre leggi. Il DSA e l’AI Act obbligano le grandi piattaforme a essere trasparenti, motivare le scelte, rimuovere subito i contenuti illegali quando ne vengono a conoscenza e mitigare rischi sistemici, inclusi quelli per la libertà di espressione. Eppure il paradosso persiste: un nudo artistico spesso censurato per pochi pixel, mentre certi abusi gravi passano indenni.Una recente sentenza della Corte di Giustizia UE (C-492/23) ha detto che le piattaforme possono essere responsabili in ultima istanza per proteggere i dati personali pubblicati. Forse da lì si può partire per obbligare un intervento ma una cosa è certa, il problema è al centro delle cronache ma non è al centro dell’agenda politica in questo momento. Ed i risultati si vedono.