Dario Denni: i fotomontaggi potenziati dalla AI generano allarmi di ordine pubblico di varia natura, tra cui il negazionismo che e’ già una forma di aggravante tipizzata dalla Legge. Non c’è nessuna violenza epistemica e nel caso esistesse una violenza epistemica sarebbe un tema filosofico come l’iperuranio e l’appercezione trascendentale. Occorre concretezza per inquadrare meglio la fattispecie.
Il panorama digitale che attraversiamo ogni giorno sta cambiando pelle. Se fino a poco tempo fa i contenuti che incontravamo sui social media erano il frutto del lavoro, della creatività o dell’opinione di un essere umano, oggi ci troviamo immersi in un flusso incessante di materiale generato da macchine. Spesso è Fake, distorto, dolosamente artefatto, tendenzioso. Questo fenomeno ha preso un nome preciso nel gergo della rete: si chiama “AI slop”, traducibile come “pappa di IA”. Non è un’innovazione tecnologica di cui andare fieri, ma piuttosto un sottoprodotto industriale che sta soffocando la nostra capacità di distinguere ciò che è reale da ciò che è stato costruito a tavolino da un algoritmo. Se nei fatti non riusciamo più a distinguere il vero dal falso, le conseguenze cognitive e di ordine pubblico sono già oggi abbastanza evidenti.
Che cos’è lo “slop” e perché ci riguarda
Immaginate di essere invasi da immagini e video credibili, sensazionali, emozionali, coinvolgenti, polarizzanti. Ecco. Lo “slop” digitale è esattamente questo. Sono i migliaia di video di pochi secondi, le immagini dai colori ipersaturi, gli articoli scritti in un linguaggio piatto e ripetitivo che invadono piattaforme come TikTok, Instagram o YouTube. Spesso purtroppo anche testate giornalistiche online che non riescono a distinguere se il fatto è realmente accaduto, salvo correzioni successive.
Questi contenuti non nascono per informare, né per emozionare o per raccontare una storia vera. Nascono per un unico scopo: catturare l’attenzione, la vostra e quella dell’algoritmo. Le piattaforme social premiano la quantità e la capacità di trattenere l’utente sullo schermo anche solo per pochi istanti in più. I software di intelligenza artificiale sono diventati lo strumento perfetto per questa produzione di massa: possono creare migliaia di post al giorno a costo quasi tendente allo zero ma con capacità di monetizzazione elevatissima.
Il problema non è solo la scarsa qualità. Il vero rischio è che questa “pappa” sta diventando la nostra principale fonte di informazione visiva. Spesso non ce ne accorgiamo. Quando navighiamo, non cerchiamo sempre la fonte ufficiale; spesso ci limitiamo a guardare ciò che appare nel nostro feed. Se quel feed è pieno di immagini create artificialmente, la nostra percezione del mondo inizia a distorcersi. Troppa bellezza, immagini che spingono a comportamenti dubbi, tendenze, sfide, incidenti mai realmente accaduti.
Il pericolo dei falsi storici e l’ordine pubblico
Il lato più oscuro di questa produzione seriale riguarda la ricostruzione del passato e la cronaca del presente. Con l’intelligenza artificiale è diventato semplicissimo creare fotomontaggi che sembrano fotografie d’epoca o filmati di repertorio. Si vedono circolare immagini di eventi drammatici, come i campi di sterminio o le grandi guerre del Novecento, ricostruite con dettagli grotteschi o inventati di sana pianta.
Queste non sono solo “brutte foto” al contrario sono meravigliosamente attraenti, disturbanti quanto basa, coinvolgenti. Sono strumenti che possono generare seri problemi di ordine pubblico. Quando un’immagine falsa che ritrae una violenza, una protesta, una manifestazione, un semplice bacio mai accaduto o una tragedia storica viene diffusa in modo virale, può scatenare reazioni reali nelle persone. Può fomentare odio, creare panico o spingere le masse verso posizioni estremiste, le persone ad agire e reagire in modo sproporzionato.
Un esempio concreto è il fenomeno del negazionismo. Esistono contenuti creati dall’intelligenza artificiale che, alterando i fatti storici, tendono a minimizzare o a negare tragedie collettive. In molti paesi, tra cui il nostro, questo non è solo un problema etico o un errore di informazione: è un comportamento che può avere conseguenze legali molto pesanti. La legge non punisce l’intelligenza artificiale (che è solo un software), ma punisce chiunque utilizzi questi strumenti per diffondere odio o negare fatti storici accertati con l’obiettivo di creare disordine o discriminazione. Altro esempio è una reazione emotiva a un fatto di infedeltà di coppia mai avvenuto, ad un comportamento di un dipendente o di un personaggio famoso mai accaduto, ad un nudo, ad un atteggiamento osceno o riprovevole che mai si è dato nel mondo reale. Dunque è chiaro che lo slop è la miccia di innesco di conseguenze giuridiche, di fatti giuridicamente rilevanti, o anche socialmente rilevanti. Pensate alla turbativa nel voto, nelle scelte politiche, nelle consapevolezze violate di un cittadino digitale passivo, che assorbe tanta disinformazione da finti contenuti generati da AI o dalla finta-scienza, dai consigli sui farmaci, a modalità inedite di assumere sostanze, nutrirsi, interagire col mondo. Le nostre Istituzioni democratiche sono a rischio.
La differenza tra teoria e realtà
In alcuni circoli intellettuali e in quelli etici e religiosi, si parla spesso di termini complessi per descrivere questo fenomeno, definendolo come una sorta di “violenza alla conoscenza”, occorre “algoretica” e “human in the loop”. Spesso ci si trascina in dibattiti estenuanti e si supera il punto concreto su cui varrebbe la pena riflettere meglio. Si discute su come queste macchine stiano cambiando il modo in cui l’umanità interpreta la realtà. Tuttavia, per il cittadino comune e per chi deve gestire la sicurezza di una nazione, queste restano discussioni teoriche, quasi filosofiche, che poco hanno a che fare con la realtà quotidiana.
Il problema pratico è molto più semplice e urgente: se una tecnologia permette di inondare la società di bugie visive che sembrano verità, la società smette di fidarsi di tutto. Non serve scomodare i grandi filosofi del passato per capire che un mondo dove non crediamo più a ciò che vediamo è un mondo più fragile e più facile da manipolare. Il rischio non è “metafisico”, ma estremamente concreto: è il rischio di denunce, di scontri in piazza basati su notizie false e di una memoria storica che sbiadisce fino a scomparire.
I deepfake: l’arma della manipolazione
Un gradino sopra le semplici immagini create dall’IA ci sono i deepfake, ovvero video in cui il volto o la voce di una persona reale vengono clonati per farle dire o fare cose che non ha mai fatto. Recentemente abbiamo assistito alla diffusione di falsi video di leader politici, esponenti delle forze dell’ordine o personaggi pubblici che incitano alla violenza o annunciano catastrofi imminenti.
Questi video sono la forma più evoluta di “pappa digitale”. Sono ottimizzati per essere scioccanti. Un video di 15 secondi di un attentato (mai avvenuto) o di una dichiarazione di guerra (falsa) genera milioni di visualizzazioni in pochi minuti. Prima che le autorità o i giornalisti possano smentire la notizia, il danno è già fatto: la gente è scesa in strada, i mercati finanziari hanno reagito, il clima sociale si è avvelenato.
Tutta Europa è afflitta dal problema in modo piuttosto grave. Da ultimo il Palazzo Reale belga è intervenuto contro dei deepfake che ritraevano la principessa Elisabetta, l’erede al trono ventiquattrenne con immagini e video generati con l’intelligenza artificiale, tra cui uno in cui la giovane appariva mentre ballava davanti alle sbarre di una prigione. Sono stati pubblicati su un account social che aveva raggiunto oltre 28.000 follower. RTL Info ha dato la notizia e il Palazzo ha confermato di aver preso tutte le misure necessarie, facendo bloccare il contenuto sull’account originale.
Come difendersi: non servono nuove leggi, ma nuovi occhi
Di fronte a questa valanga di contenuti artificiali, la tentazione è quella di chiedere nuovi divieti o leggi speciali. In realtà, gli strumenti per difenderci esistono già. Chi diffonde falsità per danneggiare gli altri o per incitare alla violenza sta già commettendo un reato, indipendentemente dal fatto che abbia usato un pennello o un algoritmo.
La vera sfida è un’altra e riguarda tutti noi. È una sfida di alfabetizzazione digitale. Dobbiamo imparare a guardare uno schermo con la stessa diffidenza con cui guarderemmo un venditore di pozioni magiche in una fiera di paese. Ecco alcuni punti chiave per una difesa efficace:
- La tracciabilità: È fondamentale che le aziende che producono queste tecnologie inseriscano dei “marchi di fabbrica” (chiamati watermarking) che rendano subito chiaro se un’immagine è stata creata da un computer.
- La responsabilità delle piattaforme: Chi gestisce i social media non può limitarsi a dire “noi siamo solo il contenitore”. Gli algoritmi che decidono cosa farci vedere devono essere programmati per penalizzare i contenuti potenzialmente pericolosi o non verificati su temi delicati come la storia o la sicurezza.
- L’educazione: Bisogna insegnare, a partire dalle scuole, che un’immagine non è più una prova. Se una cosa sembra troppo assurda, violenta o incredibile per essere vera, probabilmente è “slop”.
Governare la tecnologia
L’intelligenza artificiale non è un mostro da distruggere. Può essere un aiuto incredibile per la medicina, per la scienza e persino per la cultura (si pensi alle ricostruzioni storiche fatte a scopo didattico, che aiutano gli studenti a visualizzare il passato). Il problema sorge quando questa potenza viene lasciata senza controllo in mano a chi cerca solo un guadagno facile attraverso il caos informativo.
La memoria collettiva di un popolo è un bene prezioso. È ciò che ci permette di non ripetere gli errori del passato. Se permettiamo alla “pappa digitale” di riscrivere l’orrore delle guerre o di inventare fatti mai accaduti, perderemo la bussola della nostra civiltà. Ci sono pericoli in corso, che amplificano effetti già di per se nefasti dei conflitti in essere. Non è una questione di filosofia, ma di sopravvivenza della verità. Nel futuro prossimo, la nostra libertà non si difenderà solo nelle piazze, ma anche imparando a riconoscere e a scartare la spazzatura digitale che ogni giorno cerca di invadere le nostre menti.



