Dario Denni: La magistratura americana applica in fondo le nostre leggi europee, le stesse norme che JD #Vance avversa e #Musk e #Zuckerberg vogliono cancellare, come il #digitalServicesAct e le altre norme europee che tutelano minori e utenti da contenuti dannosi, da pratiche anticoncorrenziali, dall’infinite entertainment e dal lock in. Vergogna a chi ancora difende i miliardari delle tecnomonarchie USA.

Per anni abbiamo vissuto nell’illusione che il mondo digitale fosse diviso in due: da una parte i contenuti (le foto, i video, i post), dall’altra il contenitore (l’app, il sito, il social media). Se qualcosa andava storto online, la colpa era quasi sempre di chi aveva pubblicato il messaggio. La piattaforma si limitava a dire: “Noi costruiamo solo la piazza, non siamo responsabili di quello che la gente grida al megafono”.

Ma una recente e storica sentenza americana ha abbattuto questo muro. Per la prima volta, la responsabilità non è stata cercata in cosa veniva detto, ma in come era costruita la piazza. Spostando l’attenzione dal contenuto al design, i giudici hanno sancito un principio rivoluzionario: le piattaforme sono responsabili del comportamento che inducono negli utenti.

Una giuria californiana ha dato ragione a KGM (Kaley), una ragazza di 20 anni, stabilendo che Meta (Instagram) e YouTube hanno progettato piattaforme con funzioni addictive (come lo scroll infinito e l’autoplay) che l’hanno resa dipendente fin da bambina, aggravando i suoi problemi di salute mentale (ansia, depressione, disturbi dell’immagine corporea).

Dopo oltre 40 ore di deliberazione, la giuria ha condannato le due società a pagare 6 milioni di dollari totali:

  • 3 milioni di danni compensativi
  • 3 milioni di danni punitivi (per aver agito con negligenza e senza adeguate avvertenze sui rischi per i minori).

Meta è stata ritenuta più responsabile (70% dell’importo, circa 4,2 milioni), YouTube il 30% (circa 1,8 milioni). La testimonianza di Mark Zuckerberg non è stata apprezzata dalla giuria. Si tratta del primo processo “pilota” di questo tipo negli USA: potrebbe influenzare migliaia di cause simili pendenti contro i social media. Meta e Google hanno annunciato che faranno appello, sostenendo che i problemi di salute mentale della ragazza derivano da altri fattori (come la famiglia) e non solo dalle piattaforme. In parallelo, pochi giorni prima Meta era stata condannata in New Mexico a pagare 375 milioni di dollari per pratiche scorrette legate allo sfruttamento e alla sicurezza dei minori.

L’Architettura dell’Inganno

Immaginate di entrare in un supermercato dove i corridoi si allungano all’infinito mentre camminate, dove le luci cambiano intensità per non farvi capire che ore sono e dove i prodotti saltano letteralmente nel vostro carrello basandosi sui vostri desideri più nascosti. Non accettereste mai una struttura del genere nel mondo fisico. Eppure, è esattamente ciò che viviamo ogni giorno sui nostri smartphone.

Questa è quella che gli esperti chiamano “Architettura delle Scelte”. Ogni pulsante, ogni colore e ogni notifica non sono lì per caso. Sono progettati per massimizzare l’engagement, ovvero il tempo che passiamo incollati allo schermo. Fino a ieri, la legge si occupava di moderare i contenuti: cancellare l’odio, eliminare le fake news, proteggere il copyright. Era una battaglia infinita e spesso inefficace. La nuova frontiera del diritto, invece, entra nel cuore del codice.

Il problema non è più solo se un video sia inappropriato, ma se il meccanismo di “scroll infinito” sia stato progettato per annullare i nostri punti di stop cognitivo. Avete presente quando aprite TikTok o Instagram per “controllare un attimo” e vi ritrovate dopo un’ora senza sapere come sia successo? Quello non è un vostro fallimento di volontà; è un successo del design. È un ambiente che “induce” un comportamento compulsivo. La svolta legale paragona oggi un software a un prodotto fisico. Se acquistate un’auto con i freni difettosi e fate un incidente, la colpa è del produttore. La sentenza contro colossi come Meta e YouTube suggerisce che se un algoritmo di raccomandazione è progettato per sfruttare le vulnerabilità psicologiche di un adolescente, portandolo alla dipendenza o alla depressione, allora quel software è un “prodotto difettoso”.

Non si tratta più di libertà di espressione, ma di sicurezza del prodotto. Questo approccio toglie alle Big Tech il loro scudo preferito: non possono più dire di essere “neutrali”. Se progetti un ambiente che spinge attivamente verso un danno, ne sei responsabile.

Le Trappole Digitali (Dark Patterns)

Il dibattito si sta spostando su quelli che vengono chiamati Dark Patterns (modelli oscuri). Sono trucchi di design che ci manipolano sottilmente:

  • La scarsità artificiale: “Solo 1 camera rimasta!” (anche se non è vero).
  • Il labirinto della cancellazione: Rendere facilissimo iscriversi a un servizio ma quasi impossibile trovarne il tasto per disdirlo.
  • Il “Nudge” (la spinta gentile) aggressivo: Notifiche che arrivano proprio nel momento in cui siamo più stanchi o vulnerabili.

Regolare questi comportamenti è la sfida del secolo. Significa proteggere la nostra autonomia decisionale. Se le nostre scelte sono costantemente orientate da un ambiente digitale che conosce i nostri punti deboli meglio di noi, siamo ancora davvero liberi?

Il libro più bello che spiega alcune di queste pratiche dei colossi digitali americani è di Ignacio Cofone “The privacy Fallacy” che spiega alcune tecniche legate in particolare modo agli aspetti privacy che sono prodromici a tante altre conseguenze giuridiche e psicologiche. Il Prof. Cofone ha scritto: “Ignoriamo le
impostazioni sulla privacy e i termini e le condizioni non perché siamo pigri, ma piuttosto perché i progetti dei fornitori di servizi ci spingono verso scelte svantaggiose. (…) I progettisti modellano abitualmente architetture di scelta per indurre le persone ad accettare termini che avvantaggiano le aziende. (…) Inquadrare le impostazioni relative alla scelta della privacy in modi convenienti, ad esempio etichettandole come “impostazioni dell’app” anziché “impostazioni sulla privacy”, aumenta la probabilità che le persone accettino le pratiche relative ai dati. Inoltre, i design non user-friendly ostacolano i controlli sulla privacy percepiti”.

La Protezione del Consumatore “per Progettazione”

La soluzione che sta emergendo è il concetto di “Consumer Protection by Design”. L’idea è semplice: la sicurezza e la tutela dell’utente devono essere integrate nel prodotto fin dalla prima riga di codice, non aggiunte dopo come un cerotto.

Questo significa che i designer del futuro non potranno più chiedersi solo “come posso rendere questa app più coinvolgente?”, ma dovranno chiedersi “questa funzione rispetta la salute mentale dell’utente?”. È un’etica della progettazione che mette il benessere umano al di sopra delle metriche di profitto.

Naturalmente, questo passaggio non è privo di rischi. Se lo Stato inizia a regolare il modo in cui le app sono costruite, dove si ferma? C’è il rischio di un “paternalismo digitale” dove il governo decide cosa sia bene o male per noi, limitando la nostra libertà di scoprire contenuti nuovi. Inoltre, c’è il problema della “Scatola Nera”. Spesso gli algoritmi moderni, basati sull’Intelligenza Artificiale, imparano da soli come tenerci incollati allo schermo. Gli stessi ingegneri che li hanno creati a volte non sanno spiegare esattamente perché l’algoritmo abbia scelto proprio quel contenuto. Se nemmeno il creatore capisce il mostro che ha creato, come possiamo regolarlo?

Siamo entrati in un’era in cui la nostra attenzione è la risorsa più preziosa del pianeta. Questa sentenza ci dice che non siamo prede indifese in un mercato selvaggio. Il diritto sta finalmente entrando nelle “stanze dei bottoni” della Silicon Valley, non per censurare le idee, ma per bonificare l’ambiente in cui quelle idee circolano. Passare dalla regolazione dei contenuti alla regolazione del design significa reclamare la nostra sovranità. Significa pretendere che gli strumenti digitali tornino a essere servitori dei nostri scopi, e non padroni del nostro tempo. La tecnologia deve aiutarci a vivere meglio, non deve essere un labirinto progettato per non farci mai trovare l’uscita.

DENNI: “GIGANTI WEB COME TECNOMONARCHIE, ORA REGOLE UE SIANO UN MODELLO GLOBALE”

ROMA, 26 MAR 2026 – La recente sentenza di una giuria americana che ha condannato i giganti del tech per il design “additivo” delle loro piattaforme segna il definitivo tramonto dell’immunità per gli algoritmi e l’ascesa del modello regolatorio europeo come standard mondiale. È quanto emerge dall’analisi di Dario Denni, esperto di politiche digitali, che legge nel verdetto statunitense una validazione delle norme UE finora avversate dai vertici della Silicon Valley. “La magistratura americana sta applicando, nei fatti, le nostre leggi europee”, spiega Denni, sottolineando come i principi cardine del Digital Services Act (DSA) stiano varcando l’Atlantico nonostante le resistenze politiche. “Si tratta delle stesse norme che figure come JD Vance avversano e che leader del calibro di Elon Musk e Mark Zuckerberg vorrebbero cancellare”.

La salute mentale delle nuove generazioni non dipende solamente dal numero di ore passate davanti al telefonino, ma dalla qualità dei legami che hanno nel mondo reale. Ciò che conta davvero è sentirsi parte di qualcosa, avere persone su cui contare e imparare a gestire le proprie emozioni. Invece di combattere una battaglia contro la tecnologia, dovremmo preoccuparci di ricostruire il supporto sociale e la presenza degli adulti. Aiutare un ragazzo significa dargli gli strumenti psicologici per affrontare la vita, facendolo sentire amato e considerato, affinché non debba più usare lo schermo come un’armatura per proteggersi dal mondo.

Dal Contenuto al Design: la Nuova Frontiera Responsabilità

Al centro della contesa non c’è più la libertà di espressione o la moderazione dei singoli post, ma l’architettura dei servizi. La sentenza americana recepisce il concetto di “prodotto difettoso” applicato al codice: se un ambiente digitale è progettato per indurre dipendenza (attraverso lo scroll infinito o l’infinite entertainment), la responsabilità trasla dal contenuto al creatore dell’interfaccia.

Secondo Denni, il verdetto colpisce al cuore le pratiche di:

  • Lock-in: Meccanismi che rendono quasi impossibile per l’utente abbandonare l’ecosistema digitale.
  • Harmful Choice Architectures: Interfacce che manipolano il comportamento dei minori, comprimendone l’autonomia decisionale.
  • Algoritmi di Engagement: Motori di raccomandazione ottimizzati per il tempo speso a scapito della salute pubblica.

Lo Scontro con le “Tecnomonarchie”

Il commento di Denni assume una forte connotazione geopolitica: “Vergogna a chi ancora difende i miliardari delle tecnomonarchie USA“, attacca l’esperto, evidenziando il paradosso di un sistema che predica la libertà assoluta mentre esercita un controllo capillare e psicologico sugli utenti attraverso il design.

Mentre l’amministrazione americana si trova a un bivio tra la spinta alla deregolamentazione (invocata dalla nuova destra tech e dai fautori del laissez-faire) e la tutela dei cittadini, la giurisprudenza sembra indicare una strada obbligata: la convergenza verso il modello di “Consumer Protection by Design” di matrice europea. La decisione dei giudici USA suggerisce che la neutralità tecnologica è un mito del passato. Se il diritto entra nell’architettura degli algoritmi, le Big Tech dovranno ridisegnare i propri servizi non più solo per il profitto, ma per la sicurezza biologica e cognitiva degli utenti.

“Il DSA e le norme UE che tutelano minori e utenti dai contenuti dannosi non sono freni all’innovazione”, conclude Denni, “ma gli unici strumenti per garantire che la tecnologia resti al servizio dell’uomo e non viceversa”.