Il principio del “mere conduit”, ovvero la regola per cui chi si limita a trasmettere dati su internet senza intervenire attivamente sui contenuti non risponde degli illeciti commessi da altri, è nato in Europa all’inizio degli anni Duemila con la Direttiva sul commercio elettronico. L’idea era semplice: per far crescere il commercio online bisognava rassicurare gli operatori di rete, detti provider di accesso o ISP, che non avrebbero subito cause milionarie solo perché qualcuno, passando attraverso la loro connessione, aveva condiviso materiale illegale.

Se il provider non sceglie il contenuto, non lo modifica e non sa di cosa si tratta, non può essere ritenuto responsabile di ciò che accade online. Ma questa immunità, però, non è assoluta: la stessa direttiva dice che un giudice (o in alcuni casi un’autorità amministrativa) può comunque ordinare di bloccare o rimuovere qualcosa di illecito.

In Italia questa regola è stata recepita nel decreto legislativo 70 del 2003. Qui però il testo è rimasto volutamente ampio: parla di “autorità giudiziaria o quella amministrativa avente funzioni di vigilanza”. Non ha chiarito quindi un fatto fondamentale di rilievo costituzionale, ovvero che per misure pesanti come un blocco o TAKE DOWN urgente servisse per forza un giudice. Questa formulazione ha aperto la porta all’AGCOM, l’autorità per le garanzie nelle comunicazioni, che dal 2013 in poi ha iniziato a usare poteri amministrativi diretti per ordinare la rimozione o il blocco di contenuti che violano il diritto d’autore online.

Molti hanno criticato questa scelta, dicendo che così si aggirano le garanzie di un processo ordinario, con contraddittorio e possibilità di appello pieno. Nel 2012, quando AGCOM stava preparando la sua delibera più famosa sul diritto d’autore online, arrivò anche un parere dell’ex presidente della Corte Costituzionale Valerio Onida, che sosteneva la legittimità di questi poteri regolatori. Il parere arrivò in ritardo e suscitò polemiche accese: da una parte chi lo vedeva come un via libera all’intervento rapido contro la pirateria, dall’altra chi lo considerava un rischio per la libertà di espressione e per la neutralità della rete. Oltre che per la libretà di impresa, che putroppo cade spesso in secondo piano.

Ne è derivata una chiara necessità di proporzionalità. La Corte di Giustizia dell’Unione Europea ha messo dei paletti chiari già nel 2011 con la sentenza Scarlet contro SABAM. Un provider di accesso internet non può essere obbligato a installare un sistema di filtraggio preventivo su tutta la rete per bloccare i file che violano il copyright. Un filtro del genere significherebbe monitorare in continuazione le comunicazioni di tutti gli utenti, cosa vietata dall’articolo 15 della direttiva sul commercio elettronico. La Corte ha scritto che le misure devono essere mirate, proporzionate e non devono ledere diritti fondamentali come la libertà d’impresa, la protezione dei dati personali e la libertà di informazione. Da quel momento in poi è diventato difficile imporre ai semplici provider di accesso obblighi di controllo preventivo generalizzato.

Ma il discorso non si ferma al mero trasporto. Con il tempo l’Europa ha capito che molte piattaforme non si limitano a trasmettere: le organizzano, le promuovono con algoritmi, le rendono più visibili. È qui che entra in gioco la Direttiva sui servizi di media audiovisivi, aggiornata nel 2018. Questa norma si occupa anche delle piattaforme di condivisione video (YouTube, TikTok e simili) e dice che, se un servizio organizza attivamente i contenuti, deve adottare misure per proteggere i minori da materiale dannoso e per contrastare l’incitamento all’odio o alla violenza. Non diventa editore responsabile di tutto, ma deve mettere in campo strumenti concreti: regole chiare nei termini di servizio, sistemi di segnalazione facili, controlli dell’età, moderazione efficace.

La direttiva tiene salvi i vecchi “safe harbor” della direttiva del 2000, ma aggiunge un livello di responsabilità operativa per chi va oltre la mera trasmissione passiva. In pratica si crea un sistema ibrido: immunità per chi è neutrale, doveri attivi per chi organizza e influenza la visibilità. Un esempio italiano che aiuta a capire quanto il meccanismo sia più ampio del solo copyright è il caso Google Vividown. Nel 2006 venne caricato su Google Video un filmato che mostrava un ragazzo con sindrome di Down bullizzato da compagni. L’associazione Vividown denunciò Google per violazione della privacy. La vicenda finì in Cassazione nel 2013: i giudici dissero che Google era un hosting provider, non un editore, e non aveva obbligo generale di controllare preventivamente i video caricati dagli utenti. Quindi immunità, a meno che non ignorasse una segnalazione precisa. Questo caso non c’entrava con il diritto d’autore, ma dimostrava che lo stesso schema di responsabilità limitata si applica anche alla tutela della privacy, della dignità personale e di altri diritti non economici.

E infatti in Italia esistono altri filtri amministrativi che funzionano allo stesso modo: la Polizia Postale, attraverso il CNCPO, fa oscurare migliaia di siti con provvedimenti rapidi; l’Agenzia delle Dogane e dei Monopoli blocca domini di scommesse illegali. In tutti questi casi il provider di accesso deve eseguire il blocco, anche se il contenuto non è suo e il costo tecnico e organizzativo ricade su di lui.

Proprio questo aspetto economico è uno dei punti più delicati e singolari della vicenda. Un operatore che fornisce solo la connessione a internet si trova a dover spendere soldi per tecnologie di blocco, per personale che gestisce le richieste, per eventuali ricorsi. Tutto questo per tutelare interessi che non sono i suoi: il diritto d’autore di un produttore discografico, la privacy di una persona offesa, l’ordine pubblico minacciato da siti di gioco illegale.

Eppure nel digitale questo onere viene scaricato sugli intermediari di rete. La legge europea cerca di bilanciare tutto: dice che le misure devono essere proporzionate e non eccessivamente onerose, che in certi casi si possono prevedere rimborsi, che le piattaforme molto grandi (quelle del Digital Services Act) devono fare analisi dei rischi e investire di più. Ma resta una asimmetria ed il quadro che emerge è un compromesso continuo.

Da un lato c’è la volontà di tenere internet aperto e poco controllato, per non soffocare l’innovazione e la libertà di espressione. Dall’altro c’è la pressione per proteggere diritti importanti: proprietà intellettuale, minori, dignità, sicurezza pubblica. La regola del mere conduit resta il punto di partenza, ma attorno a essa si sono costruiti strati di eccezioni e doveri crescenti, soprattutto quando il provider non è più neutrale ma organizza, raccomanda, amplifica.

In Italia questo equilibrio è stato reso più complicato dalla scelta di dare all’AGCOM poteri amministrativi diretti, scelta che ha accelerato l’enforcement ma ha anche alimentato un dibattito mai chiuso su chi debba davvero decidere cosa bloccare e con quali garanzie. Il sistema funziona, pensate al Piracy Shield che obbliga al blocco immediato degli eventi sportivi in streaming trasmessi in diretta. Occorrerebbe un bilanciamento attento tra tutti gli interessi in gioco: quelli degli autori e delle imprese creative, quelli degli utenti, quelli delle aziende che tengono in piedi la rete. E su questo bilanciamento, dopo venticinque anni, l’Europa e l’Italia stanno ancora cercando la quadratura perfetta. E con l’America il discorso diventa ancora più difficile se pensiamo alla reazione del CEO di Cloudflare alla sanzione dell’Agcom.