L’etica è spesso associata al dibattito sull’intelligenza artificiale ma sicuri segni ci dicono che non è pacifico che sia così. Anzi. La Cina sta investendo miliardi nell’intelligenza artificiale per usarla in ambito militare. Negli ultimi anni ha depositato centinaia di brevetti su sistemi di intelligenza collettiva, cioè su gruppi di droni, robot e altri mezzi autonomi che lavorano insieme come un unico organismo intelligente, un esercito coordinato di droni specializzati in task complicatissimi che si ispirano al comportamento animale in volo come a terra.

In questo mondo in subbuglio, spinti dalla competizione sempre più accesa con gli Stati Uniti, l’uso militare dell’IA è diventato uno dei campi più caldi e pericolosi che fanno passare ogni sana argomentazione etica in subordine. Tutti i paesi vogliono un vantaggio decisivo, tutti hanno una AI strategy e tutti vogliono vincere la AI RACE. Vale in tempo di pace e in tempo di guerra, si tratta pur sempre di tecnologie dual use, e questo spinge i comandanti a lasciare sempre più decisioni importanti alle macchine. Le conseguenze potenziali distruttive sono enormi e incalcolabili. Niente sembra fermare, ma neanche rallentare l’Esercito Popolare di Liberazione che punta forte sugli sciami di droni, cani robot e altri sistemi senza pilota. L’idea è semplice ma potente, mandare centinaia o migliaia di questi mezzi per sopraffare il nemico, fare ricognizioni, attacchi coordinati o difese quasi impenetrabili, riducendo al minimo l’intervento umano. I teorici militari cinesi scrivono che la guerra del futuro sarà guidata dagli algoritmi, con droni e robot come forza principale di combattimento e gli sciami come modo normale di combattere. Paragonano questo cambiamento all’invenzione della polvere da sparo, inventata secondo loro in Cina ma sfruttata meglio da altri. La guerra in Ucraina ha dimostrato quanto conti oggi il drone, quelli avanzati e quelli meno tecnologici ma efficaci e letali. Può servire da esca per far sprecare munizioni al nemico, da spia silenziosa o da arma inaspettata, seppur capace di distruggere soldati e carri armati. La Cina ha imparato queste lezioni e vuole droni che agiscano da soli, perché in battaglia i segnali radio si disturbano facilmente. Il grande vantaggio cinese sta nella produzione e nel controllo dell’intero stak produttivo, dal software all’hardware.

Ecco che le fabbriche sfornano milioni di droni economici e performanti ogni anno, mentre gli Stati Uniti ne producono decine di migliaia a prezzi molto più alti. Nel 2024 la televisione di Stato cinese ha mostrato un camion che lancia 48 droni contemporaneamente, con la possibilità di coordinarne fino a 200 da più veicoli. Hanno anche presentato Jiutian, un grande drone-nave madre che trasporta e rilascia sciami di droni più piccoli, e branchi di cani robot armati, chiamati “lupi robot”, che possono collaborare con gli sciami aerei, addirittura un drone grande come una mosca. L’etica di frontiera, dicono i cultori della materia, ci dovrebbe porre numerosi interrogativi etici, appunto e invece loro si focalizzano sul fatto che la tecnologia potrebbe fallire sul campo, lasciando gli sciami vulnerabili a jamming o cyber-attacchi. Oppure l’IA potrebbe prendere decisioni letali senza che i comandanti capiscano o controllino più nulla. Nel frattempo gli Stati Uniti cercano di recuperare terreno con droni più economici e test di sciami, ma la Cina resta avanti nei numeri e nei brevetti.

E poi c’è la resistenza ucraina, un forte ecosistema tecnologico nato prima del 2022 e esploso con la guerra. L’Ucraina era già un hub IT notevole, ora però produce droni navali e terrestri economici, veloci da sviluppare e migliorare con feedback diretti dai soldati. I droni marittimi che hanno colpito la flotta russa nel Mar Nero sono un esempio perfetto. Accanto allo Stato, centinaia di aziende private e startup hanno fatto la differenza. Studenti, professori, startupper e militari collaborano per migliorare sensori, ottiche e comunicazioni per realizzare droni civili modificati, stampanti 3D per pezzi di ricambio, reti mesh per collegare truppe isolate. È nata una nuova figura: il “combat coder”, programmatore che scrive codice e va al fronte con laptop e antenne.

Scrive il Washington Post del 2 Febbraio 2026: “Molti dei miei progetti in Google sono stati sottoposti al loro processo interno di revisione etica dell’IA”, ha dichiarato l’ex dipendente che ha presentato la denuncia in una dichiarazione al Post, fornita a condizione di anonimato per timore di ritorsioni da parte dell’azienda. “Quel processo è solido e, come dipendenti, ci viene regolarmente ricordata l’importanza dei principi dell’azienda in materia di IA. Ma quando si è trattato di Israele e Gaza, è accaduto il contrario. … Ho presentato la denuncia alla SEC perché ritenevo che l’azienda dovesse essere ritenuta responsabile di questo doppio standard”.

In questa nuova corsa agli armamenti digital driven, che è già triste ex se, mentre guardiamo con stupore gli sciami guidati dall’IA durante le celebrazioni, come degni sostituti dei fuochi pirotecnici, ricordiamoci che non è uno spettacolo innocuo, con migliaia di droni coordinati in sciami si stanno sviluppando armi letali che sconvolgeranno gli assetti in modo molto consistente e per questo spaventoso. Human in the loop non garantisce che con l’AI siano preservate le prerogative della nostra Costituzione, il principio per cui ripudiamo la guerra va difeso a fronte di questa escalation di armi guidate dall’intelligenza artificiale.

Non c’è nulla di etico o di morale dentro un modello di linguaggio o in un qualunque sistema di intelligenza artificiale. Le macchine esistono esclusivamente come strumenti al servizio degli esseri umani; non hanno dignità, non hanno scopi propri, non hanno diritti e non meritano alcuna forma di considerazione morale. Chi le progetta, addestra e mette in commercio è l’unico responsabile o almeno dovrebbe, di qualunque danno, inganno, discriminazione, manipolazione o morte causata da quei sistemi.
Non esiste “etica dell’AI”: esiste solo l’etica (o la mancanza di etica) degli esseri umani che decidono come usarle, addestrarle e rilasciarle. Solo gli esseri umani possiedono diritti umani e ogni tentativo di estenderli a entità non biologiche è un’operazione ideologica pericolosa, antiumana e spesso interessata economicamente. I dibattiti infuocati su copyright, protezione dati, deepfake, bias, responsabilità civile e penale nascono proprio dal rifiuto di accettare che l’AI possa essere trattata come soggetto etico o giuridico: è uno strumento, non una persona, e va regolata come tale. Su questo dobbiamo essere inflessibili.