
Non è fantascienza: è già successo! Nel cuore di una città cinese, una scena apparentemente uscita da un film di fantascienza è diventata realtà: una sfera metallica, l’RT-G, si muove tra la folla.
Non si tratta di un giocattolo futuristico né di un’attrazione turistica, ma di un dispositivo di sicurezza dotato di riconoscimento facciale e strumenti di contenimento come reti e gas lacrimogeni.
Può muoversi agilmente a 35 chilometri orari e operare persino in acqua. La sua funzione? Pattugliare, identificare, neutralizzare.
È la manifestazione concreta di una tendenza in crescita: delegare a macchine compiti di coercizione fisica, con conseguenze che vanno ben oltre l’efficienza operativa o il progresso tecnologico.
Con questo, si entra in un territorio oscuro, dove i confini tra sicurezza e controllo, tra tutela dell’ordine e soppressione della libertà, si fanno sempre più sfumati.
Il caso del robot usato dalla polizia di Dallas nel 2016, armato con esplosivi e impiegato per uccidere un sospetto, rappresenta uno spartiacque.
Per la prima volta negli Stati Uniti, una macchina è stata utilizzata non come strumento passivo di supporto, ma come agente diretto di morte.
Nel 2022, San Francisco ha dato il proprio assenso all’impiego di robot armati in situazioni estreme. Due episodi, tra loro distanti ma accomunati da una medesima visione: la possibilità che la forza letale sia affidata non a esseri umani, ma ad apparati meccanici, programmati per agire secondo logiche algoritmiche. Si tratta di un passaggio culturale profondo, che solleva interrogativi morali fondamentali: può una macchina decidere della vita o della libertà di una persona? Possiamo davvero accettare che la coercizione diventi una funzione automatizzata?
Isaac Asimov, nella sua celebre opera narrativa, aveva immaginato un futuro popolato da robot intelligenti, ma vincolati da tre leggi fondamentali. La prima, inderogabile, stabilisce che un robot non può recare danno a un essere umano. La seconda impone l’obbedienza, subordinata al rispetto della prima. La terza tutela la sopravvivenza della macchina, sempre subordinata alle prime due.
Queste leggi, sebbene letterarie, sono divenute un punto di riferimento etico nella riflessione sulla robotica. Oggi, però, sembrano ignorate o aggirate. I robot coercitivi sono progettati per esercitare forza, per infliggere danni, per intervenire senza empatia. Non sono agenti morali, né possono comprendere le sfumature di un contesto umano. Eppure si pretende che agiscano in situazioni ad altissima complessità emotiva, psicologica e sociale, come quelle che richiedono l’uso della forza da parte della polizia.
Chi difende questi strumenti sostiene che possano salvare vite umane: un robot, a differenza di un agente, non rischia la propria incolumità, e in certi scenari estremi potrebbe intervenire più rapidamente e con maggiore precisione. Si aggiunge che la sorveglianza automatizzata potrebbe aumentare la sicurezza urbana e che l’intelligenza artificiale può agire in modo imparziale, priva di passioni, rabbia o pregiudizi. Tuttavia, questi argomenti si basano su un’illusione di neutralità tecnologica. I sistemi di riconoscimento facciale, ad esempio, sono stati ampiamente criticati per la loro scarsa affidabilità, in particolare nei confronti di persone non caucasiche. Gli algoritmi, lungi dall’essere oggettivi, riflettono i bias di chi li ha programmati e dei dati su cui sono stati addestrati. Automatizzare il sospetto e l’intervento significa amplificare tali distorsioni e renderle invisibili, perché coperte dal velo dell’efficienza.
Ma il problema non è solo tecnico. È profondamente politico e culturale. La presenza di robot coercitivi nelle città normalizza l’idea che il controllo sociale debba essere esercitato in modo permanente, impersonale e capillare. Si crea un clima di sorveglianza costante, in cui ogni comportamento può essere analizzato, classificato, sanzionato. La figura del robot non è neutra: è un simbolo di potere, di autorità senza volto.
Riduce le relazioni tra cittadino e Stato a un rapporto di vigilanza unilaterale, in cui la fiducia viene sostituita dal timore della macchina. L’umanizzazione della giustizia – già fragile – rischia di dissolversi del tutto, trasformando le forze dell’ordine in dispositivi remoti e automatizzati.
È quindi urgente un dibattito pubblico ampio e consapevole. Non possiamo lasciare che decisioni così delicate vengano prese nei laboratori delle aziende tecnologiche o da persone che – per motivi diversi – tendono al controllo della popolazione, lontano dallo sguardo dei cittadini.
Si tratta di una scelta collettiva che riguarda la nostra idea di società, di giustizia, di umanità. Dobbiamo interrogarci su quale tipo di convivenza civile vogliamo costruire: una fondata sulla fiducia e sul rispetto reciproco, o una basata sul sospetto permanente e sulla minaccia automatica.
Solo attraverso un confronto trasparente tra cittadini, esperti, filosofi, giuristi e operatori della sicurezza sarà possibile stabilire dei limiti chiari e inviolabili all’uso della tecnologia nella coercizione.
L’umanità si trova oggi a un bivio. Da un lato, la promessa della sicurezza tecnologica, dell’efficienza, del controllo assoluto. Dall’altro, la difesa della dignità umana, della libertà individuale, della responsabilità morale. Dire no ai robot coercitivi non significa rifiutare il progresso, ma scegliere consapevolmente di mantenere l’umano al centro delle decisioni che contano.
Perché nessuna macchina, per quanto avanzata, dovrebbe mai avere il potere di decidere chi va fermato, chi va punito, o peggio ancora, chi deve morire. E nessuna macchina – soprattutto quelle letali – dovrebbero essere usate per scopi in conflitto con l’etica o per favorire il controllo da parte dei regimi autoritari, più o meno dichiarati tali.