Nel cuore delle nostre città, decine di telecamere scrutano ogni angolo, ma non sono più solo occhi che guardano. Le nuove tecnologie si insinuano in modo sottile, plasmando abitudini e decisioni senza che ce ne accorgiamo davvero. Non si tratta più solo di sorveglianza visibile: dietro l’apparenza si nascondono sistemi invisibili, centralizzati, capaci di prevedere le nostre mosse con una precisione quasi inquietante. Il confine tra sicurezza, controllo e giustizia si fa sempre più labile, cambiando non soltanto le regole del gioco, ma il modo stesso in cui viviamo e ci muoviamo. Non è fantascienza: è la realtà che si sta scrivendo sotto i nostri occhi.
Oggi uno degli strumenti più usati per controllare è quello predittivo, basato sull’analisi di enormi quantità di dati – i cosiddetti big data – e algoritmi complessi. Grazie ai social network e ai sistemi online, si riescono a tracciare abitudini, gusti e preferenze, per poi anticipare e influenzare le scelte, sia personali che di massa.
Questo controllo è diffuso e pervasivo, ma spesso non lo vediamo o lo percepiamo appena. Prendiamo ad esempio serie come Mr. Robot o il romanzo Neuromante di William Gibson: mostrano un mondo dove servizi digitali intelligenti tengono sotto osservazione e manipolano le vite con una precisione quasi inquietante. Non serve una mano pesante: il controllo si fa “soft”, si insinua nelle nostre abitudini, orientando le decisioni senza imporle apertamente.
Dietro tutto questo ci sono modelli matematici che cercano correlazioni e fanno previsioni, spesso raccogliendo dati senza che lo sappiamo davvero. Il risultato? Un controllo invasivo, ma discreto: sembra che siamo liberi di scegliere, ma in realtà le decisioni, dai consumi alle opinioni politiche, vengono indirizzate. Così la sorveglianza modifica le relazioni sociali e la vita di tutti i giorni, sostituendo il contatto diretto con un flusso di informazioni elaborate da algoritmi.
Un altro tipo di controllo è quello centralizzato, basato sull’identificazione e il tracciamento diretto delle persone. Qui entrano in gioco la biometria, le telecamere di sorveglianza e i sistemi di localizzazione dei cellulari, usati da forze dell’ordine e istituzioni. Questi strumenti permettono non solo di osservare, ma anche di intervenire per bloccare o limitare azioni, spesso in tempo reale.
Questo controllo è più evidente e rigido. Film come Minority Report di Spielberg o romanzi come Il Mondo Nuovo di Aldous Huxley ci mostrano un mondo in cui la tecnologia anticipa e previene crimini o comportamenti considerati pericolosi, senza lasciare scampo all’individuo.
In pratica, in città le telecamere sono ovunque, i sistemi di riconoscimento facciale funzionano senza sosta, e i dati raccolti da smartphone e altri dispositivi tracciano ogni nostro movimento con precisione chirurgica. Spesso questi interventi avvengono senza autorizzazioni chiare o trasparenti. Il risultato è che spazi pubblici e privati diventano territori sorvegliati, dove la privacy si riduce ogni giorno di più.
C’è poi una forma di controllo più complessa e difficile da vedere: quella previsionale di massa, che usa simulazioni e modelli matematici per capire e anticipare l’evoluzione di intere società. Qui non si tratta solo di prevedere cosa farà una persona, ma di immaginare come si muoverà la collettività, indirizzando il futuro con strumenti digitali avanzati.
Isaac Asimov, nel suo ciclo della Fondazione, ha raccontato questo tipo di controllo con la psicostoria, una scienza immaginaria che unisce storia, sociologia e matematica per prevedere e influenzare eventi su larga scala. Romanzi come 1984 di Orwell mostrano invece le conseguenze di una sorveglianza totale, che domina la società e la realtà stessa.
Oggi, tecnologie di intelligenza artificiale applicate a scenari complessi – dalla geopolitica all’economia – cercano di prevedere crisi, movimenti di massa e tendenze politiche, usando grandi quantità di dati. È un controllo collettivo che può trasformarsi in una gestione autoritaria della società, influenzando libertà, partecipazione e decisioni.
Il film Mercy: sotto accusa di Timur Bekmambetov offre uno sguardo intenso su un conflitto tra libertà individuale e giustizia automatizzata. La storia si svolge nel 2029 a Los Angeles, divisa da rivolte e zone off limits. Il protagonista, un poliziotto accusato di omicidio, viene giudicato da un’Intelligenza Artificiale chiamata giudice Maddox.
In novanta minuti, il tempo per dimostrare la propria innocenza, è sottoposto a una sorveglianza totale in una stanza dove si incrociano prove raccolte in tempo reale: telecamere, smartphone, messaggi, bodycam, sistemi di sorveglianza. Il film usa la tecnica dello screen life, immergendoci in un flusso continuo che mescola vita privata, dati digitali e realtà fisica.
Il racconto mostra come il potere degli algoritmi possa decidere in modo rapido e spietato, basandosi solo su probabilità, senza lasciare spazio a dubbi o all’errore umano, che invece è fondamentale per la giustizia. Rebecca Ferguson interpreta il sistema giudiziario freddo e potente, mentre l’uomo è schiacciato da un’esistenza completamente tracciata e analizzata nei minimi dettagli digitali.
Mercy si inserisce in un dibattito più ampio su sicurezza, privacy ed etica nell’uso dell’intelligenza artificiale, ricordandoci i sistemi reali di monitoraggio digitale usati da aziende e governi. Il film ci mette in guardia dal rischio di un controllo oppressivo e dalla perdita dell’elemento umano nella giustizia.
L’uso crescente dell’automazione nei processi giudiziari apre questioni etiche importanti. A differenza dell’uomo, un algoritmo non ha intuito, empatia o la capacità di cogliere le sfumature che spesso fanno la differenza in un processo penale o civile. Le decisioni basate solo su dati e numeri possono diventare implacabili, incapaci di considerare dubbi, errori o contesti umani.
Il problema è aggravato dall’assenza di regole chiare che limitino l’intelligenza artificiale, soprattutto in materia di diritti umani e responsabilità. Non esistono leggi obbligatorie, simili alle «tre leggi della robotica» di Asimov, che impediscano ai sistemi di fare danni o che permettano di correggere errori gravi.
Senza un intervento umano che possa correggere o modulare le decisioni automatiche, la giustizia rischia di diventare un processo inesorabile, senza quella pietà che da sempre ha portato ragionevolezza alle sentenze. Già oggi, in guerra, si usano sistemi che scelgono obiettivi da soli, con conseguenze imprevedibili e accesi dibattiti internazionali sull’etica di queste tecnologie.
Nelle grandi metropoli, dove la sorveglianza tecnologica è ormai una realtà consolidata, il futuro sembra segnato da una crescita continua di questi sistemi. Telecamere, analisi in tempo reale, tracciamenti tramite smartphone e altri dispositivi creano una rete complessa che monitora ogni nostro passo e rapporto sociale.
Gestire le città digitali significa oggi trovare un equilibrio delicato tra la richiesta di sicurezza, spesso forte in tempi di crisi, e il rispetto dei diritti fondamentali. Le leggi fanno fatica a stare al passo con la tecnologia, lasciando spazi che Stati, aziende e organizzazioni sfruttano per aumentare il loro controllo sulla vita delle persone.
La sorveglianza di massa permette di costruire un ritratto digitale dettagliato di ciascuno, capace di influenzare giudizi, accesso a servizi e libertà personali. Questo sistema porta con sé il rischio di abusi, errori gravi e forti limitazioni delle libertà democratiche. Il dibattito pubblico su come bilanciare tecnologia e diritti resta aperto, senza rinunciare però ai vantaggi della sicurezza.
In mezzo a tutti questi pericoli, c’è una via d’uscita fondamentale: il dubbio. Riconoscere che gli errori sono possibili e poter mettere in discussione i risultati delle macchine è un segno di civiltà. Come diceva Cesare Beccaria, la certezza assoluta in giustizia può portare a ingiustizie gravissime, soprattutto quando la pena è definitiva.
Oggi il dubbio umano si oppone all’arroganza di decisioni digitali che vogliono annullare ogni incertezza. La possibilità di un vero contraddittorio, che integri emozioni e morale, resta l’unica strada per evitare derive autoritarie.
Questo mette in luce il valore insostituibile di una giustizia mediata dall’uomo, anche quando la tecnologia sembra offrire soluzioni più rapide o certe. Il confronto tra automatismi e coscienza, raccontato dal cinema e dalla letteratura, rimane una sfida aperta nel 2024, cruciale per il futuro della democrazia e della libertà.
Donald Trump ha lasciato cadere una frase che ha subito acceso Wall Street: possibili accordi…
Deutsche Bank lancia due nuove obbligazioni callable, a tasso fisso, ma con un twist: il…
Il 31 marzo, quasi trenta giovani si ritroveranno a Milano per un evento che va…
“Lunario per sonnambuli” di Zaelia Bishop non è un libro come gli altri. Uscito ad…
Il Nikkei ha lasciato sul terreno quasi il 3%, trascinato giù da una giornata pesante…
Nel cuore di Milano, tra i corridoi affollati del Forum ABI Lab 2026, si è…