Ecco come l’intelligenza artificiale rintraccia gli immigrati negli Stati Uniti

ICE-IMMIGRATI-USA

Quando l’AI diventa frontiera: L’intelligenza artificiale non è neutrale, soprattutto quando indossa una divisa

C’è un momento preciso in cui una tecnologia smette di essere un semplice strumento e diventa una scelta politica. L’uso dell’intelligenza artificiale da parte dell’ICE, l’agenzia federale statunitense per il controllo dell’immigrazione, sembra collocarsi esattamente in questo punto di non ritorno. Non parliamo più di software amministrativi o di supporto alle indagini, ma di sistemi predittivi e di riconoscimento facciale impiegati per individuare, mappare e colpire esseri umani in carne e ossa. Case, quartieri, famiglie trasformate in “target” digitali. È qui che l’AI smette di essere innovazione e diventa infrastruttura del potere.

Dalla gestione dei dati alla repressione: un salto che cambia tutto

Negli Stati Uniti l’integrazione dei dati governativi non è una novità. Dopo l’11 settembre, il Patriot Act ha aperto la strada alla condivisione massiccia di informazioni tra agenzie federali. Ma ciò che oggi fa la differenza è l’uso dell’intelligenza artificiale per dare a quei dati una funzione predittiva e operativa. Incrociare database sanitari, informazioni fiscali, tracciamenti geografici e archivi biometrici non serve più solo a “sapere”, ma a intervenire. È un passaggio sottile ma decisivo: dalla conoscenza al controllo.

Mappe, punteggi e probabilità: quando una persona diventa un dato

Il software sviluppato da Palantir Technologies per l’ICE non si limita a elencare nomi. Costruisce mappe dinamiche, assegna punteggi di probabilità, individua zone “ad alta densità” di presunti immigrati irregolari. In altre parole, trasforma l’incertezza giuridica di una persona in una percentuale statistica. È una logica mutuata dal marketing e dall’intelligence militare, applicata però alla vita quotidiana di milioni di individui spesso poveri, vulnerabili, invisibili. L’errore non è un bug: è una variabile accettata.

Il riconoscimento facciale come fermo di polizia permanente

Accanto alla mappatura predittiva, l’ICE utilizza applicazioni di riconoscimento facciale come Mobile Fortify e sistemi commerciali sviluppati da aziende private. Scansionare un volto per strada e collegarlo in tempo reale a database governativi significa introdurre una forma di controllo continuo nello spazio pubblico. I report ufficiali ammettono tassi di errore più elevati su donne e persone afroamericane. Tradotto: l’AI sbaglia di più proprio sui gruppi già più esposti alla discriminazione. E quando sbaglia, le conseguenze non sono una pubblicità fuori target, ma un arresto, una detenzione, un’espulsione.

Dati sanitari e fiducia tradita: la linea rossa dell’etica

eye, technology, binary, artificially, video surveillance, monitoring, control, iris, binary, binary, binary, binary, binary, video surveillance, monitoring, iris-1431368.jpg

Uno degli aspetti più controversi è l’uso di dati sanitari, come quelli legati a Medicaid, per fini repressivi. Informazioni raccolte per garantire cure a persone indigenti diventano strumenti per localizzarle e colpirle. È una frattura profonda del patto di fiducia tra cittadino e Stato. Se accedere a un servizio sanitario significa esporsi al rischio di deportazione, il risultato è prevedibile: meno cure, più marginalità, più paura. L’innovazione, in questo caso, non risolve problemi sociali. Li amplifica.

Le aziende tech e il potere: neutralità come alibi

Palantir non è sola. L’ecosistema tecnologico che ruota attorno alla sicurezza nazionale americana coinvolge startup, colossi del software e fornitori di servizi cloud. Tutti rivendicano neutralità: “noi forniamo strumenti, non decidiamo come usarli”. Ma questa distinzione regge sempre meno. Quando un’azienda progetta sistemi pensati esplicitamente per identificare, classificare e colpire persone, la responsabilità non può essere scaricata interamente sull’utilizzatore finale. Non è un caso che la Electronic Frontier Foundation parli apertamente di ritorno a una sorveglianza di massa degna dei peggiori progetti dei primi anni Duemila.

Sorveglianza selettiva e democrazia sotto stress

Il punto non è solo l’immigrazione. È il precedente. Oggi questi strumenti colpiscono gli immigrati irregolari; domani potrebbero essere usati per altre categorie considerate “a rischio”. Attivisti, manifestanti, minoranze politiche. L’AI applicata alla sicurezza pubblica tende per sua natura ad espandersi, perché promette efficienza, risparmio di risorse, controllo. Ma una democrazia che accetta la sorveglianza permanente di intere comunità in nome dell’efficienza sta erodendo se stessa, un algoritmo alla volta.

Il futuro che stiamo addestrando

L’intelligenza artificiale non nasce cattiva. Ma apprende dal contesto in cui viene addestrata e dagli obiettivi che le vengono assegnati. Se la addestriamo a vedere le persone come profili di rischio, a misurare la probabilità che un individuo “valga” un’operazione di polizia, non dovremmo stupirci se il risultato è una società più fredda, più automatizzata, meno giusta. La vera domanda, allora, non è cosa può fare l’AI per la sicurezza. Ma cosa siamo disposti a sacrificare — in termini di diritti, fiducia e umanità — per sentirci, forse, un po’ più sicuri.