L’Argentina di Javier Milei ha annunciato di voler usare l’intelligenza artificiale per “prevedere crimini futuri” prima che vengano perpetrati. La Cbs riporta che è stato proprio il ministero della Sicurezza – che ha in programma di dotarsi di una nuova Unità di Intelligenza artificiale – a divulgare la notizia.

L’idea non è nuova alla fantascienza, la possibilità di incrementare il controllo e contenere la criminalità mediante sistemi di intelligenza artificiale è alla base, per esempio, del film del 2002 Minority Report che, tratto da un racconto di Philip K. Dick, per la regia di Steven Spielberg, immaginava una realtà regolata da macchine capaci di prevedere i crimini e le loro menti.

Il progetto argentino – L’unità avrà il compito di “prevenire, rilevare, investigare e perseguire i crimini”, oltre a condurre la sorveglianza con i droni, vigilare sui social media e utilizzare il riconoscimento facciale per rafforzare le misure di sicurezza.

Patricia Bullrich, ministro della Sicurezza, ha firmato una risoluzione convinta che avrebbe “migliorato significativamente l’efficienza delle diverse aree del ministero e della polizia federale e delle forze di sicurezza, consentendo risposte più rapide e precise a minacce ed emergenze”. Il comunicato riporta che la nuova unità “utilizzerà algoritmi di apprendimento automatico per analizzare i dati storici sui crimini per prevedere crimini futuri e aiutare a prevenirli”. Il ministero ha citato gli Stati Uniti, la CinaIsraele tra i paesi pionieri nell’uso dell’intelligenza artificiale nelle operazioni di sicurezza, ma non tutti hanno accolto l’idea con lo stesso entusiasmo.

Pericoloso per la tutela dei diritti umani? – I gruppi per i diritti umani sono preoccupati che le nuove misure possano violare la libertà di espressione, poiché i cittadini potrebbero autocensurarsi per paura che i loro post sui social media siano sottoposti al monitoraggio del governo. Il Centro argentino per gli studi sulla libertà di espressione e l’accesso alle informazioni ha osservato che, in passato, tali tecnologie sono state utilizzate per profilare accademici, giornalisti, politici e attivisti. Per questo motivo, hanno chiesto trasparenza sulla provenienza delle tecnologie e su come, nello specifico, verrebbero utilizzate. Va considerato anche che i sistemi di IA, fino ad ora, non sono stati oggetto di una riflessione normativa e giuridica sistematica, cosa che rende il dibattito sul loro utilizzo ancora aperto.