Intelligenza Artificiale e Privacy

Main Content

Fino a che punto è giusto utilizzare algoritmi che entrano nella sfera privata per la pubblica sicurezza?

Gli sviluppi nell'Intelligenza Artificiale hanno portato a una serie di tecniche e strumenti che possono essere utilizzati per prevenire e combattere fenomeni come omicidi, femminicidi, nonché la criminalità pubblica in generale.
L'AI possiede infatti molteplici risorse: uno dei più comuni è l'utilizzo di algoritmi di analisi delle informazioni, ovvero programmi specializzati nell'analizzare enormi quantità di dati provenienti da diverse fonti, come registrazioni di videocamere di sorveglianza, rapporti di polizia, ma anche analisi di ciò che viene scritto nei social media e altro ancora, per identificare schemi e tendenze. Analizziamo come si possano mettere in atto tali procedure e come possano queste aiutare le forze dell'ordine a identificare potenziali punti caldi della criminalità, nonché adottare misure preventive.
Da un punto di vista di analisi statistica, in America un software sviluppato dalla polizia di Los Angeles (chiamato PredPol e tradotto come Polizia Predittiva), utilizza i dati sulla criminalità delle ultime settimane per identificare le aree ad alto rischio in cui le forze dell'ordine possono concentrare le loro risorse e attuare misure preventive. Questo sistema è stato efficace nel ridurre i reati violenti del 33% in alcune aree della città.
Un altro utilizzo per la tutela della la sicurezza pubblica è l'analisi delle immagini. Questo sistema può essere utilizzato per analizzare i dati raccolti dalle videocamere di sorveglianza o dalle fotocamere montate sui droni per identificare persone sospette o situazioni rischiose. Inoltre tali confronti possono anche essere utilizzate per identificare persone scomparse o criminali ricercati, ovvero permettendo agli algoritmi di riconoscimento facciale di identificare criminali ricercati che appaiono in una fotografia o in un filmato. Si puntualizza comunque che la tecnologia del riconoscimento facciale è in fase di sviluppo ed alcuni problemi devono essere ancora risolti: ad esempio l'algoritmo potrebbe identificare erroneamente una persona innocente come un criminale o in base alle sue caratteristiche fisiche o altro (cosa che già peraltro può accadere in ambito umano riguardo le incriminazioni).
Altri sistemi di intelligenza artificiale che possono essere usati per prevenire il crimine includono il monitoraggio dei social media per individuare attività sospette, l'analisi delle conversazioni per identificare parole e frasi correlate alla criminalità, e l'analisi dei dati demografici per identificare le persone più a rischio di essere vittime di un reato.
Esistono poi tecnologie come il braccialetto elettronico oppure il chip sottocutaneo: questi sono entrambi dispositivi che possono fornire servizi simili a quelli dei sistemi di riconoscimento facciale in termini di sicurezza e monitoraggio di individui. I braccialetti elettronici sono stati utilizzati in molti paesi come soluzione di controllo e monitoraggio della detenzione dei detenuti, come modo di monitoraggio di detenuti in libertà vigilata, come strumento di tracciamento dei pazienti in alcuni ospedali o in certi casi per il monitoraggio delle persone con malattie mentali. I chip sottocutanei, invece, sono minuscoli impianti sottopelle che possono essere utilizzati per diversi scopi, come l'identificazione di animali domestici o il monitoraggio delle attività dei dipendenti all'interno delle aziende. Da un punto di vista di tutela del cittadino, il braccialetto elettronico viene spesso usato sotto disposizione del giudice come strumento per prevenire fenomeni di violenza domestica o stalking in particolare verso le donne. Difatti, in alcune giurisdizioni, i tribunali possono emettere ordini di restrizione che obbligano queste persone a indossarli, avvertendo le autorità in caso di manomissione o violazione delle misure stabilite dal giudice. Questo può fornire alle vittime un maggiore senso di sicurezza e alle autorità maggiori strumenti di prevenzione.
Tuttavia non è (come si suol dire) tutto oro quello che luccica: anche nell'utilizzo di questi strumenti tecnologici di prevenzione si sono infatti sollevati problemi di privacy (per avere un bilanciamento tra la sicurezza pubblica e il rispetto dei diritti personali), ovvero persistono numerosi dibattiti sul fatto che tutto ciò che vada oltre la statistica del "già accaduto" (conducendo all'acquisizione di immagini di riconoscimento facciale o dati presenti nei social media), possa entrare nella vita privata delle persone e potenzialmente potrebbe essere utilizzato contro di loro in modo errato.
Diamo quindi uno sguardo a quanto sia stato richiesto a livello legale (sia da parte dei singoli stati, sia a livello di unioni di questi) per una più dettagliata regolamentazione sull'uso di tali tecnologie.
In Europa il sistema di riconoscimento facciale ha la sua regolamentazione generale sulla protezione dei dati (GDPR) dell'Unione Europea, in particolare:
- Ha introdotto la necessità di ottenere il consenso esplicito dell'individuo per il trattamento dei dati personali, compresi i dati di riconoscimento facciale.
- Nel 2019, il Parlamento europeo ha adottato una risoluzione sulla tecnologia di riconoscimento facciale nell'Unione europea, invitando la Commissione europea a sviluppare un approccio comune per garantire la protezione dei diritti fondamentali e della privacy.
- Nel 2020, l'Autorità europea per la protezione dei dati (EDPB) ha pubblicato linee guida sul riconoscimento facciale, in cui si richiama l'importanza di rispettare i diritti fondamentali delle persone e si forniscono orientamenti sulle modalità di attuazione della tecnologia nel rispetto delle normative sulla privacy.
Inoltre, alcuni stati membri dell'UE hanno introdotto restrizioni all'uso del riconoscimento facciale, come il divieto di utilizzare la tecnologia per scopi di sorveglianza di massa nei luoghi pubblici.
Negli Stati Uniti, ci sono diverse leggi che regolamentano l'utilizzo della tecnologia nella prevenzione e nella lotta al crimine. Il Quarto Emendamento della Costituzione degli Stati Uniti tutela i cittadini dal cosiddetto "search and seizure without a warrant", cioè dalle perquisizioni e dai sequestri senza mandato da parte delle forze dell'ordine. Pertanto, l'uso della tecnologia nella sorveglianza e nell'analisi dei dati, potendo in qualche modo essere riportata a metodi di ricerca o perquisizione, deve essere bilanciato con i diritti costituzionali delle persone.
Oltre ad Europa e Stati Uniti molti altri paesi si stanno confrontando con questa questione, esistono inoltre organizzazioni internazionali che stanno cercando di coordinare gli sforzi per stabilire normative comuni per l'uso dell'AI nella prevenzione e nella lotta al crimine, nell'augurio che si riesca a prevenire ed evitare la morte di persone per mano di altre, come purtroppo è sempre accaduto nella storia dell'umanità.