Buongiorno cari lettori di Tecnogalaxy, oggi parleremo dell’intelligenza artificiale nella polizia.

Secondo un nuovo rapporto pubblicato dal Centro per l’Etica e l’Innovazione dei Dati (CDEI) del Regno Unito, gli algoritmi che consentono di prendere decisioni potenzialmente in grado di cambiare la vita dei cittadini comportano ancora un rischio significativo di discriminazione ingiusta. In alcuni settori, la necessità di fornire risorse adeguate a garantire che i sistemi di IA siano imparziali sta diventando particolarmente pressante – in particolare, il settore pubblico e, nello specifico, la polizia.

Il CDEI ha passato due anni a studiare l’uso degli algoritmi sia nel settore privato che in quello pubblico, e si è trovato a dover affrontare diversi livelli di maturità nell’affrontare i rischi posti dagli algoritmi. Nel settore finanziario, ad esempio, sembra esserci una regolamentazione molto più stretta dell’uso dei dati per il processo decisionale, mentre il governo locale è ancora agli inizi della gestione della questione.

Sebbene la consapevolezza delle minacce che l’IA potrebbe rappresentare sia in crescita in tutti i settori industriali, il rapporto ha rilevato che non esiste un esempio particolare di buona pratica quando si tratta di costruire algoritmi auto-responsabili. Questo è particolarmente problematico nella fornitura di servizi pubblici come la polizia, ha trovato il CDEI, da cui i cittadini non possono scegliere di rinunciare. 

Nella ricerca condotta nell’ambito del rapporto ha concluso che vi è una diffusa preoccupazione in tutta la comunità delle forze dell’ordine del Regno Unito per la mancanza di una guida ufficiale sull’uso degli algoritmi nella polizia. “Questa lacuna dovrebbe essere affrontata con urgenza”, ha detto la ricerca.

Le forze di polizia stanno aumentando rapidamente la loro adozione delle tecnologie digitali: all’inizio dell’anno, il governo ha annunciato 63,7 milioni di sterline (85 milioni di dollari) di finanziamenti per spingere lo sviluppo di programmi di tecnologia di polizia. I nuovi strumenti spaziano dalle tecnologie di visualizzazione dei dati agli algoritmi in grado di individuare i modelli di potenziali reati e persino di prevedere la probabilità che qualcuno si renda nuovamente colpevole di un reato

Se vengono impiegati senza adeguate misure di sicurezza, tuttavia, gli strumenti di analisi dei dati possono avere conseguenze indesiderate. Le segnalazioni hanno ripetutamente dimostrato che i dati della polizia possono essere distorti e spesso non sono rappresentativi della distribuzione del crimine. Secondo i dati rilasciati dal Ministero dell’Interno l’anno scorso, ad esempio, chi si identifica come nero o inglese nero ha quasi dieci volte più probabilità di essere fermato e perquisito da un ufficiale che da un bianco.

Un sistema di intelligenza artificiale che si basa su questo tipo di dati storici rischia di perpetuare pratiche discriminatorie. La polizia del Met ha utilizzato uno strumento chiamato Gangs Matrix per identificare coloro che rischiano di essere coinvolti nella violenza delle gang a Londra; sulla base di dati non aggiornati, la tecnologia ha caratterizzato in modo sproporzionato i giovani neri. Dopo che gli attivisti hanno espresso le loro preoccupazioni, il database di Matrix è stato alla fine revisionato per ridurre la rappresentanza di individui provenienti da ambienti neri.

Esempi come la matrice delle bande hanno portato a una crescente preoccupazione tra le forze di polizia, un problema che non è ancora stato affrontato con la guida del governo, ha sostenuto il CDEI. Sebbene si stia lavorando per sviluppare un approccio nazionale all’analisi dei dati nelle attività di polizia, per ora le forze di polizia devono ricorrere a metodi frammentari per istituire comitati etici e linee guida e non sempre con risultati convincenti.

Conclusioni simili sono state raggiunte in un rapporto pubblicato all’inizio di quest’anno dal comitato britannico sugli standard nella vita pubblica, guidato dall’ex capo dell’MI5 Lord Evans, che ha espresso particolare preoccupazione per l’uso dei sistemi di IA nelle forze di polizia. Evans ha osservato che non esiste un processo coordinato per la valutazione e lo sviluppo di strumenti algoritmici nelle forze dell’ordine, e che spesso spetta ai singoli dipartimenti di polizia creare i propri quadri etici.

I problemi che le forze di polizia si trovano ad affrontare nell’uso dei dati sono diffusi anche in altri servizi pubblici. La scienza dei dati viene applicata in tutti i dipartimenti governativi alle decisioni prese per il benessere dei cittadini, l’alloggio, l’istruzione o il trasporto; e basarsi su dati storici che sono immagazzinati con pregiudizi può ugualmente portare a risultati non equi. 

Solo pochi mesi fa, ad esempio, il regolatore degli esami del governo britannico Ofqual ha progettato un algoritmo che assegna i voti dell’ultimo anno agli studenti, per evitare di organizzare esami fisici nel bel mezzo della pandemia COVID-19. È emerso che l’algoritmo produceva previsioni ingiuste, basate su dati distorti sui risultati ottenuti in passato da diverse scuole. Ofqual ha prontamente ritirato lo strumento ed è tornato alle previsioni dei voti degli insegnanti. 

Secondo il CDEI, il miglioramento del processo decisionale basato sui dati nel settore pubblico dovrebbe essere considerato una priorità. “I governi democraticamente eletti hanno particolari doveri di responsabilità nei confronti dei cittadini “.

La posta in gioco è alta: guadagnare la fiducia del pubblico sarà la chiave per il successo della diffusione dell’IA. Eppure, il rapporto del CDEI ha mostrato che fino al 60% dei cittadini attualmente si oppone all’uso dell’IA nel sistema giudiziario penale. La stragrande maggioranza degli intervistati (83%) non è nemmeno certa di come tali sistemi siano utilizzati nelle forze di polizia, in primo luogo, evidenziando una lacuna nella trasparenza che deve essere colmata.

Questo è tutto, ad un prossimo articolo!

Leggi anche:

Ti è stato di aiuto questo articolo? Aiuta questo sito a mantenere le varie spese con una donazione a piacere cliccando su questo link. Grazie!

Seguici anche su Telegram cliccando su questo link per rimanere sempre aggiornato sugli ultimi articoli e le novità riguardanti il sito.

Se vuoi fare domande o parlare di tecnologia puoi entrare nel nostro gruppo Telegram cliccando su questo link.

© Tecnogalaxy.it - Vietato riprodurre il contenuto di questo articolo.