Fallisce l'esperimento della polizia con l’intelligenza artificialeL’intelligenza artificiale è sempre più parte integrante delle vite di tutti noi. I nuovi chatbot ci permettono di comunicare con i nostri dispositivi elettronici. Nuovi sistemi AI possono organizzare le nostre app e i nostri dai. Non c’è davvero limite all’utilizzo dell’intelligenza artificiale e tutte le più note società di tecnologia ce lo stanno dimostrando. In un quadro di sperimentazione così ampie anche la polizia ha pensato di sfruttare la potenza dei sistemi a base AI, ma non sembra che siano stati ottenuti i risultati desiderati.

L’intelligenza artificiale nella polizia

La polizia americana ha cercato di attuare un esperimento che prevedeva l’uso dell’intelligenza artificiale per prevedere dove e quando si sarebbero svolti dei crimini. Questi tentativi sono stati denominati “polizia predittiva” e sono stati attuati dalla polizia di Plainfield. A quanto pare, le forze dell’ordine sembravano volo prendere spunto dalla nota storia di Philip K. Dick, “Minority Report“.

Nel New Jersey la polizia ha iniziato ad usare Geolitica, un software di polizia predittiva per attuare questo piano, peccato però che questo abbia avuto un successo inferiore all’1%. Il software prometteva di aiutare le forze dell’ordine a combattere il crimine, ma le cose non sono andate così.

Secondo un’indagine congiunta condotta di The Markup e Wired, infatti, i tentativi portati avanti sono stati purtroppo al quanto fallimentari.

I modelli predittivi, non solo si sono rivelati inefficaci, ma hanno anche scatenato una serie di questioni etiche. A tal proposito, infatti, sia le forze di polizia che l’intelligenza artificiale stessa sono state criticate ampiamente a causa delle loro tendenze discriminatorie e nello specifico razziste.

I risultati sono fallimentari

L’analisi effettuata ha preso in esame all’incirca 23.000 previsioni, effettuate tra febbraio e dicembre del 2018. Dalle recenti ricerche è emerso che meno di 100 di queste previsioni corrispondevano ad un crimine che poi effettivamente sono stati commessi negli anni a venire.

Inoltre, il capo del dipartimento di polizia della città di Plainfield ha ammesso che il software era raramente utilizzato e che i fondi spesi per mantenere il contratto con Geolitica potevano essere spesi meglio se inseriti in una serie di investimenti per i programmi comunitari.

Dunque, il software chiuderà entro la fine dell’anno, ma non è detto che questo corrisponda ad una chiusura definitiva con questo tipo di sperimentazione. Infatti, il team dietro questa è stato assorbito da un’altra azienda di software per riuscire ad applicare il software sempre in relazione alla legge.

Articolo precedenteIron Beam, scopriamo il nuovo e rivoluzionario sistema di difesa sviluppato da Israele
Articolo successivoTelegram, ecco come è diventato il paradiso dei cybercriminali e come proteggerti