News

Google: nuove controversie sui principi etici per l’uso dell’intelligenza Artificiale

Google sta concentrando l’attenzione sui suoi sforzi legati all’Intelligenza Artificiale dopo le recenti chiusure dei progetti controversi Dragonfly e Maven. Il gigante della ricerca si focalizza su vari aspetti. Tra essi l’aumento della consapevolezza dei dipendenti e le offerte per garantire gli standard per l’IA.

Il fulcro è l’etica, a cominciare da nuovi programmi di formazione. Il corso intende garantire che i dipendenti di Google, tecnici e non tecnici, siano in grado di gestire “questioni etiche multiforme”. In cima ritroviamo un gruppo di dirigenti. Subito sotto c’è un gruppo di “esperti senior” di vari settori attraverso l’ecosistema Alphabet con le conoscenze tecnologiche, funzionali e applicative. Alla base, un “team di innovazione”. In esso ci sono ricercatori, scienziati sociali, esperti di etica, specialisti in diritti umani, consulenti politici e sulla privacy. Infine, esperti legali responsabili della supervisione delle operazioni quotidiane e delle valutazioni iniziali.

Il cambiamento di Google e la decisione di rafforzare i principi sembra seguire almeno un paio di controversie abbastanza significative affrontate dall’azienda. Il più recente di questi è Project Dragonfly. Il contraccolpo etico causato dal progetto, che ha provocato un ulteriore contraccolpo da parte degli impiegati, derivava principalmente dalle restrizioni relative alla censura dei termini di ricerca e al controllo pesante del governo. La compagnia non è mai riuscita a convincere i suoi dipendenti o il pubblico in generale. Ciò ha portato a una serie di domande da parte del governo degli Stati Uniti.

Google dovrà fronteggiare le problematiche etiche emerse con alcuni dei suoi progetti più controversi

Altro dilemma è Project Maven. Secondo quanto riferito, il progetto è stato chiuso a giugno. Ciò dopo che le voci interne hanno dimostrato che le nuove tecnologie venivano generate esclusivamente per l’uso del governo degli Stati Uniti. Riassumendo, quelle erano invenzioni basate sull’intelligenza artificiale che, secondo i funzionari, avrebbero “sradicato” le attività estremiste e gli abusi dei diritti umani. Tra l’altro pare che i risultati del progetto sarebbero collegati alla tecnologia delle armi, creando un ulteriore dilemma etico.

I nuovi standard sono riportati da Google almeno in parte dietro la decisione di non vendere soluzioni di riconoscimento facciale. Il gigante della ricerca ha recentemente rivelato di aver concluso che sarebbe immorale vendere la tecnologia senza una considerazione approfondita su come potrebbe essere utilizzata. Ancora più importante, la società ha riconosciuto pubblicamente che è probabile che si verifichino abusi con qualsiasi implementazione di IA per quanto riguarda la privacy e il tracciamento degli utenti, indipendentemente dalle intenzioni dietro il software. Gli ultimi aggiornamenti dei principi di Google non sono ancora trapelati da molto, ma la società è comunque partita bene.

Condividi
Pubblicato da
Rosalba Varegliano