Facebook è molto interessato, quanto i suoi colleghi, nel promuovere l’intelligenza etica. Il social network ha collaborato con l’Università Tecnica di Monaco per sostenere la formazione di un centro di ricerca etica indipendente per l’IA. L’istituto chiamato “Institute for Ethics in Artificial Intelligence” manterrà le risorse accademiche dell’università per esplorare questioni che “l’industria da sola non può rispondere”. Sono comprese quelle in aree come l’equità, la privacy, la sicurezza e la trasparenza.

Facebook offre una sovvenzione iniziale di 7,5 milioni di dollari per una durata di cinque anni. La piattaforma social afferma che potrebbe anche condividere le proprie scoperte e strumenti. Il Dott. Christoph Lütge di TUM guiderà l’Istituto con l’aiuto di un comitato consultivo. Ciò comprende persone provenienti dal mondo accademico, dagli affari e dalla società civile. Il nuovo polo di ricerca sarà inoltre libero di pubblicare non solo il proprio lavoro, ma di collaborare con esperti e istituzioni esterne.

Facebook punta in grande con questo progetto di IA

La mossa arriva mentre Facebook continua a cimentarsi con i suoi problemi di etica relativi all’IA. Le persone lo hanno accusato di pregiudizi politici e di altre forme di discriminazione attraverso i suoi algoritmi, che gestiscono compiti che vanno dalla definizione delle priorità del feed di notizie al filtro dei contenuti e al targeting degli annunci. La ricerca etica esterna potrebbe aiutare Facebook a mantenere la sua IA corretta e prevenire incidenti che altrimenti non avrebbero previsto.

Leggi anche:  Facebook Film in Italia: tutti al cinema con una nuova esperienza social

L’Istituto potrà inoltre organizzare conferenze, simposi e workshop, oltre ad avviare attività educative con altre istituzioni leader in aree di interesse comune. Realizzare un progetto che prevede l’impiego di intelligenza artificiale è un grande sforzo e non sarà realizzato da un giorno all’altro. L’Istituto rappresenta un passo avanti nel impegno costante di Facebook di collaborare con istituzioni accademiche, governi, ONG, gruppi di difesa e tutti quelli che stanno lavorando per far progredire l’IA in modo sicuro e responsabile.