Nel dibattito sull’intelligenza artificiale, una delle esperienze più osservate è quella di Anthropic. L’azienda, infatti, ha scelto di affidare a un gruppo di ricercatori un compito che incide sulla percezione pubblica della tecnologia. Sono presenti appena nove ricercatori incaricati di studiare le possibili ricadute negative dell’AI. Non si tratta di un progetto sperimentale marginale, ma un test sulla capacità dell’azienda di proteggere un lavoro destinato a evidenziare aspetti scomodi. I ricercatori sono chiamati a valutare anche l’effetto che i chatbot possono avere sulla salute mentale degli utenti.
Anthropic: ecco come agisce il gruppo che analizza gli effetti dell’AI
Il settore tecnologico conosce già gli esiti incerti di iniziative simili. Alcune aziende, tra cui Meta, avevano avviato programmi per affrontare contenuti problematici generati dalle piattaforme digitali. Salvo poi ridurre drasticamente attenzione e investimenti quando il tema diventava percepito come un rischio reputazionale. Tale memoria recente solleva interrogativi sulla sostenibilità a lungo termine di un gruppo che, per mandato, produce analisi critiche su strumenti da cui dipende una quota crescente dell’economia digitale.
In tale scenario, la posizione di Anthropic si distingue soprattutto per la visione del CEO Dario Amodei, considerato favorevole a una regolamentazione sia statale sia federale dell’intelligenza artificiale. L’azienda è nata dall’iniziativa di ex ricercatori di OpenAI che giudicavano insufficienti le attenzioni dedicate ai rischi dell’AI. Costruendo su tale preoccupazione una reputazione fondata sulla sicurezza. È proprio tale identità, ora, a essere messa alla prova: la continuità del gruppo incaricato di studiare gli impatti sociali dell’AI dipende dalla capacità dell’azienda di garantire protezione a un’attività che potrebbe influenzare lo sviluppo dei prodotti.
La risposta a tale incertezza non riguarda solo Anthropic. Indica una direzione possibile per l’intero settore, il quale è chiamato a decidere se la valutazione critica dei rischi debba essere parte integrante dell’innovazione. O, in alternativa, rimanere un compito silenzioso.
