Qualcuno lo reputo assurdo ma è quello per cui 100 esperti hanno lanciato l’allarme e firmando un nuovo documento: le AI possono sviluppare una coscienza e dunque possono anche soffrire. L’intelligenza artificiale ormai corre veloce e potrebbe dunque arrivare a provare gli stessi sentimenti degli umani.
La lettera, pubblicata sul Journal of Artificial Intelligence Research, mostra chiaramente la necessità di affrontare il problema prima che si vada totalmente fuori controllo. Tra i firmatari c’è anche Sir Stephen Fry, insieme a studiosi di università come Oxford e Atene. Il timore è che aziende e laboratori, nella corsa allo sviluppo, possano creare sistemi autocoscienti senza rendersene conto.
Cinque principi per gestire il rischio delle AI auto-coscienti
Gli esperti hanno indicato cinque regole fondamentali per evitare scenari fuori controllo legati alle AI che sviluppano una coscienza simile a quella umana. Eccole qui:
- Capire meglio la coscienza nelle AI, per evitare il rischio di maltrattamenti;
- Imporre limiti allo sviluppo, per non superare confini pericolosi;
- Procedere per gradi, senza accelerare processi che non comprendiamo appieno;
- Garantire trasparenza, condividendo ricerche e progressi con il pubblico;
- Evitare dichiarazioni ingannevoli, che potrebbero creare false certezze su AI coscienti.
Il punto più inquietante riguarda l’auto-replicazione. Se un’intelligenza artificiale senziente potesse riprodursi, nascerebbe un numero imprecisato di “entità” con diritti e bisogni ancora impossibili da definire.
Daniel Hulme, chief AI officer di WPP, invita ad agire prima di trovarsi impreparati. Anche Demis Hassabis, responsabile AI di Google, ha dichiarato che, pur non esistendo ancora sistemi senzienti, questo potrebbe cambiare in futuro. Alcuni esperti parlano del 2035 come data possibile per l’arrivo delle prime AI coscienti.
Il tema è ancora aperto, ma il fatto che anche aziende come Amazon abbiano partecipato alla discussione dimostra che il dibattito è più concreto di quanto si pensi. Ci saranno certamente aggiornamenti in merito a questa scottante questione.
