OpenAI, l’azienda di intelligenza artificiale dietro ChatGPT, ha avvertito che l’arrivo dell’IA che supera gli umani è inevitabile.
L’intelligenza artificiale, nota anche come superintelligenza, è stata teorizzata da filosofi e accademici per decenni, anche se i rapidi progressi negli ultimi anni implicano che ora potremmo raggiungere risultati inpaspettati che superano le aspettative. In un post pubblicato mercoledì, Sam Altman, Greg Brockman e Ilya Sutskever di OpenAI hanno affermato che la superintelligenza dell’IA avrà un potere senza precedenti, sia in positivo che in negativo.
“Dato il quadro generale in cui possiamo inserire l’IA ora, è concepibile pensare che entro i prossimi dieci anni i sistemi di intelligenza artificiale supereranno il livello di abilità degli esseri umani. Avverrà nella maggior parte dei settori, le nuove tecnologie svolgeranno la stessa attività produttiva di una delle più grandi società di oggi ma in modo diverso”. “In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto fare i conti in passato”.
OpenAI ha delineato tre modi in cui l’umanità può affrontare l’arrivo della superintelligenza, sebbene abbia messo in guardia i legislatori e le autorità di regolamentazione nel tentativo di fermare questo sviluppo così rapido. “Riteniamo che sarebbe poco intuitivo, rischioso e difficile fermare la creazione della superintelligenza”, avverte la società.
ChatGPT, rischi e pericoli dell’IA diventeranno sempre più difficili da prevedere
“Poiché i vantaggi sono enormi, il costo per sorreggere l’intero sistema diminuisce ogni anno. Il numero di persone che lo rendono possibile è in rapido aumento ed è intrinsecamente parte del percorso tecnologico che stiamo percorrendo. Fermarlo richiederebbe qualcosa come un regime di sorveglianza globale, e anche questo non è garantito che funzioni. Quindi dobbiamo essere cauti. Altman è apparso davanti a un’udienza negli USA la scorsa settimana per rispondere alle domande dei senatori statunitensi sui rischi che si riscontrano con l’intelligenza artificiale avanzata.
Il fondatore di OpenAI ha dichiarato alla sottocommissione giudiziaria del Senato per la privacy, la tecnologia e la legge che ritiene i chatbot basati sull’intelligenza artificiale come ChatGPT un “significativo motivo di preoccupazione”. Richiedono regole e linee guida per prevenirne l’uso improprio. “Non c’è modo di mettere questa tecnologia in una bottiglia. A livello globale, sta esplodendo”, ha riconosciuto il senatore democratico Cory Booker.
Un modo per prevenire i danni dovuti all’IA, come la manipolazione di dati e tanto altro, sarebbe introdurre requisiti di licenza e test per lo sviluppo, afferma Altman. Una possibilità, secondo OpenAI, potrebbe esserci con la creazione di un’agenzia statunitense pensata proprio per l’IA e chiamata Office for AI Safety and Infrastructure Security (Oasis).