L‘intelligenza artificiale viene ormai scelta da milioni di utenti in tutto il mondo per portare a termine diversi progetti. Cercate un modo per generare un’immagine in pochi secondi? Generare o modificare foto diventa semplice e rapido. Oltre a ciò, non mancano i casi in cui l’AI viene utilizzata per riassumere libri, testi e altro ancora. Non mancano però usi più bizzarri come quello che sta facendo il giro del web negli ultimi giorni. Un utente avrebbe deciso di testare ChatGPT per poter guadagnare.
Nello specifico, il diciassettenne Nathan Smith avrebbe deciso di affidare all’intelligenza artificiale di OpenAI, ChatGPT, una cifra di 100 dollari facendo una specifica richiesta. L’utente avrebbe chiesto all’AI di gestire in borsa il proprio capitale. Scopriamo maggiori informazioni in merito a tale questione dato che sembrerebbe non esserci effettiva ufficialità.
ChatGPT utilizzato per guadagnare: ecco i dettagli
ChatGPT è uno dei chatbot basati sull’intelligenza artificiale che gli utenti utilizzano per diversi compiti e progetti. Non a caso, infatti, le funzioni messe a disposizione sono davvero tante e tutte consentono di ottenere risultati ottimali. Nel caso che vede come protagonista l’utente di 17 anni che avrebbe deciso di affidare un capitale di 100 dollari a ChatGPT la questione attira particolarmente l’attenzione.
Si tratta di una storia che ha fatto il giro del web giungendo fino a Reddit. Nonostante ciò alcuni dettagli sottolineano la mancanza di conferme ufficiali in merito. In particolar modo, fa sorgere dubbi il fatto che i minorenni non possano operare in borsa, ma non solo. ChatGPT, infatti, non è in grado di dare consigli in ambito finanziario e operare in borsa.
L’utente avrebbe però dichiarato di aver proseguito personalmente seguendo i suggerimenti ottenuti dal chatbot. Successivamente, dopo quattro settimane sembrerebbe che sia riuscito a raggiungere un guadagno del 23,8%. Dunque, i 100 dollari sono diventati quasi 125. Ricordiamo nuovamente che non esistono fonti ufficiali sulla questione.
