Rivelatori di AI: funzionano davvero? In questo periodo, si assiste a un crescente interesse per i cosiddetti “rilevatori di AI“, anche grazie al lancio dei primi servizi di questo tipo che supportano la lingua italiana. Nonostante questo interesse, persino OpenAI ha valutato tali strumenti come poco affidabili. Ciò solleva una domanda fondamentale: questi strumenti funzionano davvero?

La risposta non è semplice come invece potrebbe sembrare. Nonostante l’ampia disponibilità di servizi che promettono di rilevare se un testo è stato generato dall’intelligenza artificiale, tra cui il popolare ZeroGPT, le testimonianze degli utenti e i risultati ottenuti non sempre precisi, come evidenziato su piattaforme come Reddit, sollevano dubbi sulla loro effettiva affidabilità.

I punti deboli dei rivelatori di AI

Recentemente, è stato condotto un esperimento per testare l’efficacia di tali strumenti. Dopo aver generato un testo in italiano utilizzando il chatbot gratuito HuggingChat questo è stato sottoposto a tre rilevatori di AI. Il risultato è stato eterogeneo: mentre NoPlagio ha indicato “probabilmente” che il testo fosse stato scritto da un’intelligenza artificiale, ZeroGPT e il sito Web Writer hanno confermato senza esitazione che si trattava di un testo generato dall’AI.

L’attendibilità di questi strumenti è stata ulteriormente messa in discussione provando a “parafrasare” il testo generato, utilizzando uno dei numerosi portali gratuiti online. In breve tempo, i risultati hanno mostrato una significativa variazione: ad esempio, Writer ha ridotto la percentuale al 30%, mentre ZeroGPT ha dato un punteggio più alto, 90,12%. Inoltre, aggiungendo ulteriori “paragrafi”, le percentuali sono risultate ancora più variabili. È evidente che questi strumenti sono influenzati da molteplici variabili e non possono essere considerati completamente affidabili, come sottolineato anche dal Corriere della Sera.

È importante considerare che queste valutazioni non sono definitive, ma evidenziano la necessità di guardare con una certa cautela alle promesse attuali di questi servizi. Infatti, è essenziale comprendere che, nonostante possano evolversi in futuro, al momento questi strumenti sono tuttaltro che perfetti.

I risultati ottenuti dimostrano che la battaglia contro un uso improprio dell’intelligenza artificiale è ancora lunga. È probabile che sia necessario l’intervento diretto delle grandi aziende del settore, come OpenAI, per affrontare questo problema in modo efficace. Come sottolineato anche da Gold Penguin, nel 2024 i falsi positivi sono ancora una realtà diffusa, nonostante l’evoluzione degli strumenti coinvolti.

Articolo precedenteLo spaceMIRA, il chirurgo robot dei viaggi spaziali
Articolo successivoÈ arrivato nell’UE il primo regolamento per l’intelligenza artificiale