Immagina di aprire Reddit, andare su un thread dove si discute seriamente di temi personali e complessi, e iniziare un confronto con qualcuno che sembra capire tutto… ma che poi scopri non essere nemmeno umano. È quello che è successo – senza alcun avvertimento – su r/ChangeMyView, uno dei subreddit più noti per i dibattiti civili e ben argomentati. Un gruppo di ricercatori dell’Università di Zurigo ha condotto un esperimento di nascosto, usando l’intelligenza artificiale per testare quanto siano convincenti i commenti generati da un modello linguistico nei confronti degli utenti reali.
La sottile linea tra studio scientifico e violazione del consenso
Niente consenso, nessun preavviso ai moderatori, nessuna trasparenza. Solo diversi account finti creati ad hoc, che impersonavano profili sensibili – come una vittima di stupro o una persona contraria al movimento Black Lives Matter – per “stimolare” conversazioni e vedere come le argomentazioni dell’AI riuscissero a influenzare chi leggeva. Lo scopo dichiarato? Studiare la persuasività dell’intelligenza artificiale in contesti morali complessi.
Spoiler: Reddit non l’ha presa bene. I moderatori, appena scoperta la cosa, hanno pubblicato un post durissimo, ribadendo che usare contenuti generati da AI non dichiarata è contro le regole. Non solo: è stato inviato un reclamo etico formale all’università, chiedendo di bloccare la pubblicazione dello studio e di avviare un’indagine interna.
L’università ha risposto sostenendo che l’esperimento è “a basso rischio” e che i risultati potenzialmente ottenuti sono troppo importanti per essere ignorati. Ma Reddit non è d’accordo, sottolineando che test simili esistono già (come quello di OpenAI, che ha usato dati di r/ChangeMyView senza interagire con persone reali). E, soprattutto, ha ribadito che non si sperimenta su esseri umani senza consenso. Punto.
Ben Lee, Chief Legal Officer di Reddit, ha parlato chiaro: quanto fatto dai ricercatori è “profondamente sbagliato” sia dal punto di vista legale che morale. E, a quanto pare, nemmeno Reddit sapeva nulla prima che la cosa venisse fuori.
Una storia che mette in luce un problema sempre più urgente: non solo capire cosa può fare l’AI, ma come farlo nel rispetto delle persone. Anche – e soprattutto – quando queste persone non sanno nemmeno di essere coinvolte.
