Anthropic ha deciso di imprimere una svolta significativa al modo in cui tratta i dati di chi utilizza il suo modello Claude. Per la prima volta, ogni utente sarà chiamato a prendere una decisione netta: autorizzare l’impiego delle proprie conversazioni per l’addestramento dell’intelligenza artificiale. O se, in alternativa, difendere la propria privacy, rinunciando a contribuire al perfezionamento del sistema. Il termine ultimo è fissato al 28 settembre. In passato, l’accordo era semplice e rassicurante. Le chat non venivano usate per addestrare i modelli e, dopo un mese, sparivano automaticamente dai server. Ora lo scenario si ribalta. Se l’utente sceglie di acconsentire, i dati non solo alimenteranno il processo di sviluppo, ma resteranno archiviati per un periodo fino a cinque anni.
Anthropic cambia le regole per Claude: ecco i dettagli
L’idea è che, donando le proprie interazioni, si possa rendere il modello migliore per tutti. Eppure, dietro tale cornice idealistica, emerge la logica concreta del settore. Senza grandi quantità di dati reali, nessun modello linguistico riesce a tenere il passo con una concorrenza feroce. In tale contesto, le conversazioni quotidiane degli utenti diventano materia prima indispensabile. Il valore strategico di milioni di messaggi, domande e sessioni di codice è enorme. E rappresenta un tesoro che nessuna azienda impegnata nell’AI può permettersi di trascurare.
Ci sono però alcuni dubbi. A tal proposito, emerge il modo in cui le nuove regole vengono presentate. I nuovi iscritti trovano subito una schermata che li invita a scegliere. Mentre chi è già dentro al sistema riceve un avviso con un grande pulsante “Accetta”. L’opzione per negare il consenso è presente, ma nascosta dietro un interruttore poco evidente, che parte già impostato sul sì.
Non sorprende, dunque, che esperti e attivisti per la privacy sollevino dubbi sulla reale possibilità di un consenso davvero informato. La complessità tecnica dell’intelligenza artificiale e la velocità con cui mutano le regole rischiano di lasciare gli utenti in una posizione fragile. Ciò che Anthropic propone è una prova di quanto gli utenti siano disposti a scambiare i propri dati con la promessa di un’intelligenza artificiale più capace.
