WhatsApp si trova a un bivio importante. Ovvero come integrare strumenti di intelligenza artificiale nella sua piattaforma senza compromettere la riservatezza delle chat dei suoi utilizzatori? Mentre il numero di utenti attivi sfiora i tre miliardi, Meta, la società madre, ha annunciato l’imminente arrivo di nuove funzioni basate sull’AI generativa. Queste novità, costruite sul modello open source Llama, mirano a semplificare l’esperienza d’uso, offrendo strumenti come i riassunti dei messaggi o suggerimenti di scrittura. L’introduzione di questi strumenti però ha sollevato timori sulla privacy, poiché, a differenza delle normali chat, le interazioni con l’IA non sono protette dalla crittografia end-to-end.
WhatsApp: un’AI opzionale per un pubblico eterogeneo
Per rispondere a queste preoccupazioni, Meta ha sviluppato “Private Processing”. Si tratta di una piattaforma pensata per gestire i dati AI senza renderli accessibili né alla stessa azienda né a soggetti esterni. I dati vengono elaborati all’interno di ambienti sicuri chiamati “Trusted Execution Environments”, isolati dal resto del sistema e protetti da manomissioni. Meta promette che l’elaborazione sarà minima e temporanea, e che tutti i componenti di tale tecnologia diventeranno open source, per garantire trasparenza e controllo pubblico.
Le nuove funzioni AI su WhatsApp saranno così attivabili solo su richiesta degli utenti, grazie alla modalità “opt-in”. Chi desidera mantenere un livello massimo di riservatezza potrà poi bloccare l’uso dell’IA nelle conversazioni condivise. Con l’opzione “Privacy avanzata della chat”, sarà possibile impedire l’esportazione dei messaggi, il download automatico dei file e l’uso dei contenuti testuali da parte dell’intelligenza artificiale.
Meta si trova di fronte a una sfida tecnica non da poco, supportare l’AI su device di ogni fascia e generazione. A differenza di Apple, che esegue gran parte delle elaborazioni IA direttamente sul dispositivo, WhatsApp deve far fronte a una base utenti molto più ampia e diversificata. L’approccio di Meta punta quindi a rafforzare la sicurezza lato server, cercando di minimizzare i rischi legati alla trasmissione dei dati. Insomma, un uso sicuro dell’intelligenza artificiale è possibile, ma richiede trasparenza, hardware sicuro e scelte consapevoli da parte degli utenti coinvolti.
