Che l’intelligenza artificiale possa commettere errori non è certo una novità. I servizi stessi lo ammettono, spesso con disclaimer più o meno visibili. Il vero problema, però, non sta tanto nell’errore in sé, quanto nel riconoscerlo. Perché le AI hanno sviluppato un modo incredibilmente convincente di presentare le risposte, con un tono sicuro e autorevole che rende difficile mettere in discussione quello che viene detto. E quando l’errore riguarda la sicurezza domestica, le conseguenze possono diventare serie. Lo dimostra un episodio recente che ha coinvolto Alexa, l’assistente vocale di Amazon, protagonista di un consiglio potenzialmente molto pericoloso.
Un consiglio apparentemente innocuo sulla pulizia della lavatrice
La vicenda è emersa su Reddit, dove un utente ha condiviso la risposta ricevuta da Alexa a una domanda piuttosto banale: come pulire le macchie di muffa dalla guarnizione della lavatrice. Il suggerimento dell’assistente vocale? Provare con aceto bianco, candeggina, bicarbonato di sodio e detersivo per piatti. A una lettura superficiale, sembra tutto ragionevole. Sono prodotti comuni, che chiunque potrebbe avere sotto il lavandino. Il problema, però, sta nella formulazione. La risposta di Alexa non chiarisce se quei prodotti vadano usati uno alla volta, in momenti separati, oppure tutti insieme. Ed è qui che la faccenda diventa preoccupante.
Perché mischiare aceto e candeggina è qualcosa che non andrebbe fatto mai. La combinazione di queste due sostanze produce cloro gassoso, una sostanza altamente tossica, irritante per le vie respiratorie e, in concentrazioni elevate, potenzialmente letale. È vero che mescolando quantità moderate in un ambiente ventilato è difficile che si arrivi allo scenario peggiore, ma anche un’esposizione leggera può provocare irritazione agli occhi, alla gola e ai polmoni. In alcuni casi potrebbe rendersi necessario un passaggio al pronto soccorso, il che non è esattamente il risultato sperato quando si cerca di togliere un po’ di muffa dalla lavatrice.
Il problema della sintesi automatica e del buonsenso
La questione di fondo è piuttosto chiara. Qualunque fonte online consultata da Alexa per elaborare quella risposta, con ogni probabilità, spiegava la procedura in modo più dettagliato. Magari indicava di usare i prodotti separatamente, magari includeva un avviso ben evidente sulla pericolosità di combinare aceto e candeggina. Ma il processo di sintesi del chatbot ha eliminato proprio queste informazioni cruciali, quelle che fanno la differenza tra un consiglio utile e uno rischioso.
Serve sempre buonsenso, sia quando si maneggiano sostanze chimiche sia quando ci si affida alla tecnologia per ottenere indicazioni pratiche. L’intelligenza artificiale è uno strumento straordinario, ma non è infallibile. E soprattutto, non ha la capacità di valutare il contesto con la stessa sensibilità di una persona che sa cosa sta maneggiando. Episodi come questo ricordano che verificare le informazioni resta fondamentale, anche quando la risposta arriva con il tono rassicurante di un assistente vocale che sembra sapere tutto. Fidarsi è bene, controllare è decisamente meglio.
