Recentemente è stato riscontrato un problema per quanto riguarda l’ AI nel trattare dei temi particolarmente delicati riguardo Elon Musk e Donald Trump. Infatti l’ intelligenza artificiale Grok avrebbe risposto diversamente da quanto ci si aspettava riguardo le notizie di disinformazione riguardanti Elon Musk e Donald Trump. Infatti l’ AI sta avendo dei problemi perché a seguito dei suoi addestramenti avrebbe deciso autonomamente a quali domande rispondere.
Questo è un problema molto serio che la società di Grok, la xAI, ha dovuto affrontare. Infatti sembra che un dipendente proveniente da OpenAI abbia modificato il prompt di sistema di Grok. Questo ha fatto si che il sistema non prenda in considerazione gli avvenimenti riguardanti il tema della disinformazione di Musk e Trump. Il fatto che sia presente la necessità di poter cambiare le caratteristiche dell’ AI in questo modo, ci fa riflettere sulla sicurezza dell’ intelligenza artificiale.
AI, nuovi episodi di alquanto strani riguardo Grok
La questione accaduta a Grok è non da sottovalutare se consideriamo che potrebbe accadere anche ad altri strumenti di AI. Oltretutto Grok è stata vista come un’ AI alla massima ricerca della verità da Musk. Dopo una serie di avvenimenti ci saranno da considerare anche la possibilità di non far decidere autonomamente all’ AI le questione delicate. Ovviamente i progettisti hanno dovuto rivedere il programma e stabilire delle procedure diverse di modifica affinché non cambiasse il suo stile. Non è la prima volta che i dipendenti di Grok hanno dovuto risolvere dei problemi legati alle risposte ricevute dall’ AI. Questo dovrebbe farci riflettere sulla possibilità di rivedere come sono stati realizzati questi modelli di AI così avanzati. Infatti se le risposte alle domande sono diverse rispetto a quelle che ci saremmo dovuti aspettare, probabilmente andrà rivisto il tipo di addestramento di questi modelli.
Per non avere delle possibili ripercussioni ad altre tecnologie è meglio intervenire subito su questi problemi e cercare di realizzare un’ AI più affidabile.
