
Apple Intelligence
Nel panorama in fermento dell’intelligenza artificiale, Apple ha recentemente gettato una luce critica sulle reali capacità di “ragionamento” degli attuali modelli di AI. Con la pubblicazione di un nuovo “whitepaper” o studio di ricerca intitolato “L’illusione del pensiero”, l’azienda di Cupertino ha sollevato dubbi significativi sulla vera intelligenza dei modelli linguistici di grandi dimensioni (LLM) e dei modelli di ragionamento (LRM), suggerendo che essi si basino più sul riconoscimento di pattern che su un autentico processo di pensiero logico e generalizzabile, e che l’Intelligenza Artificiale Generale (AGI) sia ancora molto lontana.
“L’illusione del pensiero”: la ricerca di Apple sul ragionamento dell’AI
Lo studio condotto dai ricercatori di Apple, tra cui figure di spicco come Samy Bengio, direttore della ricerca AI e Machine Learning di Apple, analizza in profondità le capacità di “ragionamento” dei modelli AI più avanzati, inclusi quelli sviluppati da giganti del settore come OpenAI (es. o1, o3), Google (es. Gemini Flash Thinking) e Anthropic (es. Claude 3.7 Sonnet Thinking).
Le scoperte principali del paper sono sorprendenti:
- Crollo dell’accuratezza con la complessità: i modelli di ragionamento (LRM) mostrano un “crollo completo dell’accuratezza” oltre determinate soglie di complessità dei problemi. Questo non è un graduale declino, ma una brusca caduta a zero accuratezza quando i compiti diventano sufficientemente difficili. Anche quando dotati di un ampio budget computazionale o addirittura dell’algoritmo di soluzione, i modelli non riescono a migliorare le prestazioni sui problemi più complessi.
- Mancanza di ragionamento genuino: la ricerca di Apple suggerisce che i modelli AI attuali non possiedono capacità di ragionamento genuine. Invece, si affidano al riconoscimento di pattern estratti dai loro vasti set di dati di addestramento per prevedere il passo successivo o la risposta più probabile, imitando così il ragionamento umano senza però interiorizzarlo o generalizzarlo.
- “Overthinking” inefficiente: i ricercatori hanno osservato modelli AI che, pur trovando risposte corrette in fasi iniziali di un problema, sprecavano risorse computazionali esplorando alternative errate, un fenomeno definito “overthinking” inefficiente. Al contrario, quando i problemi diventano più difficili, i modelli tendono a ridurre lo sforzo di ragionamento.
Inconsistenze Logiche: È stata rilevata una sorprendente incoerenza nel ragionamento dei modelli, con alcuni che riuscivano a risolvere problemi complessi (oltre 100 mosse) ma fallivano in puzzle più semplici che richiedevano solo poche mosse. - Critica ai benchmark attuali: lo studio critica anche l’attuale metodologia di valutazione dei modelli AI, che si concentra principalmente su benchmark matematici e di codifica consolidati, enfatizzando l’accuratezza della risposta finale. Secondo Apple, questi benchmark non forniscono sufficienti informazioni sulla struttura e la qualità delle “tracce di ragionamento” interne dei modelli.
In sostanza, Apple sfida l’idea che gli attuali modelli AI siano capaci di un pensiero simile a quello umano o che siano vicini a raggiungere l’AGI (Artificial General Intelligence), ovvero un’intelligenza artificiale con capacità cognitive umane ampie e generalizzate.
