Apple sembra aver deciso che è arrivato il momento di smettere di nascondersi dietro termini tecnici e un po’ polverosi come “machine learning”. Se fino a ieri la parola d’ordine nei corridoi di Cupertino era Core ML, i rumor più recenti che arrivano da Bloomberg ci dicono che alla prossima WWDC 2026 assisteremo a un passaggio di testimone storico.
Dispositivi più “svegli” con Siri integrata e IA generativa
Al suo posto dovrebbe debuttare Core AI, un nuovo framework che non è solo un cambio di nome per cavalcare l’onda del momento, ma una vera e propria dichiarazione d’intenti. Apple vuole che gli sviluppatori abbiano vita facile nel creare app che non si limitino a prevedere la prossima parola che scriveremo, ma che siano capaci di generare contenuti, ragionare e interagire in modo fluido, proprio come stiamo imparando a fare con i grandi modelli di linguaggio.
Questo cambio di rotta non arriva per caso. Nonostante gli sforzi fatti con Apple Intelligence, l’adozione da parte di chi scrive codice non è stata esattamente travolgente. Molti sviluppatori hanno trovato le vecchie librerie troppo rigide o complesse per le esigenze dell’IA generativa moderna. Core AI nasce proprio per abbattere questo muro, offrendo strumenti più intuitivi per integrare chatbot e assistenti intelligenti direttamente dentro le applicazioni che usiamo ogni giorno su iPhone, iPad e Mac. L’idea è quella di rendere l’intelligenza artificiale un elemento “di serie“, facile da implementare come aggiungere un tasto o un’immagine.
Ma la vera star di questa rivoluzione, quella che toccheremo con mano noi utenti, sarà la nuova Siri. Internamente il progetto è conosciuto come Campo (o Campos in alcune varianti dei leak) e promette di trasformare l’assistente vocale da semplice esecutore di timer a vero e proprio compagno di conversazione.
Core AI semplifica lo sviluppo e migliora Siri
In iOS 27, Siri dovrebbe finalmente parlare come un chatbot di ultima generazione, grazie a una profonda integrazione con modelli avanzati come Gemini di Google. Questo significa che potrà accedere ai nostri dati, capire il contesto di quello che stiamo guardando sullo schermo e agire sulle app con una naturalezza mai vista prima, mantenendo però quella privacy che Apple sbandiera da sempre come suo marchio di fabbrica.
In definitiva, quello che vedremo a giugno non sarà solo un aggiornamento software, ma il tentativo di Apple di riprendersi lo scettro dell’innovazione in un campo dove ha inseguito per troppo tempo. Tra il nuovo framework Core AI e una Siri finalmente “intelligente” per davvero, l’obiettivo è trasformare i nostri dispositivi in assistenti proattivi che non aspettano solo un comando, ma capiscono di cosa abbiamo bisogno. Resta da vedere se questa nuova architettura riuscirà finalmente a convincere gli sviluppatori a scatenare la propria creatività, rendendo i nostri smartphone decisamente più svegli di quanto lo siano oggi.
