Il concetto di intelligenza artificiale è ormai associato a strumenti come ChatGPT, Gemini o Anthropic, crediamo che il tutto si riduca a un’interfaccia che permette di digitare domande e richieste per ricevere delle risposte che possano risolvere i nostri dubbi o eseguire operazioni al posto nostro. In realtà, conoscere davvero il funzionamento dei più recenti modelli di intelligenza artificiale richiede la comprensione di nozioni a volte complesse ma utili e probabilmente necessarie da conoscere per poter ottenere da tali strumenti quanta più efficienza.
Cos’è un LLM: tutto quello che c’è da sapere
Iniziamo chiarendo cos’è un LLM.
Un Large Language Model è un modello linguistico che sfrutta tecniche di machine learning e deep learning per analizzare testo o altri contenuti e generare risposte. Si tratta sostanzialmente della tecnologia sulla quale poggia l‘intelligenza artificiale generativa che, dopo essere stata addestrata tramite una quantità enorme di dati, riesce a generare risposte alle domande, le quali vengono poste dagli utenti sotto forma di prompt in linguaggio naturale. Gran parte degli LLM sono autoregressivi, ciò significa che la generazione della risposta viene effettuata tenendo conto dell’ultimo token (un’unità lessicale) dato in input così che il modello possa analizzare l’intera frase e prevedere il secondo token; per poi procedere fino al completamento dell’output. L’efficienza del modello nella scelta dei token, può essere gestita tramite un parametro chiamato temperatura, che permette di stabilire quanto è deterministico un modello. In sintesi, più basso è il valore della temperatura più il modello tenderà a scegliere il token più probabile, più alta sarà la temperatura più “creativa” sarà la risposta. Nei modelli autoregressivi, dunque, è come se ogni risposta venisse generata parola dopo parola da sinistra verso destra. All’opposto, i modelli di diffusione, più spesso utilizzati per l’analisi del testo e la generazione di immagini, non procedono in maniera lineare e ordinata ma, partendo da un input pieno di “rumore” e quindi non da dati puliti e facilmente comprensibili, impara a ripulire le informazioni per generare un output quanto più attinente.
L’utilizzo di questi ultimi modelli, se applicato alla generazione di testo, può offrire dei vantaggi in termini di velocità, ma non solo.
Apple rilascia un nuovo LLM
Apple con la sua ultima novità permette di comprendere come l’applicazione degli LLM di diffusione possa offrire vantaggi nella generazione di codice di programmazione. DiffuCode-7B-cpGRPO, il nuovo modello LLM rilasciato da Apple su Hugging Face, si basa su Qwen2.5-7B e può essere utilizzato per la generazione veloce di codice molto coerente. Regolando la temperatura sarà possibile gestire la produzione dell’output e permettere al modello di superare i limiti imposti dal prompt e favorendo così la possibilità di applicare il ragionamento inverso per produrre risposte peculiari.
Gli esperti del settore possono già testare l’efficienza del modello accedendo ad Hugging Face.