Giovanni Masi è un ingegnere informatico con una profonda esperienza nel campo dell’intelligenza artificiale. Ricercatore nel settore, Masi si distingue per il suo approccio innovativo e il suo impegno nella divulgazione tecnologica. Attualmente ricopre il ruolo di Subject Matter Expert presso l’Università eCampus, dove contribuisce attivamente alla formazione e alla ricerca nell’ambito dell’AI.
Come AI Coordinator presso l’Ordine degli Ingegneri, Masi promuove l’integrazione dell’intelligenza artificiale nelle pratiche ingegneristiche, contribuendo alla crescita professionale dei colleghi e alla diffusione di competenze digitali avanzate.
Oltre alla carriera accademica e tecnica, Masi è anche un apprezzato divulgatore. Scrive regolarmente come AI Columnist per IlFattoDigitale – questa testata – e AgendaDigitale, offrendo approfondimenti sull’evoluzione dell’intelligenza artificiale e sulle sue applicazioni in ambito aziendale e sociale.
Il suo percorso e il suo contributo al dibattito sull’intelligenza artificiale lo hanno reso un punto di riferimento nel settore, tanto da essere già stato intervistato da noi, dove condivide la sua visione su come l’AI possa trasformare le imprese moderne e le comunità professionali.
LLaMA 4 rappresenta l’ultima generazione di modelli di linguaggio sviluppata da Meta, un passo fondamentale nell’evoluzione degli LLM (Large Language Models). Ma, come spiega Masi, è molto più di questo: “È un modello multimodale capace di comprendere testo, immagini, video e audio.” Rilasciato ad aprile 2025 in tre varianti – Scout, Maverick e il futuro Behemoth – è definito open-source, o più precisamente “open-weight”, poiché i pesi del modello sono accessibili pubblicamente. Questa caratteristica, secondo Masi, lo rende uno strumento estremamente potente ma anche flessibile e accessibile per le aziende che desiderano adottare tecnologie AI avanzate senza dipendere da piattaforme chiuse.
LLaMA 4 rappresenta l’ultima generazione di modelli di linguaggio sviluppata da Meta, un passo fondamentale nell’evoluzione degli LLM (Large Language Models). Ma, come spiega Masi, è molto più di questo: “È un modello multimodale capace di comprendere testo, immagini, video e audio.” Rilasciato ad aprile 2025 in tre varianti – Scout, Maverick e il futuro Behemoth – è definito open-source, o più precisamente “open-weight”, poiché i pesi del modello sono accessibili pubblicamente. Questa caratteristica, secondo Masi, lo rende uno strumento estremamente potente ma anche flessibile e accessibile per le aziende che desiderano adottare tecnologie AI avanzate senza dipendere da piattaforme chiuse.
Le aziende dovrebbero considerare LLaMA 4 nelle loro strategie digitali, sostiene Masi, per tre motivi principali: “È potente, è personalizzabile e non è vincolato da logiche proprietarie.” Questa libertà consente alle imprese di costruire soluzioni su misura per le proprie esigenze, mantenendo il controllo sui dati e riducendo i costi di licenza tipici dei modelli chiusi. Inoltre, grazie alla sua architettura efficiente, LLaMA 4 offre prestazioni elevate anche su hardware limitato, evitando il rischio di vendor lock-in.
Parlando delle varianti del modello, Masi sottolinea le differenze fondamentali tra Scout, Maverick e Behemoth. “Scout è il modello più leggero ed economico, perfetto per iniziare o per scenari con risorse ridotte. Maverick è il modello ‘tuttofare’, ideale per applicazioni generali complesse, mentre Behemoth, ancora in fase di addestramento, sarà un modello ultra-large, pensato per compiti estremamente sofisticati come simulazioni su larga scala o training di altri modelli.” Questa diversificazione consente alle aziende di scegliere la versione più adatta in base al caso d’uso e alle risorse disponibili.
Una delle innovazioni più rilevanti di LLaMA 4 è la sua architettura Mixture-of-Experts (MoE), che, come spiega Masi, rende il modello particolarmente efficiente. “Invece di attivare tutti i parametri per ogni richiesta, LLaMA 4 ne attiva solo un sottoinsieme selezionato dinamicamente. È come avere un team di esperti in cui ogni volta parli solo con quelli davvero competenti sull’argomento.” Questo approccio riduce significativamente il carico computazionale, rendendo il modello scalabile senza compromettere la qualità delle risposte.
Anche la finestra di contesto è un elemento chiave che distingue LLaMA 4 dai suoi predecessori. Masi chiarisce: “Scout arriva a gestire fino a 10 milioni di token, cioè l’equivalente di migliaia di pagine di testo. Questo è rivoluzionario: significa che un AI può analizzare interi archivi, progetti o documentazioni aziendali in un’unica richiesta, mantenendo coerenza e precisione.” In passato, questo livello di comprensione contestuale richiedeva la suddivisione delle informazioni in più parti, mentre ora è possibile operare in modo più organico e integrato.
La multimodalità di LLaMA 4 apre nuove possibilità in contesti aziendali complessi, come customer care visivo, analisi video di sorveglianza e generazione di contenuti multimediali. Masi sottolinea l’importanza di questa capacità: “È un modello unificato, capace di comprendere e ragionare su input eterogenei, cosa che apre a molte applicazioni aziendali.” Questo non si limita a input passivi, ma include anche la generazione attiva di descrizioni visive e sintesi di documenti complessi.
Per quanto riguarda la personalizzazione, LLaMA 4 supporta tecniche come fine-tuning e RAG (Retrieval-Augmented Generation), che consentono alle aziende di adattare il modello alle loro specifiche esigenze. “Il fine-tuning permette di riaddestrare il modello con i dati specifici dell’azienda, rendendolo esperto di dominio. Il RAG invece consente di collegarlo dinamicamente alle fonti informative aziendali, mantenendo aggiornamento e coerenza.”
Meta ha stretto importanti partnership con aziende come Cerebras e Groq per ottimizzare le prestazioni hardware del modello. Masi spiega che i chip Wafer-Scale di Cerebras consentono a LLaMA 4 Scout di raggiungere velocità superiori a 2.600 token al secondo, mentre Groq offre una latenza estremamente bassa, garantendo risposte istantanee anche per compiti complessi. “Questo significa risposte istantanee, anche su compiti complessi, un fattore critico per casi d’uso in tempo reale come chatbot o motori di ricerca aziendali.”
Masi conclude con una riflessione sull’importanza della trasparenza e della sostenibilità, sottolineando come l’architettura MoE di LLaMA 4 permetta di ridurre il consumo energetico attivando solo una parte del modello per ciascuna richiesta. Questo, secondo lui, rappresenta un passo importante verso l’adozione responsabile dell’AI nel contesto aziendale.