La Muse Spark di Meta è qui – ed è closed source
In breve: Meta ha rilasciato Muse Spark, il primo modello dei Meta Superintelligence Labs, l'unità che ha assemblato sotto Alexandr Wang dopo aver speso 14,3 miliardi di dollari per acquisire una partecipazione in Scale AI. Ricostruito da zero in nove mesi, il modello è nativamente multimodale, introduce una modalità di ragionamento "Contemplating" che esegue sub-agenti in parallelo ed è ora alla base di Meta AI su tutte le piattaforme dell'azienda. In una rottura con l'eredità di Llama di Meta, è closed source. L'arrivo del modello chiude un capitolo iniziato a giugno 2025, quando Mark Zuckerberg annunciò i Meta Superintelligence Labs e nominò Wang come il primo chief AI officer dell'azienda. Il mandato era esplicito: recuperare il ritardo rispetto a OpenAI, Anthropic e Google, e farlo con un team e un'infrastruttura ricostruiti specificamente per il compito. Nove mesi dopo, quel team ha qualcosa da mostrare. Nove mesi per ricostruire lo stack "Nove mesi fa abbiamo ricostruito il nostro stack AI da zero," ha scritto Wang su X mercoledì. "Nuova infrastruttura, nuova architettura, nuovi pipeline di dati. Muse Spark è il risultato di quel lavoro, e ora alimenta Meta AI." La dichiarazione è un riconoscimento diretto di quanto profonda sia stata la ricostruzione: non un'iterazione fine-tuned su un'architettura esistente, ma una sostituzione dell'infrastruttura fondamentale da cui vengono addestrati i modelli di Meta. Il modello, conosciuto internamente come Avocado, era stato ritardato all'inizio di quest'anno dopo aver deluso i rivali nei test interni per ragionamento, codifica e scrittura. Il rilascio di mercoledì suggerisce che quelle lacune sono state affrontate a un grado che Meta considera competitivo, anche se il quadro dei benchmark rimane misto. La cornice di Wang enfatizza il processo rispetto al prodotto: Muse Spark è descritto come il primo di una famiglia di modelli, non come una risposta definitiva ai leader di frontiera. Il 💜 della tecnologia UE Gli ultimi rumori dalla scena tecnologica dell'UE, una storia dal nostro saggio fondatore Boris e alcune opere d'arte AI discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora! Muse Spark è nativamente multimodale, accettando input vocali, testuali e di immagini, con output solo testuale al lancio. Funziona in una modalità veloce per query casuali e una nuova modalità "Contemplating" che orchestra più sub-agenti per ragionare in parallelo, una mossa diretta per competere con le modalità di ragionamento esteso offerte da Gemini Deep Think di Google e GPT-5.4 Pro di OpenAI. Una chiave di efficienza accompagna il rilascio: Meta afferma che Muse Spark raggiunge la sua capacità di ragionamento utilizzando più di dieci volte meno calcolo rispetto a Llama 4 Maverick, guidato da una tecnica di addestramento chiamata "compressione del pensiero" in cui il modello viene penalizzato durante l'apprendimento per rinforzo per tempo di pensiero eccessivo, costringendolo a risolvere problemi con meno token di ragionamento senza sacrificare l'accuratezza. Dove i benchmark raccontano una storia complicata I benchmark pubblicati da Meta collocano Muse Spark al quarto posto nell'Artificial Analysis Intelligence Index v4.0, con un punteggio di 52, dietro Gemini 3.1 Pro Preview e GPT-5.4 (entrambi a 57) e Claude Opus 4.6 (53). Il ranking complessivo riflette un profilo di prestazioni genuinamente misto piuttosto che un deficit uniforme. Su GPQA Diamond, il benchmark di ragionamento scientifico a livello di laurea, Muse Spark ha ottenuto il 89,5%, dietro il 94,3% di Gemini 3.1 Pro, il 92,8% di GPT-5.4 e il 92,7% di Claude Opus 4.6. Su ARC AGI 2, il benchmark di ragionamento astratto, il divario è più significativo: Muse Spark ha ottenuto 42,5 in modalità Contemplating contro il 76,5 di Gemini 3.1 Pro e il 76,1 di GPT-5.4, una differenza che suggerisce che l'architettura dei sub-agenti paralleli del modello non colma completamente il divario nei compiti di ragionamento astratto. Sull'ingegneria del software, Muse Spark ha ottenuto il 77,4% su SWE-bench Verified. Le aree in cui Muse Spark guida sono specifiche e, non a caso, allineate con i vantaggi particolari che Meta può portare. Su CharXiv Reasoning, che testa la comprensione di figure e grafici da immagini, Muse Spark ha ottenuto 86,4 in modalità Contemplating, davanti sia al 80,2 di Gemini 3.1 Pro che all'82,8 di GPT-5.4. Su HealthBench Hard, una valutazione di ragionamento medico, Muse Spark ha ottenuto il 42,8%, un dato che riflette l'addestramento del modello su dati curati in collaborazione con più di 1.000 medici. Claude Opus 4.6 ha ottenuto il 14,8% sulla stessa valutazione; GPT-5.4 ha ottenuto il 40,1%. Shopping, salute e la tesi della "superintelligenza personale" Il risultato del benchmark sulla salute non è incidentale. L'argomento di differenziazione di Meta per Muse Spark si basa fortemente sulla capacità del modello di combinare la capacità di ragionamento generale con i vantaggi specifici dei dati che Meta ha rispetto ai suoi concorrenti: tre miliardi di utenti, i loro interessi, i loro grafi sociali e ora le loro query sulla salute. Zuckerberg ha descritto Muse Spark come "un assistente di classe mondiale e particolarmente forte in aree legate alla superintelligenza personale come la comprensione visiva, la salute, i contenuti sociali, lo shopping, i giochi e altro" in un post su Facebook che accompagna il rilascio. Una modalità di shopping dedicata rappresenta l'espressione più chiara di quella tesi. La funzione si basa su contenuti provenienti da creatori all'interno dell'ecosistema di Meta insieme a segnali sugli interessi e comportamenti degli utenti, consentendo raccomandazioni che un modello generico addestrato senza quel contesto non può facilmente replicare. Le capacità sanitarie seguono la stessa logica: un modello addestrato con 1.000 medici nel team di addestramento può analizzare il contenuto nutrizionale di una foto di cibo o fornire indicazioni strutturate sulla salute alimentare in modi che il ragionamento generico non produce in modo affidabile. Queste sono aree in cui i dati della piattaforma di Meta sono genuinamente un vantaggio competitivo piuttosto che una dichiarazione di marketing. Muse Spark sta attualmente alimentando query nell'app Meta AI e nel sito Meta.ai e si espanderà su Facebook, Instagram e WhatsApp. Meta ha anche costruito il team MSL attraverso acquisizioni, l'ultima delle quali è stata Moltbook, una rete sociale di agenti AI i cui co-fondatori si sono uniti direttamente a MSL. L'effetto combinato è un'unità che sta assemblando sia i modelli che l'infrastruttura agentica per funzionare sopra di essi. Un modello chiuso dall'azienda che ha costruito Llama Il dettaglio che attirerà maggiormente l'attenzione della comunità di sviluppatori di Meta è quello sepolto nell'annuncio del prodotto: Muse Spark è closed source. La serie Llama di Meta ha stabilito il modello per lo sviluppo di modelli AI open-source fino al 2025, con versioni successive che forniscono la base per migliaia di applicazioni, progetti di ricerca e prodotti concorrenti. Muse Spark rompe quel modello. Meta ha indicato che spera di rilasciare versioni future del modello sotto una licenza open-source, inquadrando l'attuale chiusura come temporanea piuttosto che strategica. La lettura più sincera è che i modelli open-source, per quanto preziosi per lo sviluppo dell'ecosistema, sacrificano il vantaggio competitivo che deriva dal mantenere le innovazioni architettoniche proprietarie mentre i rivali cercano di colmare un divario di capacità. Il passaggio a un modello chiuso è un segnale che Meta ora si considera in una corsa in cui può permettersi di perdere meno giri. L'aritmetica di una scommessa da 14,3 miliardi di dollari L'accordo di Wang è stato strutturato come un investimento di 14,3 miliardi di dollari da parte di Meta
Altri articoli
La Muse Spark di Meta è qui – ed è closed source
Meta Superintelligence Labs rilascia Muse Spark, il suo primo modello dopo una ricostruzione della stack di 9 mesi. È in testa nei benchmark sulla salute ma è indietro nel ragionamento astratto.
