
I nuovi modelli di intelligenza artificiale Gemma 3 di Google sono veloci, frugali e pronti per i telefoni
Gli sforzi di Google AI sono sinonimi di Gemini, che ora è diventato un elemento integrante dei suoi prodotti più popolari attraverso il software e l'hardware di Worksuite. Tuttavia, la società ha anche rilasciato più modelli di intelligenza artificiale open-source sotto l'etichetta Gemma da oltre un anno.
Oggi, Google ha rivelato la sua terza generazione di modelli di intelligenza artificiale open-source con alcune affermazioni impressionanti al seguito. I modelli Gemma 3 sono disponibili in quattro varianti — 1 miliardo, 4 miliardi, 12 miliardi e 27 miliardi di parametri-e sono progettati per funzionare su dispositivi che vanno dagli smartphone alle workstation robuste.
Pronto per dispositivi mobili
Google
Gemma 3 è il miglior modello di acceleratore singolo al mondo, il che significa che può essere eseguito su una singola GPU o TPU invece di richiedere un intero cluster. In teoria, ciò significa che un modello Gemma 3 AI può essere eseguito nativamente sull'unità Tensor Processing Core (TPU) dello smartphone Pixel, proprio come esegue il modello Gemini Nano localmente sui telefoni.
Il più grande vantaggio di Gemma 3 rispetto alla famiglia di modelli di intelligenza artificiale Gemini è che, poiché è open-source, gli sviluppatori possono confezionarlo e spedirlo in base alle loro esigenze uniche all'interno di app mobili e software desktop. Un altro vantaggio cruciale è che Gemma supporta oltre 140 lingue, di cui 35 come parte di un pacchetto pre-addestrato.
E proprio come gli ultimi modelli della serie Gemini 2.0, Gemma 3 è anche in grado di comprendere testo, immagini e video. In poche parole, è multi-multimdal. Sul lato delle prestazioni, Gemma 3 è affermato di superare altri popolari modelli di intelligenza artificiale open-source come DeepSeek V3, l'OpenAI o3-mini pronto per il ragionamento e la variante Llama-405B di Meta.
Versatile e pronto per il deployment
Prendendo circa l'intervallo di input, Gemma 3 offre una finestra di contesto del valore di 128.000 token. Questo è sufficiente per coprire un intero libro di 200 pagine spinto come input. Per confronto, la finestra di contesto per il modello Gemini 2.0 Flash Lite di Google si attesta a un milione di token. Nel contesto dei modelli AI, una parola media in lingua inglese è approssimativamente equivalente a 1,3 token.
Gemma 3 elaborazione input visivo. Google
Gemma 3 supporta anche la chiamata di funzione e l'output strutturato, il che significa essenzialmente che può interagire con set di dati esterni ed eseguire attività come un agente automatizzato. L'analogia più vicina sarebbe Gemini, e come può ottenere il lavoro svolto su diverse piattaforme come Gmail o Docs senza soluzione di continuità.
Gli ultimi modelli di intelligenza artificiale open source di Google possono essere distribuiti localmente o attraverso le piattaforme cloud dell'azienda come Vertex AI suite. I modelli di intelligenza artificiale Gemma 3 sono ora disponibili tramite Google AI Studio, così come repository di terze parti come Hugging Face, Oama e Kaggle.
Google
Gemma 3 fa parte di una tendenza del settore in cui le aziende stanno lavorando su modelli linguistici di grandi dimensioni (Gemini, nel caso di Google) e contemporaneamente spingendo anche modelli linguistici di piccole dimensioni (SLM). Anche Microsoft segue una strategia simile con la sua serie Phi open-source di piccoli modelli linguistici.
I modelli di linguaggio di piccole dimensioni come Gemma e Phi sono estremamente efficienti in termini di risorse, il che li rende la scelta ideale per l'esecuzione su dispositivi come gli smartphone. Inoltre, poiché offrono una latenza inferiore, sono particolarmente adatti per le applicazioni mobili.



Altri articoli






I nuovi modelli di intelligenza artificiale Gemma 3 di Google sono veloci, frugali e pronti per i telefoni
Google ha rilasciato quattro nuovi modelli di intelligenza artificiale open source sotto la serie Gemma 3, che sono fatti su misura per la distribuzione su piattaforma mobile e battere OpenAI mentre ci si trova.