Tecnologia
La sfida di Google ai modelli di linguaggio Open: arriva Gemma
Google ha annunciato il lancio di Gemma, una nuova famiglia di modelli di Intelligenza artificiale (AI) open-source e leggeri, offrendo due varianti, Gemma 2B e Gemma 7B, a sviluppatori e ricercatori. Questa mossa segue la presentazione del modello Gemini 1.5 la settimana scorsa, e mostra l’impegno di Google nel rimanere rilevanti all’interno della arena della AI. Utilizzando la stessa tecnologia e ricerca impiegata per i modelli Gemini, Gemma mira a facilitare lo sviluppo di strumenti AI specifici per compiti, consentendo al contempo un uso commerciale e la distribuzione.
Il CEO di Google, Sundar Pichai, ha annunciato Gemma in un post su X (ex Twitter), sottolineando le prestazioni eccellenti dei modelli nei benchmark di comprensione e ragionamento del linguaggio. Gemma è progettata per supportare una vasta gamma di strumenti e sistemi, funzionando su laptop, workstation o Google Cloud. Google ha anche creato una pagina dedicata agli sviluppatori per Gemma, offrendo collegamenti rapidi e esempi di codice sulla sua pagina dei Modelli Kaggle, facilitando il dispiegamento di strumenti AI tramite Vertex AI o l’esplorazione del modello con Collab. I modelli AI Gemma, pre-allenati e sintonizzati su istruzioni, sono integrati con popolari repository di dati come Hugging Face, MaxText, NVIDIA NeMo e TensorRT-LLM.
Possono essere eseguiti su laptop, workstation o tramite Google Clouds e Google ha inoltre rilasciato un nuovo Toolkit per l’IA Generativa Responsabile per aiutare gli sviluppatori a costruire strumenti AI sicuri e responsabili.
Gemma è ovviamente la risposta al modello di linguaggio concorrente Llama-2 di casa Meta, che pare battere in diversi benchmark importanti, come Massive Multitask Language Understanding (MMLU) e HumanEval. Questo successo arriva mentre Meta lavora su Llama-3, secondo varie indiscrezioni. Il rilascio di modelli di linguaggio open-source più piccoli per sviluppatori e ricercatori riflette una tendenza in crescita nello spazio AI: da un lato contribuisce a costruire un ecosistema, permettendo a sviluppatori e scienziati dei dati esterni alle aziende AI di sperimentare con la tecnologia e creare strumenti unici; dall’altro beneficia le aziende stesse, che spesso offrono piattaforme di dispiegamento con abbonamento a pagamento. L’adozione da parte degli sviluppatori spesso evidenzia difetti nei dati di addestramento o nell’algoritmo che potrebbero essere sfuggiti prima del rilascio, consentendo alle imprese di migliorare i loro modelli
© Riproduzione riservata