L’ultimo modello di Mistral AI, il Mistral Large 2 (ML2), sembra competere con i modelli di grandi dimensioni di leader del settore come OpenAI, Meta e Anthropic, pur essendo una frazione delle loro dimensioni.
Il tempismo di questo rilascio è degno di nota: arriva nella stessa settimana in cui Meta lancia il suo colossale modello Llama 3.1 da 405 miliardi di parametri. Sia ML2 che Llama 3 vantano capacità impressionanti, tra cui una finestra di contesto da 128.000 token per una maggiore “memoria” e il supporto di più lingue.
Mistral AI si è da tempo differenziata per la sua attenzione alla diversità linguistica e ML2 continua questa tradizione. Il modello supporta “decine” di lingue e più di 80 linguaggi di codifica, rendendolo uno strumento versatile per gli sviluppatori e le aziende di tutto il mondo.
Secondo i benchmark di Mistral, ML2 si comporta in modo competitivo rispetto a modelli di alto livello come GPT-4o di OpenAI, Claude 3.5 Sonnet di Anthropic e Llama 3.1 405B di Meta in vari test di linguaggio, codifica e matematica.
Nel benchmark Massive Multitask Language Understanding (MMLU), ampiamente riconosciuto, ML2 ha ottenuto un punteggio dell’84%. Sebbene sia leggermente indietro rispetto ai suoi concorrenti (GPT-4o con l’88,7%, Claude 3.5 Sonnet con l’88,3% e Llama 3.1 405B con l’88,6%), vale la pena notare che si stima che gli esperti di dominio umani ottengano circa l’89,8% in questo test.

Efficienza: Un vantaggio fondamentale
Ciò che distingue ML2 è la sua capacità di ottenere prestazioni elevate con un numero di risorse significativamente inferiore rispetto ai suoi rivali. Con 123 miliardi di parametri, ML2 è meno di un terzo delle dimensioni del modello più grande di Meta e circa un quattordicesimo delle dimensioni di GPT-4. Questa efficienza ha importanti implicazioni per la distribuzione e le applicazioni commerciali.
Con la massima precisione a 16 bit, ML2 richiede circa 246 GB di memoria. Sebbene sia ancora troppo grande per una singola GPU, può essere facilmente implementato su un server con quattro o otto GPU senza ricorrere alla quantizzazione – un’impresa non necessariamente realizzabile con modelli più grandi come GPT-4 o Llama 3.1 405B.
Mistral sottolinea che l’ingombro ridotto di ML2 si traduce in un throughput più elevato, poiché le prestazioni di LLM sono in gran parte dettate dalla larghezza di banda della memoria. In termini pratici, ciò significa che ML2 può generare risposte più velocemente rispetto a modelli più grandi sullo stesso hardware.
Affrontare le sfide principali
Mistral ha dato priorità alla lotta contro le allucinazioni, un problema comune in cui i modelli di intelligenza artificiale generano informazioni convincenti ma imprecise. L’azienda sostiene che ML2 è stato perfezionato per essere più “cauto e perspicace” nelle sue risposte e per riconoscere meglio quando non ha informazioni sufficienti per rispondere a una domanda.
Inoltre, ML2 è stato progettato per eccellere nel seguire istruzioni complesse, soprattutto nelle conversazioni più lunghe. Questo miglioramento delle capacità di seguire i messaggi potrebbe rendere il modello più versatile e facile da usare in diverse applicazioni.
Per venire incontro alle esigenze pratiche delle aziende, Mistral ha ottimizzato ML2 in modo da generare risposte concise, ove opportuno. Sebbene i risultati verbosi possano portare a punteggi di benchmark più elevati, spesso comportano un aumento dei tempi di calcolo e dei costi operativi: una considerazione che potrebbe rendere ML2 più interessante per l’uso commerciale.
Rispetto al precedente Mistral Large, sono stati dedicati molti più sforzi alle funzionalità di allineamento e di istruzione. Su WildBench, ArenaHard e MT Bench, le prestazioni sono pari a quelle dei modelli migliori, pur essendo significativamente meno verbose. (4/N) pic.twitter.com/fvPOqfLZSq-
Guillaume Lample @ ICLR 2024 (@GuillaumeLample) 24 luglio 2024
Licenze e disponibilità
Sebbene ML2 sia disponibile gratuitamente su repository popolari come Hugging Face, i suoi termini di licenza sono più restrittivi rispetto ad alcune delle offerte precedenti di Mistral.
A differenza della licenza open-source Apache 2 utilizzata per il modello Mistral-NeMo-12B, ML2 è rilasciato sotto la Mistral Research License. Questa licenza consente un uso non commerciale e di ricerca, ma richiede una licenza commerciale separata per le applicazioni aziendali.
Mentre la corsa all’intelligenza artificiale si fa sempre più accesa, ML2 di Mistral rappresenta un significativo passo avanti nel bilanciamento tra potenza, efficienza e praticità. Resta da vedere se potrà davvero sfidare il dominio dei giganti tecnologici, ma il suo rilascio è sicuramente un’aggiunta entusiasmante al campo dei modelli linguistici di grandi dimensioni.



