Notizie

Mistral AI lancia Mixtral 8X7B per open source

La startup francese Mistral AI ha presentato il suo ultimo modello linguistico, il Mixtral 8x7B, che afferma di stabilire nuovi standard per le prestazioni open source. Rilasciato con open-weights, il modello supera Llama 2 e GPT-3.5 di OpenAI, con un’inferenza sei volte più veloce. È multilingue, supporta inglese, spagnolo, francese, italiano e tedesco, e dispone di capacità di generazione di codice.

Mixtral 8x7B è un mix di esperti specializzati (MoE) che utilizza un approccio architettonico unico. La sua architettura interna comprende un numero limitato di esperti, ciascuno specializzato in determinati compiti, producendo risposte omogenee e simili a quelle umane. Utilizza una rete MoE sparsa e un modello di sola decodifica che controlla i costi e la latenza.

La startup francese afferma che Mixtral 8x7B è più veritiero e meno distorto di Llama 2. Tuttavia, chiede agli sviluppatori di aggiungere dei messaggi di sistema per vietare gli output tossici. Mentre si comporta bene rispetto a GPT-3.5, GPT-4 di OpenAI continua a primeggiare nella maggior parte delle categorie di prestazioni.

Mixtral 8x7B è distribuito con la licenza Apache 2.0 ed è gratuito a livello commerciale. Gli sviluppatori possono anche alterare, copiare o aggiornare il codice sorgente e distribuirlo insieme a una copia della licenza. La startup offre anche l’accesso alle API a pagamento, per coloro che desiderano accedere rapidamente e facilmente alle sue funzionalità senza dover gestire l’infrastruttura di supporto.

In conclusione, Mixtral 8x7B rappresenta una novità rilevante nel campo dei modelli linguistici open source, offrendo prestazioni elevate in termini di velocità di risposta e un approccio ibrido, combinando vantaggi dell’open source con funzionalità a pagamento.

– Mixtral 8x7B
– Open-weights
– Mixture of Experts (MoE)


Super offerte di questa settimana

FIGN

Mostra di più