Mixtral 8x22B : benchmark complet 2026
Développé par Mistral AI. 176B (MoE) paramètres, fenêtre de contexte de 64K tokens.
Fiche technique Mixtral 8x22B
| Modèle | Mixtral 8x22B |
| Éditeur | Mistral AI |
| Date de sortie | 2024-04 |
| Paramètres | 176B (MoE) |
| Fenêtre de contexte | 64K tokens |
| Licence | Open source |
| Tarifs | Gratuit · API via Mistral et tiers |
| Classement global | #18 sur 43 modèles |
Présentation de Mixtral 8x22B
Le modèle Mixture-of-Experts open source de Mistral. Mixtral combine les avantages de plusieurs experts spécialisés pour offrir des performances élevées avec une empreinte mémoire raisonnable.
Mixtral 8x22B de Mistral AI se classe actuellement #18 dans notre classement global avec un score de 79/100. C'est un modèle open source, ce qui signifie que vous pouvez le télécharger et l'exécuter sur votre propre matériel — gratuitement.
Scores détaillés par dimension
Voici comment Mixtral 8x22B performe sur chacune des 6 dimensions que nous évaluons :
Comparer Mixtral 8x22B avec d'autres modèles
Mettez Mixtral 8x22B face à face avec ses concurrents directs.
Outils IA à explorer
Découvrez les meilleurs outils qui utilisent des modèles comme Mixtral 8x22B et ses concurrents.