#18 mondial Open source API disponible

Mixtral 8x22B : benchmark complet 2026

Développé par Mistral AI. 176B (MoE) paramètres, fenêtre de contexte de 64K tokens.

79 /100
Score global #18 — Mistral AI

Fiche technique Mixtral 8x22B

ModèleMixtral 8x22B
ÉditeurMistral AI
Date de sortie2024-04
Paramètres176B (MoE)
Fenêtre de contexte64K tokens
LicenceOpen source
TarifsGratuit · API via Mistral et tiers
Classement global#18 sur 43 modèles

Présentation de Mixtral 8x22B

Le modèle Mixture-of-Experts open source de Mistral. Mixtral combine les avantages de plusieurs experts spécialisés pour offrir des performances élevées avec une empreinte mémoire raisonnable.

Mixtral 8x22B de Mistral AI se classe actuellement #18 dans notre classement global avec un score de 79/100. C'est un modèle open source, ce qui signifie que vous pouvez le télécharger et l'exécuter sur votre propre matériel — gratuitement.

Scores détaillés par dimension

Voici comment Mixtral 8x22B performe sur chacune des 6 dimensions que nous évaluons :

Global 79/100
Code 80/100
Raisonnement 78/100
Rédaction 79/100
Mathématiques 77/100
Instructions 80/100

Comparer Mixtral 8x22B avec d'autres modèles

Mettez Mixtral 8x22B face à face avec ses concurrents directs.

Outils IA à explorer

Découvrez les meilleurs outils qui utilisent des modèles comme Mixtral 8x22B et ses concurrents.