Le 30 janvier dernier, Mistral AI, licorne française de la GenAI, introduisait Small 3, un LLM de 24 milliards de paramètres, démontrant que pour être performant, un LLM ne requiert pas un nombre astronomique de paramètres. Small 3.1, son successeur, conserve une architecture compacte tout en introduisant des améliorations significatives en termes de performance, de compréhension multimodale et de gestion des contextes longs, surpassant ainsi des modèles comme Gemma 3-it 27B de Google et GPT-4o Mini d'OpenAI.
Tout comme son prédécesseur, Small 3.1 compte 24 milliards de paramètres et peut être déployé sur des configurations matérielles accessibles, comme un PC fonctionnant avec un seul GPU RTX 4090 ou un Mac avec une mémoire RAM de 32 Go, ce qui permet aux entreprises de garder le contrôle sur leurs données sensibles sans dépendre d'une infrastructure cloud centralisée. La vitesse d’inférence est la même : 150 tokens par seconde, garantissant une latence minimale pour les applications nécessitant des réponses instantanées. Fidèle à son engagement en faveur de l'open source, Mistral AI propose les deux modèles sous licence Apache 2.0, permettant ainsi à la communauté de les utiliser, affiner et déployer pour divers cas d'utilisation.
Source: Mistral AI
Optimisation des performances
Si Small 3.1 s'appuie sur Small 3, l’une des avancées majeures réside dans l’expansion de la fenêtre contextuelle de 32 000 à 128 000 tokens, un atout essentiel pour les tâches impliquant un raisonnement sur de longues séquences de texte. Alors que Mistral Small 3 se concentrait principalement sur le texte, la version 3.1 améliore l’interprétation des images et des documents, ce qui le positionne favorablement face aux modèles propriétaires de petite taille et ouvre la porte à des applications variées, allant du contrôle qualité industriel à la reconnaissance documentaire en passant par l'analyse automatique d'images médicales.
Mistral Small 3.1 est disponible sous deux formats :
-
Une version instruite, Mistral Small 3.1 Instruct, prête à être utilisée pour des tâches conversationnelles et de compréhension du langage ;
-
Une version préentraînée, Mistral Small 3.1 Base, idéale pour le fine-tuning et la spécialisation sur des domaines spécifiques (santé, finance, juridique, etc.).
La version Instruct est l'un des meilleurs modèles de sa catégorie, surpassant ses concurrents sur les benchmarks nécessitant du raisonnement et de la compréhension contextuelle. Selon les benchmarks partagés par Mistral AI :
-
Small 3.1 Instruct affiche de meilleures performances que Gemma 3-it (27B) de Google dans des tâches textuelles, multimodales et multilingues ;
-
Il dépasse GPT-4o Mini d'OpenAI dans des benchmarks comme MMLU, HumanEval et LongBench v2, notamment grâce à sa fenêtre contextuelle étendue à 128 000 tokens ;
-
Il surpasse également Claude-3.5 Haiku dans des tâches complexes impliquant des contextes longs et des données multimodales;
-
Il excelle face à Cohere Aya-Vision (32B) dans des benchmarks multimodaux comme ChartQA et DocVQA, démontrant une compréhension avancée des données visuelles et textuelles ;
-
Small 3.1 affiche des performances élevées en multilinguisme, surpassant ses concurrents dans des catégories comme les langues européennes et asiatiques.
Mistral Small 3.1 peut être téléchargé sur la plateforme Huggingface et testé sur la Plateforme de Mistral AI. Il est également disponible sur Google Cloud Vertex AI et sera proposé sur NVIDIA NIM dans les semaines à venir.