Intelligence Artificielle

Lancement de Mistral 3 : Une Révolution pour l’Ère de l’IA de OpenAI

Lancement de Mistral 3 : Une Révolution pour l'Ère de l'IA de OpenAI

Le contenu et les recommandations de produits d’ADGO.ca sont totalement indépendants. Des revenus peuvent être générés lorsque vous cliquez sur les liens de nos partenaires.
En savoir plus

Une évolution pour Mistral AI

La société française Mistral AI avance à grands pas avec sa nouvelle gamme de modèles appelée Mistral 3. Ce lancement marque un tournant important pour l’entreprise, qui propose plusieurs modèles compacts, nommés Ministral 3, ainsi qu’un modèle phare, le Mistral Large 3. Ce dernier est décrit par Mistral comme son “modèle le plus performant à ce jour”.

Tous ces modèles sont disponibles sous la licence permissive Apache 2.0, illustrant la volonté de Mistral de s’imposer dans le domaine de l’IA open-source.

Mistral Large 3 : un modèle révolutionnaire

Le Mistral Large 3 est le produit phare de cette nouvelle offre, mettant en avant des innovations tant en termes d’architecture que de capacité. Il s’agit du premier modèle basé sur une approche de mélange d’experts (MoE) depuis la série Mixtral. Ce changement représente une avancée significative dans le pré-entraînement des modèles.

Doté de 675 milliards de paramètres, Mistral Large 3 utilise une architecture MoE sparse, ce qui signifie que seulement 41 milliards de paramètres sont activement mobilisés pour chaque requête. Cela permet une grande échelle sans un coût computationnel trop élevé.

Ce modèle a été entraîné sur 3 000 GPU H200 de Nvidia, et il est rapporté qu’il atteint des performances comparables aux meilleurs modèles à poids ouverts spécialement adaptés aux instructions sur le marché.

En plus de cela, il offre des capacités multimodales natives, lui permettant de comprendre des images et de gérer des conversations multilingues, bien au-delà de l’anglais et du chinois. Sur le tableau de classement LMArena, il se positionne à la deuxième place dans la catégorie des modèles open-source non raisonneurs.

La série Ministral 3 : des modèles adaptés

En parallèle, la série Ministral 3 comprend des modèles plus petits, disponibles en tailles de trois, huit et quatorze milliards de paramètres. Ceux-ci sont conçus pour des applications locales et en environnement décentralisé.

Chaque version est proposée en trois modalités : base, instruct et raisonnement spécialisé, et tous intègrent des capacités multimodales et multilingues. Ces modèles sont particulièrement adaptés aux situations où les ressources computationnelles sont limitées, comme sur des appareils mobiles ou des systèmes de calcul décentralisés.

Selon les déclarations de l’entreprise, les variantes instruct de Ministral surpassent ou égalent les performances des modèles similaires tout en nécessitant beaucoup moins de jetons. Les modèles de raisonnement, notamment le modèle de 14 milliards de paramètres, affichent une précision de 85 % sur la référence AIME ’25, confirmant leur fiabilité.

Intelligence distribuée : une tendance émergente

La gamme Ministral met en lumière une tendance vers l’intelligence distribuée. Les avancées de l’IA permettent désormais aux appareils consommateurs de fonctionner localement sans dépendre uniquement des serveurs cloud.

Cela a de nombreuses implications sur la vie privée des données, car les informations sensibles peuvent être traitées directement sur l’appareil, sans être envoyées au cloud. Cela garantit également plus de résilience dans des environnements avec une connectivité intermittente, permettant une utilisation de l’IA « des centres de données jusqu’aux robots ».

Collaboration dans l’industrie

Mistral AI n’a pas accompli cela seuls. L’entreprise a annoncé une collaboration avec des entreprises technologiques telles que Nvidia, vLLM, et Red Hat pour garantir l’accessibilité immédiate de ses modèles sur divers matériels.

L’ensemble de la famille Mistral 3 a été entraînée sur des GPU Nvidia Hopper. Grâce à cette collaboration, des points de contrôle optimisés ont été développés, notamment le format NVFP4, permettant au Mistral Large 3 de fonctionner sur des systèmes comme le Blackwell NVL72 et des nœuds uniques à 8 GPU.

Les ingénieurs de Nvidia ont intégré des noyaux personnalisés et un support pour des frameworks comme TensorRT-LLM et SGLang, ciblant spécifiquement l’architecture complexe MoE pour garantir un service à haut rendement.

Cette coopération assure que les nouveaux modèles ne sont pas seulement des curiosités de recherche, mais qu’ils peuvent être déployés en production dès le premier jour, offrant aux développeurs un accès à l’ensemble de l’écosystème matériel de Nvidia, des centres de données aux appareils Jetson en périphérie.

Vers un avenir ouvert ?

En rendant sa famille de modèles accessible en open-source, Mistral AI entend défier la domination des systèmes propriétaires comme ceux proposés par OpenAI et Google.

Ces modèles sont disponibles sur diverses plateformes cloud et dépôts, notamment Mistral AI Studio, Amazon Bedrock, Azure Foundry, et Hugging Face. Par ailleurs, Mistral AI propose également des services de formation sur mesure, permettant aux organisations d’affiner les modèles sur des ensembles de données propriétaires pour des déploiements spécifiques à leur domaine et évolutifs.

La philosophie de l’entreprise est claire : “L’avenir de l’IA est ouvert.”

Le chiffre trois est à la mode. ChatGPT a récemment fêté son troisième anniversaire.

FAQ

Qu’est-ce que la licence Apache 2.0 ?

La licence Apache 2.0 permet l’utilisation libre des logiciels sous cette licence, y compris leur distribution et leur modification, tant que les attributions appropriées sont fournies.

Quels types de modèles sont disponibles dans la série Ministral 3 ?

La série Ministral 3 comprend des modèles en trois tailles de 3B, 8B, et 14B paramètres, chacune disponible en variantes de base, instruct et raisonnement.

Comment Mistral AI garantit-il la confidentialité des données ?

Avec l’intelligence distribuée, les données sensibles peuvent être traitées localement sur les appareils, éliminant ainsi le besoin de les envoyer au cloud, améliorant ainsi la confidentialité.

Pour quel type d’applications les modèles Mistral 3 sont-ils adaptés ?

Ces modèles conviennent particulièrement à des environnements à ressources limitées, tels que les appareils mobiles, les ordinateurs portables, et les systèmes de calcul décentralisés.

Quelle est la précision du modèle de 14B de Mistral ?

Le modèle de 14 milliards de paramètres a montré une précision impressionnante de 85 % sur la norme AIME ’25.

Quitter la version mobile