En savoir plus
Un aperçu de GPT-5.3-Codex-Spark
OpenAI a récemment dévoilé une version allégée de son système Codex, nommée GPT-5.3-Codex-Spark, spécialement conçue pour le codage en temps réel. Cette nouvelle itération vise à fournir des réponses rapides pour diverses tâches telles que la modification de fonctions, l’affinement de la logique ou l’ajustement des interfaces au sein des outils de développement.
Performance et accessibilité
Le modèle a été optimisé pour fournir des réponses « presque instantanées » et peut produire plus de 1 000 tokens par seconde, surtout lorsqu’il fonctionne sur du matériel à latence ultra-faible. Pour l’instant, Codex-Spark est limité à un usage textuel avec une fenêtre de contexte de 128K. Les utilisateurs de ChatGPT Pro peuvent y accéder via l’application Codex, une interface en ligne de commande, ou une extension pour VS Code. Notez que l’utilisation pendant cette période de prévisualisation est soumise à des limites de taux spécifiques et peut être suspendue lors de pics de demande.
Une innovation grâce à une collaboration
Ce lancement marque une nouvelle étape dans le partenariat d’OpenAI avec la société de puces d’IA Cerebras. Codex-Spark s’exécute sur le Wafer Scale Engine 3 (WSE-3), un processeur conçu pour des inférences à grande vitesse. L’objectif est de créer un niveau de service axé sur la latence afin de compléter les infrastructures GPU traditionnelles.
Sean Lie, CTO et co-fondateur de Cerebras, a exprimé son enthousiasme : « Nous sommes impatients de collaborer avec OpenAI et la communauté des développeurs pour explorer les nouvelles possibilités offertes par une inférence rapide, qu’il s’agisse de nouvelles interactions, de nouveaux cas d’utilisation ou d’une expérience modèle totalement transformée. Cette prévisualisation n’est que le début. »
Optimisation des performances
OpenAI souligne que le modèle n’est qu’une partie de la solution. La société a mis en œuvre des modifications plus larges au sein de son infrastructure d’inférence pour minimiser les retards. Parmi les innovations, un WebSocket permanent a été instauré et l’API Responses a été optimisée. Ces améliorations permettent de réduire de 80 % le temps de réponse par client/serveur, de 30 % le coût par token, et de 50 % le temps avant le premier token.
Le chemin utilisant WebSocket est activé par défaut pour Codex-Spark et devrait devenir la norme pour d’autres modèles.
Évaluation des compromis en performances
Comme souvent dans le domaine technologique, il faut faire des compromis. Codex-Spark est décrit comme une version “plus petite” du modèle phare, c’est pourquoi il peut ne pas offrir le même niveau de précision. Sur des tests comme SWE-Bench Pro, il affiche des performances honorables, mais reste inférieur à celles du modèle complet GPT-5.3-Codex.
D’autre part, il ne bénéficie pas du même niveau de sécurité que son grand frère. OpenAI a fait savoir que ce modèle n’atteindrait pas le seuil requis de leur Cadre de Préparation pour une capacité élevée en cybersécurité ou en biologie.
L’annonce survient dans le cadre d’une stratégie plus large d’OpenAI visant à diversifier ses capacités de calcul. Selon des rapports précédents d’ADGO.ca, OpenAI a conclu un accord pour acheter des capacités de calcul de Cerebras dans un contrat dépassant les 10 milliards de dollars. Cependant, les détails financiers n’ont pas été précisés dans l’annonce officielle de partenariat.
Récemment, Cerebras a annoncé avoir levé 1 milliard de dollars lors d’un nouveau tour de financement, valorisant l’entreprise à 23 milliards de dollars, ce qui souligne son rôle croissant dans l’infrastructure AI.
FAQ
Quelles améliorations ont été apportées à l’API Responses ?
OpenAI a optimisé l’API Responses pour réduire considérablement le temps de réponse et les coûts associés à chaque token.
Qu’est-ce que le Wafer Scale Engine ?
Le Wafer Scale Engine est un processeur spécialement conçu pour des performances d’inférence à haute vitesse, utilisé pour faire fonctionner Codex-Spark.
Quels types de tasks Codex-Spark peut-il traiter ?
Codex-Spark est capable de traiter des tâches comme la modification de code, l’affinement de la logique et l’amélioration des interfaces d’outils de développement.
Qui peut accéder à Codex-Spark ?
Les utilisateurs de ChatGPT Pro ont accès à Codex-Spark par le biais de l’application Codex, d’une interface en ligne de commande ou d’une extension pour VS Code.
Quels sont les enjeux de sécurité associés à Codex-Spark ?
Codex-Spark ne possède pas les mêmes niveaux de sécurité que le modèle GPT-5.3, notamment en ce qui concerne la cybersécurité et la biologie, selon les déclarations d’OpenAI.
