Robots

Une Découverte Surprise des Chercheurs en IA de Microsoft qui Risque d’Agacer Leur Direction

Une Découverte Surprise des Chercheurs en IA de Microsoft qui Risque d'Agacer Leur Direction

L’automatisation par l’IA vise principalement à exécuter des tâches qui étaient autrefois réalisées par des humains. Cela a pour but d’augmenter **la productivité** et **l’efficacité** dans le monde du travail, mais souvent au détriment des employés, avec des suppressions de postes à la clé.

Cependant, un récent article non encore évalué par les pairs, rédigé par des chercheurs de Microsoft et relayé par IT Pro, met en évidence des faiblesses notables des systèmes d’IA actuels dans des situations de travail réelles. Les études menées sur des modèles avancés comme GPT 5.4 d’OpenAI, Claude Opus 4.6 d’Anthropic et Gemini 3.1 Pro de Google révèlent qu’en cas de missions complexes, ces outils, bien que sophistiqués, altèrent en moyenne **25 % du contenu** des documents. Les anciens modèles rencontrent même des échecs plus graves.

Les chercheurs en sont arrivés à la conclusion que, pour la plupart des domaines, ces **modèles ne sont pas prêts** pour des tâches déléguées. Cette observation est particulièrement marquante pour Microsoft, qui investit massivement dans l’IA et cherche à l’intégrer dans presque toutes les facettes de Windows 11, souvent avec des résultats désastreux. Fait intéressant, l’étude n’a pas examiné le propre **Copilot** de Microsoft.

En d’autres termes, les chercheurs de Redmond avaient tout intérêt à présenter des résultats positifs concernant l’IA au travail. Pourtant, leur analyse a montré que faire confiance aux modèles de langage sans discernement pour gérer des documents internes est susceptible de mener à des erreurs graves, voire à des pertes de données.

A lire :  Le Béton Luminescent : Une Révolution Routière en Approche

Alors que de nombreux dirigeants cherchent à remplacer le **travail humain** par l’IA, cette étude de Microsoft ajoute une pierre à l’édifice d’une recherche grandissante sur ce que l’on appelle le « **travail bâclé** » : des tâches effectuées par des systèmes alimentés par l’IA et reprises par des employés qui doivent ensuite corriger ce que ces outils ont mal exécuté.

À propos du travail bâclé par l’IA : Une recherche de Stanford révèle que les entreprises sont déchirées par le « travail bâclé » produit par l’IA.

FAQ

Qu’est-ce que l’automatisation par l’IA ?

L’automatisation par l’IA consiste à utiliser des technologies intelligentes pour effectuer des tâches généralement réalisées par des humains, visant à améliorer l’efficacité.

Quels sont les risques associés à l’utilisation de l’IA au travail ?

Les principaux risques incluent des erreurs de traitement de documents, des pertes de données et une dépendance excessive envers des systèmes peu fiables.

Pourquoi les systèmes IA échouent-ils dans les tâches complexes ?

Les modèles d’IA actuels manquent souvent de compréhension contextuelle, ce qui entraîne des altérations significatives du contenu lorsqu’ils traitent des informations complexes.

Comment les entreprises peuvent-elles se prémunir contre les échecs de l’IA ?

Il est conseillé de combiner l’automatisation avec l’intervention humaine, en instaurant des systèmes de vérification pour garantir la qualité des résultats.

A lire :  Des Anciens Livreurs Réinventent Leur Métier Face à l'Avènement des Robots de Livraison.

Quelle est l’importance de l’évaluation par les pairs des études sur l’IA ?

L’évaluation par les pairs est cruciale pour assurer la rigueur scientifique des recherches sur l’IA, garantissant que les résultats sont fiables et applicables.