Intelligence Artificielle

Les Programmateurs Utilisant l’IA Créent des Problèmes de Sécurité Écrasants, Selon les Données

Les Programmateurs Utilisant l'IA Créent des Problèmes de Sécurité Écrasants, Selon les Données

Les risques de l’intelligence artificielle dans la programmation

L’intelligence artificielle est souvent critiquée pour ses problèmes de précision, et il n’est donc pas surprenant que son utilisation en tant qu’assistant codage pose davantage de problèmes de sécurité. Une étude menée par la société de sécurité Apiiro a révélé que les développeurs qui ont recours à l’IA rencontrent dix fois plus de problèmes de sécurité que ceux qui n’utilisent pas cette technologie.

Une augmentation des erreurs de code

Apiiro a analysé les contributions de milliers de développeurs et de dizaines de milliers de dépôts de code. Les résultats montrent que les développeurs utilisant l’IA produisent trois à quatre fois plus de code, mais que ce rythme effréné contribue à accroître les failles de sécurité. Itay Nussbaum, responsable produit chez Apiiro, a souligné que l’IA ne se contente pas de multiplier un type de vulnérabilité, mais toutes simultanément.

Les paradoxes de l’IA

Fait intéressant, certains des “avantages” apportés par l’intelligence artificielle semblent être à l’origine des problèmes rencontrés. Les erreurs de syntaxe ont chuté de 76 %, et les bogues logiques, ces erreurs qui entraînent un fonctionnement incorrect d’un programme, ont diminué de 60 %. Cependant, cette amélioration a un coût : les cas d’élévation de privilèges — où un attaquant obtient des accès plus élevés que prévus — ont augmenté de manière alarmante de 322 %, et les problèmes liés à la conception architecturale sont en hausse de 153 %.

A lire :  Le PDG de Google DeepMind : L'IA pourrait-elle atteindre la conscience ?

Des résultats préoccupants

En d’autres termes, Nussbaum précise que l’IA corrige les fautes de frappe, mais elle engendre également de nouveaux dangers. Il est donc logique que l’utilisation de l’IA dans la programmation engendre un risque accru pour la sécurité. Des recherches menées par des universités telles que celle de San Francisco et d’autres institutions ont confirmé que les améliorations apportées par l’IA nuisent globalement à la sécurité.

Impact sur les entreprises

Avec des entreprises comme Coinbase, Shopify et Duolingo imposant l’utilisation de l’IA à leurs employés, ces défis ne se traduisent pas seulement par une multiplication des vulnérabilités, mais aussi par une augmentation du travail pour ceux qui sont chargés de résoudre ces problèmes.

L’intégration de l’IA dans le secteur de la programmation — tout en visant à améliorer l’efficacité — semble plutôt accaparer le temps des travailleurs humains restants, augmentant le besoin en corrections et en ajustements. Alors que cette tendance se poursuit, les problèmes liés à l’IA ne feront que s’aggraver.

En résumé

Il est donc clair que l’implémentation de l’intelligence artificielle dans le domaine du codage ne simplifie pas les choses : bien au contraire, elle génère une multitude de corrections et de limitations à vérifier, sans relâche.

FAQ

Quelle est la principale préoccupation liée à l’utilisation de l’IA en programmation ?

La précision et la sécurité du code produit par des développeurs aidés par l’IA soulèvent des inquiétudes, car cela pourrait entraîner des failles importantes.

L’IA améliore-t-elle réellement la productivité des développeurs ?

Bien que les outils d’IA puissent permettre de produire du code plus rapidement, l’augmentation des erreurs et des vulnérabilités pourrait finalement nuire à la productivité.

A lire :  Pionnier du Deepfake : "Des vidéos fausses d'une réalité parfaite d'ici six mois"

Quels types de problèmes de sécurité sont les plus fréquents avec l’IA ?

Les problèmes d’élévation de privilèges et de conception architecturale sont parmi les plus fréquents, représentant des menaces majeures pour la sécurité des systèmes.

Comment les entreprises peuvent-elles gérer ces problèmes liés à l’IA ?

Les entreprises doivent renforcer leurs équipes de sécurité et tester systématiquement le code généré par l’IA pour en réduire les vulnérabilités.

Existe-t-il des solutions pour atténuer les risques liés à l’IA ?

Mettre en place des protocoles de vérification rigoureux et former les développeurs à l’utilisation critique de l’IA peut aider à minimiser les risques associés.