Technologie

Des experts tirent la sonnette d’alarme suite aux résultats préoccupants des derniers tests du modèle ChatGPT : « Fiabilité douteuse au mieux ».

Des experts tirent la sonnette d'alarme suite aux résultats préoccupants des derniers tests du modèle ChatGPT : « Fiabilité douteuse au mieux ».

La spirale de l’IA

D’après un article du Guardian, l’intelligence artificielle a commencé à se tirer elle-même dans le pied. En effet, des recherches montrent que ChatGPT cite une source très contestable, elle-même alimentée par l’IA : Grokipedia. Ce dernier est un concurrent de Wikipedia, créé par l’entreprise xAI d’Elon Musk. Contrairement à Wikipedia où les articles sont rédigés par des humains, Grokipedia se base sur Grok, une intelligence artificielle intégrée à la plateforme sociale X pour gérer son contenu.

L’utilisation problématique des sources

Des requêtes effectuées sur ChatGPT ont démontré qu’il s’appuyait souvent sur Grokipedia pour renforcer ses propos. Bien que Grok soit généralement efficace pour fournir des résultats avec précision, un grand nombre des informations provenaient de Grokipedia ont été jugées mensongères. Cette réalité soulève des inquiétudes quant à la qualité des données utilisées pour former les systèmes d’IA, ouvrant la porte à une possible détérioration de leur fiabilité.

Selon la chercheuse en désinformation, Nina Jankowicz, ChatGPT a tendance à se fier à des sources peu fiables, mal sourcées, voire carrément trompeuses. Cela pourrait amener les utilisateurs à considérer ces sources comme valides, ce qui pourrait les conduire à rechercher des informations, comme des nouvelles concernant l’Ukraine, basées sur ces données erronées.

A lire :  Feu vert décisif pour un constructeur aéronautique : la voie est libre pour les avions du futur

Une étude a révélé que près de 75 % des données utilisées pour entraîner les grands modèles de langage pourraient être synthétiques, c’est-à-dire générées par d’autres IA. Cela soulève de sérieuses préoccupations sur la validité et la précision des résultats fournis par ces systèmes qui pourraient finir par se dégrader.

Les enjeux de la désinformation par IA

La transmission de tâches critiques à l’IA peut avoir de profondes répercussions sociales. En offrant une alternative moins coûteuse aux travailleurs humains, l’IA pourrait entraîner une dislocation de nombreux emplois.

De plus, bien que l’IA semble atteindre un certain pic de performance, ses résultats restent souvent inférieurs à ceux générés par des humains. Si les modèles d’IA sont formés sur des données de mauvaise qualité, ils risquent de propager des erreurs permanentes, même lorsque les sources sont corrigées.

Pour aggraver le tout, le fonctionnement de l’IA nécessite une quantité incroyable d’énergie, souvent produite par des sources polluantes comme le charbon ou le gaz, soulignant ainsi le coût environnemental de son utilisation. Des entreprises de technologie, telles que Meta, Microsoft et Google, tentent de compenser ces coûts en investissant dans l’énergie nucléaire. De futures avancées technologiques pourraient également contribuer à réduire ces besoins énergétiques élevés.

Initiatives pour améliorer la fiabilité de l’IA

Malgré cela, l’IA peut s’avérer très bénéfique lorsqu’elle est associée à une vérification humaine. Des applications dans des domaines tels que la prévision météorologique, l’anticipation des maladies ou la conception de batteries montrent son potentiel.

Cela dit, il existe de nombreux cas où l’assistance de l’IA ralentit en réalité les processus de travail. Si cette tendance se généralise, les entreprises pourraient être moins enclines à adopter l’utilisation de l’IA.

A lire :  Un énergéticien déploie une technologie révolutionnaire qui pourrait transformer le chauffage de nos foyers: « Sa beauté tient à sa simplicité »

FAQ

Quelles sont les principales préoccupations concernant l’utilisation de l’IA aujourd’hui ?

Les préoccupations majeures incluent la désinformation, le risque de licenciement massifs et l’impact écologique associé aux besoins énergétiques de l’IA.

Comment peut-on améliorer la qualité des données utilisées par l’IA ?

Il est crucial de renforcer la vérification des sources et d’assurer que les données proviennent de matériaux fiables et validés.

Existe-t-il des régulations sur l’utilisation de l’IA ?

De nombreux gouvernements examinent actuellement la mise en place de régulations pour garantir une utilisation éthique et responsable de l’intelligence artificielle.

Quel rôle peut jouer la communauté scientifique face à la montée de l’IA ?

La communauté scientifique peut contribuer à la recherche sur la véracité des données et sur les méthodes d’intégration de l’intelligence artificielle dans des domaines sensibles.

Y a-t-il des alternatives à l’IA pour certaines tâches ?

Oui, certaines tâches peuvent être effectuées efficacement par des humains, surtout dans des domaines nécessitant un jugement critique ou émotionnel.