Une observation sur les modèles d’intelligence artificielle
De nos jours, beaucoup de gens constatent que certaines plateformes d’intelligence artificielle (IA), comme ChatGPT d’OpenAI, semblent moins performantes qu’auparavant. Vous n’êtes pas le seul à ressentir cela.
Dans un article d’opinion très critique pour Computerworld, l’écrivain Steven Vaughan-Nichols souligne que les modèles d’IA accessibles au public — tels que ChatGPT et Claude — semblent moins efficaces que leurs prédécesseurs. Il exprime sa frustration en disant que les résultats de ces modèles peuvent souvent être non seulement décevants, mais également radicalement erronés.
Vaughan-Nichols précise que ce qui rend la situation encore plus frustrante, c’est la nature erratique de ces erreurs. S’il pouvait compter sur des réponses simplement médiocres mais relativement précises, il pourrait trouver des moyens de contourner le problème. Malheureusement, ce n’est pas le cas.
Un déclin dans la précision
Un autre article de Business Insider, que Vaughan-Nichols mentionne, révèle que les utilisateurs du forum des développeurs d’OpenAI ont également noté une chute significative de la précision après la sortie de la dernière version de GPT. Un utilisateur s’est même exprimé enjuin dernier pour dire que, malgré tout l’enthousiasme généré, la nouvelle version était une grande déception.
Il est évident que cette situation n’est pas conforme à nos attentes. Habituellement, les nouvelles versions de logiciels sont censées améliorer les précédentes. Alors, qu’est-ce qui peut expliquer cette baisse de la qualité ?
Problèmes sous-jacents
L’une des hypothèses avancées est que ces modèles d’IA n’étaient peut-être pas aussi robustes qu’ils le paraissaient. Leurs données d’entraînement proviennent de plateformes comme Reddit et Twitter, et il semble que nous avons été impressionnés simplement par leur capacité à fonctionner, peu importe les limites de leur conception.
Une autre explication, selon Vaughan-Nichols, réside dans l’augmentation de l’utilisation d’informations générées par l’IA pour entraîner ces modèles. Lorsqu’ils consomment des données produites par d’autres intelligences artificielles, cela peut nuire à leurs propres capacités. Ce phénomène, connu sous le nom de “collapse des modèles”, se produit lorsque les modèles se détériorent à mesure qu’ils sont exposés à des données générées par l’IA, un problème qui devient de plus en plus courant à mesure que la toile est inondée de contenus générés par des algorithmes.
Une étude récente publiée dans Nature met en lumière que l’utilisation indiscriminée de contenus créés par des modèles durant l’entraînement peut entraîner des défauts irréversibles dans les modèles eux-mêmes, nuisant à la distribution originale des données.
Un avenir incertain
Cette problématique risque de s’intensifier, notamment avec la pénurie de contenu de qualité dans le monde réel, certaines estimations prévoyant qu’elle surviendra d’ici 2026. Bien sûr, il est possible que l’on retrouve l’importance du travail humain, qui est à la fois précieux et irremplaçable, mais il est difficile de dire si cela se produira.
FAQ
Pourquoi les intelligences artificielles sont-elles moins performantes actuellement ?
La baisse de performance des intelligences artificielles peut être liée à un usage excessif de données générées par d’autres IA, ce qui altère leurs capacités d’analyse et de réponse.
Qu’est-ce que le phénomène de “collapse des modèles” ?
Le “collapse des modèles” désigne une dégradation de la performance des modèles d’IA lorsqu’ils sont alimentés en données créées par d’autres modèles, entraînant des erreurs et une réduction de la qualité.
Comment les utilisateurs réagissent-ils aux nouvelles versions d’IA comme ChatGPT ?
De nombreux utilisateurs expriment leur déception face à la nouvelle version de ChatGPT, considérant qu’elle ne répond pas aux attentes suscitées par les versions précédentes.
Y a-t-il des solutions envisagées pour améliorer la qualité des IA ?
Pour contrer cette baisse de qualité, il serait pertinent de diversifier les sources de données d’entraînement, en intégrant davantage de contenus créés par des humains pour préserver la richesse et la précision des informations.
L’IA pourrait-elle redevenir aussi efficace qu’avant ?
Il est possible que les intelligences artificielles retrouvent leur efficacité si des ajustements majeurs sont apportés à leurs méthodes d’entraînement et de collecte de données, mais cela nécessitera un effort concerté dans le développement et la réglementation.
