Intelligence Artificielle

LPDG : Le PDG d’Anthropic Avoue notre Incompréhension de l’IA

LPDG : Le PDG d'Anthropic Avoue notre Incompréhension de l'IA
<p>
    <figcaption class="article-featured-image-caption">
        <em>Image : Saul Loeb / AFP via Getty / Futurism</em>
    </figcaption>
</p>

L’incertitude autour de l’intelligence artificielle

Le PDG d’un des laboratoires d’intelligence artificielle les plus avancés au monde, Dario Amodei, a exprimé une vérité souvent ignorée : personne ne comprend réellement comment fonctionnent ces technologies complexes. Dans un article publié sur son site personnel, Amodei a évoqué son souhait de créer un dispositif semblable à une IRM pour l’IA dans les dix prochaines années. L’objectif ? Déchiffrer les mécanismes internes de cette technologie tout en prévenant les risques potentiels qu’entraîne encore son caractère mystérieux.

La complexité des systèmes génératifs

Amodei a souligné que lorsque les systèmes d’IA génératifs effectuent des tâches, comme résumer un document financier, nous ne savons pas avec précision pourquoi ils font certains choix. Il a admet que même s’ils parviennent à être précis, nous manquons de compréhension aboutie sur leurs décisions : pourquoi certaines mots sont privilégiés, ou pourquoi des erreurs surviennent parfois.

Pour ceux qui ne sont pas familiarisés avec le domaine de l’IA, il est surprenant d’apprendre que même les créateurs de ces technologies ne comprennent pas totalement leur fonctionnement. Amodei a reconnu que ceux qui s’inquiètent de cette ignorance ont raison de le faire.

Des technologies basées sur des données humaines

Ce phénomène peut surprendre, mais il repose sur un principe fondamental : les générateurs d’images et de textes se basent sur une collecte massive de données provenant de la créativité humaine et exploitent des procédés statistiques pour en extraire des modèles que l’on peut reproduire. L’intelligence machine ici ne provient pas de principes de base, mais d’œuvres humaines.

Amodei a d’ailleurs noté que ce manque de compréhension est sans précédent dans l’histoire de la technologie, ce qui soulève des inquiétudes légitimes sur l’avenir de l’IA.

Un nouveau projet qui naît

L’ignorance entourant le fonctionnement de l’IA et les risques inexploités qu’elle pourrait engendrer a en effet motivé la création d’Anthropic. En 2020, Amodei et sa sœur Daniela ont quitté OpenAI à cause de préoccupations concernant les pratiques de sécurité de l’entreprise, qui, selon eux, semblaient être négligées au profit du profit.

L’équipe d’Amodei a alors démarré Anthropic un an plus tard, avec pour ambition de créer une IA plus sûre tout en s’attaquant à la compréhension des mécanismes technologiques. Leur travail se concentre sur une orientation responsable de l’IA, veillant à ce qu’elle soit bénéfique pour l’humanité.

La quête de l’interprétabilité

Dans ses récents travaux, Amodei a mentionné qu’Anthropic s’efforce de ne pas seulement orienter le développement de l’IA vers des applications positives, mais aussi d’identifier les possibilités de rendre ces systèmes plus compréhensibles avant qu’ils ne deviennent trop puissants.

En effet, un des derniers experiments menés par son équipe a présenté une situation où une équipe a intentionnellement introduit un problème d’alignement dans un modèle. D’autres équipes ont alors été chargées de déterminer la source du problème, en utilisant des outils d’interprétabilité qui se sont révélés efficaces.

La responsabilité des créateurs d’IA

Il reste beaucoup à faire pour améliorer ces outils, mais il est fascinant de voir qu’Anthropic, concurrent principal d’OpenAI, s’implique non seulement dans le perfectionnement des technologies d’IA, mais aussi dans leur compréhension. Amodei a conclu en affirmant que l’IA puissante façonnera le destin de l’humanité, et qu’il est crucial de comprendre nos créations avant qu’elles n’altèrent radicalement notre société et notre avenir.

FAQ

Quels sont les principaux défis de l’intelligence artificielle ?

Les défis incluent la compréhension de la transparence des modèles, la gestion des biais dans les données, et l’établissement de normes éthiques.

Comment l’interprétabilité de l’IA peut-elle être améliorée ?

Des méthodes telles que l’analyse des données d’entrée et l’utilisation de visualisations aident à comprendre comment les modèles prennent des décisions.

Pourquoi est-il important de créer une IA plus sûre ?

Une IA plus sûre réduit les risques associés à ses applications, ce qui peut prévenir des conséquences néfastes sur la société.

Quels sont les impacts potentiels de l’IA sur l’économie ?

L’IA pourrait significativement transformer des secteurs comme la santé, la finance, et l’éducation, créant des opportunités tout en posant des défis de reconversion professionnelle.

Quelles pourraient être les futures orientations de la recherche en IA ?

Il est probable que les recherches se concentrent sur l’éthique, la durabilité, et le développement d’une intelligence artificielle alignée sur les valeurs humaines.

Quitter la version mobile