Intelligence Artificielle

Une IA inattendue réussit l’examen de droit avec brio.

Une IA inattendue réussit l'examen de droit avec brio.

Récemment, une intelligence artificielle nommée **Claude**, développée par le cabinet de recherche en IA **Anthropic**, a obtenu une “note marginale” lors d’un examen en droit et économie à l’Université George Mason, d’après un récent article de l’économiste **Alex Tabarrok**.

Ce résultat est un nouvel **alarme** : l’intelligence artificielle traverse une phase d’**expansion rapide** de ses capacités, et il ne s’agit pas seulement de **ChatGPT** d’OpenAI qui soit une source d’inquiétude.

Anthropic, financé par **Sam Bankman-Fried**, un ancien dirigeant controversé dans le domaine de la crypto-monnaie, et sa supposée partenaire romantique, **Caroline Ellison**, a récemment fait sensation avec **Claude**.

La société a débuté discrètement les tests de Claude fin de l’année dernière, et il est déjà considéré comme un **concurrent sérieux** à **ChatGPT**, le générateur de texte d’OpenAI qui a captivé le monde entier.

Pour l’instant, Anthropic ne permet qu’un accès restreint à son IA, procédant à des essais via un bêta fermée.

Cependant, Claude parvient déjà à **impressionner** des universitaires grâce à sa capacité à fournir des **réponses détaillées** aux demandes complexes.

Un exemple notable d’une question d’examen en droit, exposée par Tabarrok, a montré que Claude était capable de proposer des recommandations **crédibles** pour modifier les lois sur la propriété intellectuelle.

L’IA a révélé : “L’objectif principal devrait être de rendre les lois sur la propriété intellectuelle moins contraignantes et de rendre les œuvres accessibles au public plus rapidement. Toutefois, il est crucial de continuer à offrir certains **incitatifs** et compensations aux créateurs pendant une période limitée.”

A lire :  Site gouvernemental épinglé pour hébergement de contenu sur la "Grossesse Homosexuelle".

Globalement, Tabarrok a estimé que “Claude rivalise avec **GPT-3** et constitue, à mes yeux, une **amélioration**”, car il arrive à générer une réponse “crédible” qui surpasse celle de nombre d’**humains**.

Cependant, d’autres critiques sont moins enthousiastes quant aux résultats de Claude.

Un article du Financial Times a décrit les réponses de Claude comme ressemblant plus à une **réinterprétation** d’un rapport de **McKinsey** qu’à une véritable analyse indépendante.

Bien que Claude et ChatGPT offrent une expérience utilisateur semblable, les approches d’entraînement derrière ces modèles sont différentes, surtout en matière de régulation de leurs réponses.

Claude utilise le concept de “**constitutionnal AI**”, comme expliqué dans un document en attente de publication partagé par les chercheurs d’Anthropic le mois dernier.

Les chercheurs ont mentionné : “Nous expérimentons des méthodes de formation d’un assistant IA inoffensif en faveur de l’**auto-amélioration**, sans aucune évaluation humaine sur les résultats préjudiciables.” Le processus inclut à la fois un apprentissage **supervisé** et une phase d’enseignement par **renforcement**.

“Souvent, les modèles de langage conçus pour être ‘inoffensifs’ deviennent **inutiles** face à des questions difficiles”, a indiqué l’entreprise dans un tweet de décembre. Le concept d’IA constitutionnelle leur permet de répondre à des questions en suivant un ensemble de principes directeurs simples.

Le développeur d’applications IA **Scale** a comparé Claude et ChatGPT et a constaté que “globalement, Claude représente une sérieuse **concurrence** à ChatGPT, avec plusieurs améliorations dans divers domaines.”

Scale a aussi relevé que Claude est “plus agréable à utiliser que ChatGPT”, bien qu’il soit “plus enclin à refuser des demandes inappropriées” grâce à sa conception d’IA constitutionnelle.

A lire :  Hollywood en Ébullition Face à l'Ascension de l'IA Générative

“Sa capacité à parler de lui-même, de ses **limites** et de ses objectifs semble également lui permettre de répondre plus naturellement à des questions sur d’autres sujets,” notait Scale dans son article, tout en signalant que ChatGPT demeure supérieur en matière de **génération de code**.

En résumé, Anthropic ne prend pas à la légère le développement de son nouveau chatbot IA, et pourrait représenter une **vraie menace** pour OpenAI.

LIRE LA SUITE: Un rival de ChatGPT, l’IA, a réussi un examen en droit et économie à l’université, et a surpassé de nombreux humains, affirme le professeur [Insider]

Plus sur l’IA: Les spammeurs SEO sont absolument ravis que Google ne sévisse pas contre les articles générés par IA de CNET


FAQ

Qu’est-ce qui distingue Claude de ChatGPT ?
Claude utilise une approche appelée “IA constitutionnelle”, qui l’aide à répondre de manière plus appropriée à des questions délicates, en se basant sur des principes directeurs.

Quelle est l’origine d’Anthropic ?
Anthropic a été fondée par un groupe de chercheurs en intelligence artificielle, qui ont bénéficié de financements provenant d’investisseurs notables dans la crypto-monnaie.

Claude est-il accessible au grand public ?
Pour le moment, l’accès à Claude est restreint et se fait uniquement par le biais d’une bêta fermée, limitant son utilisation au public.

Quel type de résultats Claude a-t-il montré lors de ses tests ?
Dans ses premières évaluations, Claude a produit des réponses qui ont été jugées à la fois crédibles et détaillées, surpassant parfois celles des humains.

Quelle est la perception générale des experts concernant Claude ?
Bien que certains experts soient positivement surpris, d’autres demeurent skeptiques, soulignant que les résultats peuvent parfois ressembler à des reproductions d’études existantes.

A lire :  Grok : Une Réaction Inattendue Face à des Nuages qui Soulève l'Antisémitisme