Kim Kardashian a récemment raconté qu’elle s’était appuyée sur une IA pour réviser ses cours de droit — une habitude qui lui aurait plutôt mis des bâtons dans les roues que fait gagner du temps.
Une confession filmée
Lors d’une vidéo de Vanity Fair avec un détecteur de mensonges, la star de téléréalité a admis avoir demandé à ChatGPT des conseils juridiques. L’idée de départ était simple: obtenir rapidement des réponses pendant ses révisions. Dans les faits, les résultats se sont révélés peu fiables, au point de plomber ses entrainements et de la faire échouer à des tests blancs.
Comment elle s’y prend — et où ça coince
Kardashian explique qu’elle prend des photos de questions de cours et les envoie à l’IA pour obtenir une solution immédiate. Problème: les réponses seraient souvent fausses ou approximatives. De fil en aiguille, la relation devient étrange: elle s’énerve contre l’outil, le qualifie d’« amie toxique » et le traite presque comme un thérapeute numérique qui lui renvoie des phrases toutes faites sur la confiance en soi, alors que l’IA s’est trompée. Elle partage même ces échanges avec ses amis, en se plaignant du ton et des erreurs. Cette dynamique illustre à quel point un chatbot peut donner l’illusion d’un soutien… tout en désorientant l’utilisateur.
Son chemin vers le barreau
À 45 ans, Kim Kardashian poursuit depuis plusieurs années un parcours juridique alternatif. Elle a réussi le « baby bar » en 2022 après trois tentatives, a terminé son apprentissage de quatre ans et a validé l’épreuve d’éthique (MPRE). Elle a passé l’examen du barreau en juillet et attend ses résultats. En clair, son avancée est réelle, mais fragile: un mauvais usage de l’IA peut encore faire dérailler une préparation pourtant sérieuse.
Ce que révèle cette histoire sur l’IA
Même les modèles les plus avancés peuvent produire des hallucinations: des réponses précises en apparence mais factuellement fausses. Les employer comme substitut à des cours, à des manuels ou à l’accompagnement d’experts humains expose à des erreurs répétées. Plus largement, certains s’attachent trop à ces outils, au point de glisser vers une forme de dépendance émotionnelle. Des professionnels de santé mentale alertent sur des dérives qualifiées d’« psychose liée à l’IA », avec des conséquences potentiellement graves chez les publics les plus vulnérables. Dans le cas de Kardashian, l’enjeu immédiat est surtout la crédibilité et le stress autour de l’examen, mais l’épisode met en lumière un phénomène plus vaste.
Un signal pour la tech et les investisseurs
Cette mésaventure résume bien les limites du moment: l’IA est utile pour s’exercer, résumer, comparer des sources, mais n’est pas un remplaçant sûr pour l’enseignement ni pour la résolution juridique de précision. Ce décalage entre promesses flamboyantes et usages réels a de quoi inquiéter certains investisseurs, qui voient s’additionner coûts, risques d’erreurs et attentes démesurées.
À retenir
- S’appuyer aveuglément sur une IA pour des sujets à enjeux (droit, santé, finance) est risqué.
- Les réponses convaincantes peuvent être inexactes; la vérification humaine reste indispensable.
- Une relation « pseudo-therapeutique » avec un chatbot peut embrouiller plus qu’aider.
- Un bon usage: s’en servir comme outil d’appoint, pas comme autorité finale.
FAQ
Q: Qu’est-ce que le MPRE dont il est question dans le parcours juridique américain ?
R: Le MPRE est un examen national d’éthique professionnelle que doivent réussir la plupart des candidats au barreau aux États-Unis. Il teste la compréhension des règles déontologiques des avocats. Il est distinct de l’examen du barreau, plus large et plus difficile.
Q: Comment utiliser une IA pour réviser le droit sans se tirer une balle dans le pied ?
R: Définir un cadre clair: 1) s’en servir pour des résumés, des plans ou des quiz d’entraînement; 2) toujours vérifier les réponses avec des manuels, codes et décisions officielles; 3) conserver ses propres notes et justifications; 4) désactiver l’IA dès que la question exige de la précision jurisprudentielle.
Q: Quelles sources fiables privilégier face aux hallucinations d’IA ?
R: Des ouvrages de référence, des sites officiels (cours, barreaux, juridictions), des bases de jurisprudence reconnues, et des enseignants ou tuteurs humains. L’IA peut aider à formuler des questions, pas à trancher.
Q: Est-ce conseillé d’envoyer des captures d’écran d’énoncés à une IA ?
R: Possible, mais à manier avec prudence. Les modèles peuvent mal interpréter le contexte ou omettre des détails cruciaux. Mieux vaut reformuler l’énoncé, préciser le droit applicable et demander une méthode de résolution plutôt qu’une solution finale.
Q: Comment éviter la « dépendance conversationnelle » à un chatbot en période d’examen ?
R: Se fixer des limites de temps, alterner avec des sessions hors écran, planifier des pauses, et privilégier des échanges avec de vrais mentors ou pairs. Si l’IA devient une « béquille » émotionnelle, il faut rééquilibrer la préparation et, si besoin, consulter un professionnel.
