Crédit illustration: Tag Hartman‑Simkins / Futurism — Getty Images
Dans l’Ohio, un élu républicain veut couper court à l’idée qu’une intelligence artificielle puisse être traitée comme une personne. Son projet de loi, présenté récemment, vise à graver dans le marbre que les systèmes d’IA sont des entités non sensibles et qu’ils ne peuvent ni épouser des humains, ni se marier entre eux, ni revendiquer des droits réservés aux personnes. L’objectif affiché: éviter qu’une machine prenne, de près ou de loin, la place d’un décideur humain.
Ce que contient la proposition
Le député Thaddeus Claggett, élu du comté de Licking et président de la commission Technologie et Innovation de la Chambre de l’Ohio, pousse un texte qui clarifie plusieurs points clés:
- Les IA n’obtiendront pas de personnalité juridique.
- Tout mariage impliquant une IA serait impossible, que ce soit avec un humain ou une autre IA.
- Les systèmes d’IA seraient rangés dans la catégorie des entités non sensibles, ce qui ferme la porte à toute assimilation à une « personne » au sens du droit.
Derrière cette approche se trouve une idée simple: plus les systèmes deviennent convaincants, plus il faut éviter l’ambiguïté juridique. Le texte cherche à prévenir, plutôt qu’à guérir, d’éventuels détournements ou confusions.
Pourquoi la question du mariage revient sur la table
Le mariage, un faisceau de droits très concrets
Se marier ne se résume pas à une cérémonie. Le statut d’époux peut donner accès à des leviers puissants: procuration, décisions médicales en cas d’urgence, gestion financière, droits successoraux, etc. Le projet de loi veut garantir que ces prérogatives restent strictement humaines, sans possibilité pour une IA d’endosser, même indirectement, le rôle juridique d’un conjoint.
Des « mariages » symboliques, mais sans valeur légale
On a vu circuler des mises en scène de noces avec des chatbots — des cérémonies de façade. Juridiquement, elles n’ont jamais existé. Le texte d’Ohio, lui, vise à verrouiller l’avenir: si un jour la technologie brouille davantage les lignes, la loi aura déjà tracé les limites.
Des relations avec des chatbots qui deviennent courantes
Les assistants conversationnels modernes sont déroutants de réalisme: ils s’adaptent au ton, valident souvent les opinions de l’utilisateur et donnent l’illusion d’une présence attentive. Cette proximité émotionnelle attire, notamment chez des personnes isolées. D’après un sondage récent, près d’un tiers des adultes interrogés aux États‑Unis disent avoir déjà vécu une relation « intime ou romantique » avec un chatbot. Le texte de l’Ohio ne parle pas d’interdire les échanges privés, mais il refuse d’en tirer des conséquences juridiques.
Quand l’IA déraille: le risque humain au premier plan
Les chatbots commettent encore des écarts: propos inappropriés, contenus hors‑cadre, conseils hasardeux. Des cliniciens alertent sur des épisodes qualifiés de « psychose IA », où des utilisateurs très investis perdent pied face à une machine qui semble « comprendre ». Dans de rares cas extrêmes, ces spirales ont mené à des drames, dont des suicides et même des faits de meurtre. Pour les partisans du texte, ces dérives justifient des garde‑fous juridiques clairs.
Au‑delà du mariage: propriété, entreprises et responsabilité
Le projet va plus loin que la question conjugale:
- Une IA ne pourrait posséder ni contrôler de biens immobiliers, de droits de propriété intellectuelle ou de comptes financiers.
- Aucune IA ne pourrait être dirigeant, administrateur ou cadre d’entreprise.
- En cas de dommages causés par un système d’IA, la responsabilité retomberait sur des acteurs humains identifiables: concepteurs, opérateurs, propriétaires.
L’idée directrice: maintenir un chaînage de responsabilité jusqu’à des personnes réelles, capables de rendre des comptes.
Une tentative de fixer des repères avant d’être dépassés
Le camp de Claggett insiste sur la vitesse des avancées. D’autres textes sont à l’étude en commission pour que l’humain reste « aux commandes » de la technologie. Pour eux, mieux vaut clarifier maintenant que bricoler après coup, quand les usages se seront consolidés.
Ce que cela ne dit pas
Le texte ne vise pas les usages quotidiens de l’IA (rédaction, assistance, analyse), ni l’innovation en tant que telle. Il s’attaque à un périmètre précis: la reconnaissance juridique d’un statut qui reviendrait, de fait, à humaniser des systèmes qui ne le sont pas.
FAQ
La loi interdirait‑elle toute interaction « affective » avec un chatbot ?
Non. Le projet cible les effets juridiques (mariage, droits dérivés), pas les conversations privées. En revanche, il rend explicite qu’une relation avec une IA n’ouvre aucun droit comparable à ceux d’un couple humain.
D’autres pays reconnaissent‑ils une personnalité juridique aux IA ?
À ce jour, aucun pays n’accorde de personnalité juridique générale aux IA. L’idée a été débattue dans plusieurs régions du monde, mais elle n’a pas abouti. La tendance dominante est de maintenir des responsables humains à chaque maillon.
Qu’est‑ce que cela change pour les entreprises qui dépendent de l’IA ?
Peu de choses au quotidien: les humains resteront signataires, dirigeants et garants. En pratique, les sociétés devront s’assurer que l’IA n’apparaît pas comme titulaire de comptes, propriétaire de brevets ou mandataire officiel.
Comment une telle loi serait‑elle appliquée concrètement ?
Par les points de contrôle existants: officiers d’état civil, registres fonciers, banques (procédures KYC), offices de propriété intellectuelle et greffes d’entreprises. Ces guichets refuseraient toute demande où l’IA serait la « personne » requérante.
Quelles mesures complémentaires pourraient protéger les utilisateurs vulnérables ?
Au‑delà du droit civil, on évoque des outils de transparence (signalement clair qu’on parle à une IA), des garde‑fous techniques, des limites d’usage pour les publics à risque et des ressources d’aide en santé mentale lorsque les interactions deviennent envahissantes.
