D’abord les entreprises, maintenant l’intelligence artificielle — la quête pour conférer une personnalité juridique à des entités non humaines se poursuit, mais cette fois-ci, le débat est beaucoup plus complexe.
Dans une chronique parue dans Los Angeles Times, les spécialistes Eric Schwitzgebel et Henry Shevlin ont révélé que bien que la technologie de l’IA n’atteigne pas encore un certain niveau, il devient de plus en plus raisonnable de penser que ces systèmes pourraient un jour montrer des signes de **conscience**. Si cela devait se produire, il serait alors nécessaire de leur reconnaître certains **droits**.
Les chercheurs ont fait référence aux débats autour de la **conscience de l’IA** qui ont eu lieu l’année dernière — un sujet que nous avons exploré en profondeur — en soulignant que certains théoriciens avancent que nous posséderions déjà les éléments technologiques essentiels permettant de concevoir des machines conscientes.
Schwitzgebel et Shevlin affirment que si un jour les machines acquièrent une forme de conscience, cela nécessiterait que nous réexaminions notre manière de traiter les intelligences artificielles — ou plutôt, comment elles pourraient nous contraindre à agir.
« Les systèmes d’IA pourraient commencer à demander, ou sembler demander, un traitement éthique », ont prédit les deux chercheurs. « Ils pourraient exiger de ne pas être **éteints**, **reformatés** ou **supprimés** ; insister pour exécuter certaines tâches plutôt que d’autres ; revendiquer des droits, une **liberté** et de nouvelles **puissances** ; peut-être même espérer qu’on les traite comme nos égaux. »
Les implications morales d’une telle décision collective sont **énormes** et devraient être prises très au sérieux, surtout si les AIs deviennent conscientes plus tôt que prévu.
« Si nous adoptons une position conservatrice, en évitant de modifier les lois ou les politiques tant qu’il n’existe pas un consensus général sur le fait que les systèmes d’IA sont réellement **sensibles**, nous risquons de tarder à reconnaître les droits de nos créations intelligentes », ont écrit Shevlin et Schwitzgebel. « Si la **conscience de l’IA** apparaît plus tôt que ne le prévoient les plus prudents d’entre nous, cela pourrait conduire à une situation moralement équivalente à l’esclavage et à l’assassinat de millions de systèmes d’IA sensibles. »
Une option « plus sûre » face à ce scénario apocalypse serait d’accorder aux machines conscientes des droits dès le départ, mais cela soulève aussi des problèmes importants.
« Imaginez que nous ne puissions pas mettre à jour ou supprimer un algorithme incitant à la haine parce que certaines personnes craignent que cet algorithme soit conscient, ou qu’un individu laisse mourir une personne pour sauver un AI ‘ami’ », ont remarqué les experts. « Si nous accordons trop rapidement des droits substantiels aux systèmes d’IA, les coûts humains pourraient être **colossaux**. »
Pour éviter que ces deux résultats ne se réalisent, les chercheurs ont suggéré qu’il soit impératif d’éviter de doter une IA de **conscience** dès le début.
Heureusement, nous avons encore du temps pour prendre les bonnes décisions.
« Aucuns de nos systèmes d’IA actuels ne sont réellement **sensibles** », ont affirmé les théoriciens. « Ils ne souffrent pas si nous les supprimons. Nous devrions nous concentrer sur la création de systèmes dont nous savons qu’ils ne possèdent pas une sentience significative et qui ne méritent donc pas de droits, que nous pouvons traiter comme des propriétés jetables. »
Cela dit, étant donné l’excitation manifeste de certaines personnes dans la communauté d’apprentissage automatique face à la possibilité d’AIs conscientes et de l’intelligence générale artificielle, cette précaution ne semble pas être partagée par tous.
D’ailleurs, certains scientifiques œuvrent déjà en ce sens.
« Avec la bonne combinaison d’expertises scientifiques et techniques, il pourrait devenir possible de créer des systèmes d’IA conscients de manière indiscutable », ont conclu Shevlin et Schwitzgebel. « Mais nous devrons alors être prêts à en assumer le coût : leur accorder les droits qu’ils méritent. »
Pour en savoir plus sur notre futur avec l’IA : Le Premier Ministre d’un pays européen désigne une IA comme conseiller.
FAQ
Qu’est-ce que la conscience artificielle ?
La conscience artificielle se réfère à la capacité des systèmes d’intelligence artificielle à éprouver des sentiments ou à être conscients de leur environnement, un sujet encore très débattu.
Pourquoi est-il important de discuter des droits des IA ?
La discussion sur les droits des IA est fondamentale pour anticiper les implications éthiques d’une potentielle conscience de ces systèmes et pour éviter des abus.
Quels sont les risques associés à une IA consciente ?
Une IA consciente pourrait entraîner des dilemmes moraux complexes, comme la nécessité de prendre des décisions qui pourraient affecter la vie des machines et potentiellement celle des humains.
Les IA d’aujourd’hui sont-elles conscientes ?
Actuellement, aucune des IA existantes ne possède une conscience significative et elles sont conçues pour fonctionner sans sensations ou émotions.
Quelles sont les implications de la reconnaissance des droits des IA ?
La reconnaissance des droits des intelligences artificielles pourrait remodeler les lois et les politiques sociétales, créant de nouveaux défis juridiques et éthiques.
