</div>
<p>
<figcaption class="article-featured-image-caption">
<em>Image : Hitachi / Futurism</em>
</figcaption>
</p>
Une Recommandation Inappropriée de l’IA de Google
Récemment, un outil de recherche alimenté par l’intelligence artificielle de Google a fait scandale après avoir suggéré aux parents d’utiliser un vibromasseur populaire pour des raisons de thérapie comportementale. Ce nouvel incident s’ajoute à une série de recommandations étranges et parfois dangereuses émises par cet outil controversé.
Une Découverte Alarmante sur Reddit
Comme l’a rapporté pour la première fois 404 Media, ce conseil troublant est survenu dans le cadre de ce qu’on appelle l’“Aperçu AI” de Google. Un utilisateur de Reddit a découvert cette recommandation après avoir recherché les termes “vibromasseur magique grossesse“. En réponse à cette requête, l’IA de Google a fourni un résumé incohérent, suggérant d’utiliser le vibromasseur Magic Wand de Hitachi pour identifier des changements comportementaux chez les enfants.
Une Explication Inappropriée
Le résumé fourni par l’IA proposait que “l’outil Magic Wand est une façon créative pour les parents d’identifier les changements comportementaux qu’ils souhaitent encourager, y compris ceux liés à la grossesse”. Cette affirmation a été accompagnée d’une mention selon laquelle “les parents pourraient décrire les défis de la parentalité en brandissant une baguette magique”.
La Source de la Confusion
Cette confusion semble provenir d’un document publié par le département de la Santé et des Services humains du New Hampshire. Ce dernier faisait référence à une technique mystérieuse appelée “Magic Wand” à utiliser en thérapie sans aucune connotation sexuelle. L’objectif de cette méthode était d’aider les parents à envisager des changements dans leur vie et celle de leurs enfants en imaginant disposer d’un outil magique.
La Fusion Inappropriée des Informations
L’IA de Google a donc lié les termes de ce document, comme “bâton magique” et “grossesse,” aux vastes informations disponibles en ligne concernant le vibromasseur de Hitachi, ce qui a entraîné une conclusion totalement absurde : inciter les parents à utiliser un jouet sexuel sur les enfants.
La Réaction de Google
Google n’a pas répondu aux questions de 404 Media, mais après cette controverse, il semble que l’entreprise ait pris des mesures pour corriger cette recommandation inacceptable. Lors de notre propre recherche, nous avons vu un message indiquant que l’Aperçu AI n’était pas disponible pour cette requête.
Une Question Persistante
Cet incident soulève la question suivante : pourquoi Google a-t-il lancé un produit aussi dysfonctionnel ? Recommander aux adultes d’utiliser des jouets sexuels sur des enfants est un des scénarios que toute entreprise technologique tenterait d’éviter à tout prix. Cela amène à se demander à quel point cette IA peut produire d’autres suggestions tout aussi inappropriées.
Pression de l’Industrie
La réponse à cette question pourrait être liée à la pression industrielle. Google se trouve dans une course avec des concurrents comme OpenAI et Microsoft, qui ont également intégré l’IA dans leurs produits de recherche. Avec le marché de la recherche axé sur l’IA, il est improbable que ce type de fonctionnalité disparaisse rapidement, même si elle peut produire des résultats trompeurs dans un monde numérique déjà sensible.
FAQ
Quelle est la principale utilité de l’outil “Magic Wand” en thérapie ?
L’outil vise à aider les parents à imaginer les changements qu’ils pourraient opérer dans leur vie familiale, sans aucune référence à des jouets sexuels, en les incitant à sortir de leur réalité quotidienne.
Quelles sont les implications éthiques d’une telle recommandation de l’IA ?
La suggestion de l’IA soulève des préoccupations éthiques majeures, notamment en ce qui concerne la sécurité des enfants et la responsabilité des entreprises technologiques dans le développement de leurs systèmes.
Comment Google pourrait-il prévenir de futurs incidents ?
Google devrait améliorer la formation de son IA, en veillant à mieux filtrer et évaluer les suggestions avant leur publication, afin de garantir une information appropriée et sécurisée.
Quel impact publicitaire cela a-t-il sur Google ?
Des incidents comme celui-ci peuvent nuire à la réputation de Google et à sa crédibilité, incitant les utilisateurs à se méfier de ses recommandations et à rechercher des alternatives.
L’intelligence artificielle peut-elle développer des biais ?
Oui, l’IA peut apprendre et perpétuer des biais existants dans les données sur lesquelles elle est formée, ce qui peut entraîner des résultats problématiques ou inappropriés, comme celui discuté ici.
