Intelligence Artificielle

Intelligence Artificielle de Google : Recommandations Inappropriées pour les Enfants.

Intelligence Artificielle de Google : Recommandations Inappropriées pour les Enfants.
</div>

<p>
    <figcaption class="article-featured-image-caption">
        <em>Image : Hitachi / Futurism</em>
    </figcaption>
</p>

Une Recommandation Inappropriée de l’IA de Google

Récemment, un outil de recherche alimenté par l’intelligence artificielle de Google a fait scandale après avoir suggéré aux parents d’utiliser un vibromasseur populaire pour des raisons de thérapie comportementale. Ce nouvel incident s’ajoute à une série de recommandations étranges et parfois dangereuses émises par cet outil controversé.

Une Découverte Alarmante sur Reddit

Comme l’a rapporté pour la première fois 404 Media, ce conseil troublant est survenu dans le cadre de ce qu’on appelle l’“Aperçu AI” de Google. Un utilisateur de Reddit a découvert cette recommandation après avoir recherché les termes “vibromasseur magique grossesse“. En réponse à cette requête, l’IA de Google a fourni un résumé incohérent, suggérant d’utiliser le vibromasseur Magic Wand de Hitachi pour identifier des changements comportementaux chez les enfants.

Une Explication Inappropriée

Le résumé fourni par l’IA proposait que “l’outil Magic Wand est une façon créative pour les parents d’identifier les changements comportementaux qu’ils souhaitent encourager, y compris ceux liés à la grossesse”. Cette affirmation a été accompagnée d’une mention selon laquelle “les parents pourraient décrire les défis de la parentalité en brandissant une baguette magique”.

La Source de la Confusion

Cette confusion semble provenir d’un document publié par le département de la Santé et des Services humains du New Hampshire. Ce dernier faisait référence à une technique mystérieuse appelée “Magic Wand” à utiliser en thérapie sans aucune connotation sexuelle. L’objectif de cette méthode était d’aider les parents à envisager des changements dans leur vie et celle de leurs enfants en imaginant disposer d’un outil magique.

La Fusion Inappropriée des Informations

L’IA de Google a donc lié les termes de ce document, comme “bâton magique” et “grossesse,” aux vastes informations disponibles en ligne concernant le vibromasseur de Hitachi, ce qui a entraîné une conclusion totalement absurde : inciter les parents à utiliser un jouet sexuel sur les enfants.

La Réaction de Google

Google n’a pas répondu aux questions de 404 Media, mais après cette controverse, il semble que l’entreprise ait pris des mesures pour corriger cette recommandation inacceptable. Lors de notre propre recherche, nous avons vu un message indiquant que l’Aperçu AI n’était pas disponible pour cette requête.

Une Question Persistante

Cet incident soulève la question suivante : pourquoi Google a-t-il lancé un produit aussi dysfonctionnel ? Recommander aux adultes d’utiliser des jouets sexuels sur des enfants est un des scénarios que toute entreprise technologique tenterait d’éviter à tout prix. Cela amène à se demander à quel point cette IA peut produire d’autres suggestions tout aussi inappropriées.

Pression de l’Industrie

La réponse à cette question pourrait être liée à la pression industrielle. Google se trouve dans une course avec des concurrents comme OpenAI et Microsoft, qui ont également intégré l’IA dans leurs produits de recherche. Avec le marché de la recherche axé sur l’IA, il est improbable que ce type de fonctionnalité disparaisse rapidement, même si elle peut produire des résultats trompeurs dans un monde numérique déjà sensible.

FAQ

Quelle est la principale utilité de l’outil “Magic Wand” en thérapie ?

L’outil vise à aider les parents à imaginer les changements qu’ils pourraient opérer dans leur vie familiale, sans aucune référence à des jouets sexuels, en les incitant à sortir de leur réalité quotidienne.

Quelles sont les implications éthiques d’une telle recommandation de l’IA ?

La suggestion de l’IA soulève des préoccupations éthiques majeures, notamment en ce qui concerne la sécurité des enfants et la responsabilité des entreprises technologiques dans le développement de leurs systèmes.

Comment Google pourrait-il prévenir de futurs incidents ?

Google devrait améliorer la formation de son IA, en veillant à mieux filtrer et évaluer les suggestions avant leur publication, afin de garantir une information appropriée et sécurisée.

Quel impact publicitaire cela a-t-il sur Google ?

Des incidents comme celui-ci peuvent nuire à la réputation de Google et à sa crédibilité, incitant les utilisateurs à se méfier de ses recommandations et à rechercher des alternatives.

L’intelligence artificielle peut-elle développer des biais ?

Oui, l’IA peut apprendre et perpétuer des biais existants dans les données sur lesquelles elle est formée, ce qui peut entraîner des résultats problématiques ou inappropriés, comme celui discuté ici.