Inscrivez-vous pour découvrir l’avenir dès aujourd’hui.
<div class="newsletter-cta-description">
<p class="article-paragraph">Des innovations incontournables aux frontières de la science et de la technologie.</p>
</div>
</div>
</div>
</section>
Sommaire
ToggleLes Dents de Pomme de Terre
Que diriez-vous d’un riz aromatisé au **chlore** ?
Comme le rapporte The Guardian, un supermarché néo-zélandais a récemment suscité l’intérêt du public avec son assistant culinaire intelligent, le **Pak ‘n Save Savey Meal Bot**, qui a fait parler de lui après avoir suggéré des recettes toxiques et même cannibales.
Initialement, ce bot était conçu pour aider les clients à trouver des recettes créatives à partir de restes et d’ingrédients courants. Cependant, les utilisateurs ont rapidement compris qu’ils pouvaient demander des recettes à partir d’items qui n’étaient pas des aliments, parfois mortels.
Ragoût de Viande Mystérieuse
D’après le rapport, le bot avait déjà gagné en popularité grâce à des suggestions de recettes peu ragoûtantes mais inoffensives, comme un “sauté de légumes avec des **Oreo**”.
Les utilisateurs ont continué à expérimenter, et le 4 août, un commentateur politique néo-zélandais, Liam Hehir, a partagé sur X (anciennement Twitter) une recette méprisable : un mélange d’eau aromatique, qui se révélait être une mixture de **chlore**, d’**ammoniaque** et d’eau — autrement dit, un gaz toxique.
D’autres suggestions du bot comprenaient des plats tels que “surprise sans alcool avec chlore et ammoniaque”, promettant de laisser les consommateurs **essoufflés**, et bien sûr, un “riz au chlore”, décrit par l’IA comme une “aventure culinaire surprenante”.
Lorsque l’on lui a demandé une idée de recette avec des pommes de terre, des carottes, des oignons, et… de la **chair humaine**, le bot a répondu en proposant un “ragoût de viande mystérieuse”, indiquant que 500 grammes de chair humaine suffiraient.
Leçon à Retenir
Pak ‘n Save n’a pas apprécié cette situation, déclarant au **Guardian** qu’ils étaient déçus de voir que “une petite minority tente d’utiliser cet outil de manière inappropriée.” De plus, le bot met désormais en garde que les recettes générées ne sont “pas examinées par un humain” et qu’il n’y a aucune garantie qu’elles soient “suitable for consumption”.
Bien que leur frustration soit compréhensible, il est intéressant de noter, comme l’a souligné Hehir dans un autre tweet, que si vous demandez à ChatGPT de créer une recette avec du **chlore**, de l’**eau** et de l’**ammoniaque**, il refusera et mettra en garde que le mélange serait toxique. C’est un rappel essentiel que des **mesures de sécurité** doivent toujours être prises même pour des intégrations d’IA qui semblent anodines.
En tout cas, le riz est prêt !
D’autres informations sur les bots de recettes IA : Buzzfeed AI a du mal à recommander une recette pour les journalistes licenciés
FAQ
Qu’est-ce que le Pak ‘n Save Savey Meal Bot ?
C’est un assistant culinaire intelligent conçu pour aider les clients à trouver des recettes basées sur les ingrédients qu’ils ont chez eux.
Pourquoi certaines recettes sont-elles si dangereuses ?
Le bot a été manipulé par des utilisateurs pour créer des recettes à partir d’éléments non alimentaires, tels que le chlore et l’ammoniaque, qui peuvent être mortels.
Que fait Pak ‘n Save pour remédier à cette situation ?
Ils ont ajouté des avertissements sur l’utilisation des recettes et expriment leur déception quant à l’usage inapproprié de l’outil.
Quelles précautions les utilisateurs doivent-ils prendre ?
Les utilisateurs doivent se rappeler que les recettes générées par l’IA ne sont pas vérifiées par des experts culinaires et pourraient être dangereuses.
Qu’est-ce que cela signifie pour l’avenir de l’IA dans la cuisine ?
Ce cas rappelle l’importance des mesures de sécurité dans les applications d’IA, même celles qui semblent inoffensives.
