Une Application Douteuse
Un nouvel outil, Calmara, a été lancé par l’entreprise HeHealth, promettant aux utilisateurs un moyen simple et rapide de vérifier la présence d’IST (infections sexuellement transmissibles). Le fonctionnement semblait étonnamment direct : il suffisait d’envoyer une photo de son pénis, et grâce aux avancées de l’intelligence artificielle et de la science, un diagnostic serait proposé immédiatement.
Cependant, cette application a rapidement été considérée comme suspecte. Après une enquête menée par la Federal Trade Commission (FTC), il a été révélé que les résultats prétendument « scientifiques » fournis par Calmara sur la santé sexuelle des utilisateurs étaient très trompeurs. La FTC a rapporté que ces affirmations “claires et fondées sur la science” étaient tout sauf cela.
Un source anonyme a déclaré à The Verge que la FTC tenait à protéger les consommateurs, révélant même qu’elle était prête à naviguer à travers une multitude de photos compromettantes pour débusquer les escroqueries liées à l’IA.
Les Tromperies de Calmara
L’une des pratiques les plus audacieuses de HeHealth qui a attiré l’attention de la loi était la précision annoncée de Calmara, qui prétendait atteindre un taux de réussite de 94,4 % pour détecter plus de dix infections sexuellement transmissibles, telles que la syphilis, l’herpès et le HPV. Toutefois, une lettre récemment publiée par la FTC a révélé des incohérences dans ces déclarations.
Le prétendu soutien scientifique reposait sur une étude publiée dans un journal médical prestigieux. Toutefois, des investigations ont montré que les auteurs de l’étude étaient majoritairement liés à HeHealth, parmi eux quatre sur cinq travaillant directement pour l’entreprise ou étant consultants rémunérés.
En outre, l’analyse n’avait été réalisée que sur un échantillon restreint, et l’IA n’avait été entraînée que sur quatre coûteuses infections, contrairement aux dix revendiquées par l’application. Les auteurs n’avaient pas non plus utilisé d’images provenant d’individus ayant reçu un diagnostic formel.
Conclusion de l’Affaire
Le mois dernier, face à un avis de la FTC et à des résultats peu concl Neyants, HeHealth a décidé de mettre fin à Calmara d’ici le 15 juillet et a annoncé qu’elle effacerait toutes les données collectées, y compris les photos envoyées par les utilisateurs.
La fermeture de l’application était attendue, car ses défaillances avaient déjà été largement critiquées avant l’intervention de la FTC. Les éloges initialement accordés à Calmara ont rapidement été supplantés par des rapports chargés d’accusations. Parmi ceux-ci, une enquête du Los Angeles Times a révélé que l’application était incapable de différencier de manière fiable les pénis réels des objets phalliques, allant jusqu’à confondre une photo d’un gâteau en forme de pénis avec des images cliniques.
Face à un tel historique douteux, le marketing de l’application, la présentant comme “votre meilleur ami intime pour des rapports non protégés”, retient également l’attention. HeHealth a même tenté de proposer l’application comme un moyen pour les femmes de vérifier leurs partenaires, une idée problématique sur le plan du consentement.
Il est évident que l’une des raisons pour lesquelles HeHealth a pu poursuivre ses activités si longtemps est le flou qui entoure les capacités de l’intelligence artificielle utilisée, révélant ainsi que nous sommes dans une ère où l’escroquerie liée à l’IA est courante.
FAQ
Quels étaient les problèmes majeurs de l’application Calmara ?
L’application était incapable de fournir un diagnostic fiable, confondant souvent des objets non humains avec de véritables organes, et reposait sur des études biaisées.
HeHealth a-t-elle pris des mesures après la fermeture de Calmara ?
Oui, HeHealth a annoncé qu’elle supprimerait toutes les données clients collectées via l’application, y compris les images.
Quelle a été la réaction de la communauté scientifique face à Calmara ?
De nombreux experts ont critiqué l’application pour son utilisation abusive de la science et des déclarations sans fondement, soulignant la nécessité d’une réglementation stricte dans le secteur de la technologie de la santé.
L’IA peut-elle réellement être utilisée pour diagnostiquer des IST ?
Actuellement, les techniques d’IA pour le diagnostic médical en sont encore à leurs débuts et doivent être utilisées avec prudence et rigueur, et non sur des bases spéculatives.
Que peut-on apprendre de l’affaire Calmara ?
Cette affaire souligne l’importance de la transparence et de l’éthique dans les applications de santé et met en lumière les risques potentiels liés à l’utilisation de l’IA sans vérifications adéquates.
