Intelligence Artificielle

Sora 2 d’OpenAI : La Création de Vidéos Réalistes sur le Vol à l’Étalage.

Sora 2 d'OpenAI : La Création de Vidéos Réalistes sur le Vol à l'Étalage.

Une nouvelle application d’OpenAI

OpenAI a lancé une application pour smartphone en version exclusive sur invitation, visant à rivaliser avec TikTok en offrant un flux infini de contenus générés par intelligence artificielle. Cette initiative soulève des préoccupations, notamment en raison des implications potentielles liées à l’usurpation d’identité.

Sora 2 : le générateur multimédia

Cette application s’accompagne de Sora 2, le dernier générateur d’IA texte-vidéo et audio de la société. OpenAI affirme que Sora 2 est plus précis, réaliste et contrôlable que ses prédécesseurs. Cependant, la première vidéo montrant Sora 2 a été accueillie de manière négative par les internautes, qui l’ont qualifiée d’intrusive et de sans âme.

Les implications inquiétantes de la génération vidéo

Un des développeurs d’OpenAI, Gabriel Petersson, a illustré la facilité de créer des vidéos trompeuses. Il a montré une séquence où le PDG d’OpenAI, Sam Altman, était filmé en train de “voler des cartes graphiques” dans un magasin, ce qui, bien que humoristique, soulève des questions sur la manipulation d’images. Les vidéos générées par intelligence artificielle pourraient facilement piéger une personne, ternissant ainsi sa réputation, et illustrent un futur dystopique où l’on pourrait facilement faire accuser quelqu’un d’un crime qu’il n’a pas commis.

A lire :  Ingénieur licencié affirme avoir supplié Google de tester la conscience de l'IA expérimentale.

Réactions et critiques

Les réactions sur les réseaux sociaux mettent en lumière les conséquences potentielles de telles technologies. Certains utilisateurs ont exprimé leur désapprobation face à l’insensibilité d’utiliser des vidéos de ce type. Un journaliste du Washington Post a ironisé sur l’enthousiasme des employés d’OpenAI à créer des vidéos frauduleuses, soulignant que cela pourrait avoir des répercussions légales significatives.

Les limites de la technologie actuelle

Il est à noter que les applications d’IA, comme la reconnaissance faciale, ont déjà causé des problèmes dans le milieu policier, avec de nombreuses erreurs d’identification. Des cas ont été documentés où des personnes innocentes ont été accusées sur la base de preuves générées par des algorithmes peu fiables. Ces événements incitent à s’interroger sur l’utilisation de Sora 2 et de ses capacités.

OpenAI et la protection de la vie privée

OpenAI affirme que sa fonction “cameo”, permettant d’inclure l’apparence des utilisateurs dans les vidéos, garantit un contrôle total sur l’utilisation de leur image. Cependant, la question de savoir si cela suffit pour protéger les individus contre une exploitation abusive demeure. La société a déclaré prendre des mesures pour protéger les figures publiques et que chaque vidéo et profil pouvait être signalé pour abus.

Conclusion

Il est encore trop tôt pour savoir comment évoluera cette technologie. Toutefois, le fait qu’un responsable d’OpenAI ait démontré la possibilité de créer facilement des vidéos fausses soulève des inquiétudes. L’entreprise a déjà rencontré des difficultés à établir des règles de sécurité efficaces concernant ses modèles de langage, et il reste à voir si Sora changera cette dynamique.

A lire :  Netflix propose 900k $ pour des conseils sur l'utilisation de l'IA tout en conservant les visages des figurants sans rémunération

FAQ

Qu’est-ce que Sora 2 ?

Sora 2 est un générateur d’IA qui transforme le texte en vidéo et en audio, présenté comme une amélioration par rapport aux précédents systèmes d’OpenAI.

Quels sont les risques associés à l’utilisation de Sora 2 ?

Les risques incluent la possibilité de créer des vidéos trompeuses pouvant mener à de fausses accusations et à des atteintes à la réputation des individus.

OpenAI a-t-il des garanties en place pour protéger les utilisateurs ?

L’entreprise affirme que sa fonction “cameo” permet aux utilisateurs de contrôler leur apparence dans les vidéos et de signaler les abus.

Comment les forces de l’ordre utilisent-elles déjà des technologies similaires ?

Des applications de reconnaissance faciale ont été utilisées pour identifier des suspects, mais cela a souvent conduit à des erreurs d’identification.

Quels sont les impacts potentiels sur le système judiciaire ?

L’éventuelle utilisation de vidéos générées par IA comme preuve pourrait perturber les procédures juridiques existantes, rendant la défense plus complexe pour les personnes accusées.