Inscription à la newsletter : Explorez l’avenir dès aujourd’hui
Découvrez les innovations incontournables
Ne manquez pas les avancées à la pointe de la science et de la technologie qui pourraient transformer notre quotidien. En vous inscrivant, vous restez informé des dernières tendances et innovations.
Une inquiétante révélation a été faite concernant l’assistant vocal de Apple, Siri. Selon un article du Guardian, les employés d’Apple, des sous-traitants, écoutent parfois des enregistrements d’interactions qui ne sont pas censées être accessibles. Cela signifie qu’il est possible qu’un humain soit en ce moment même en train d’entendre une conversation privée, qu’il s’agisse d’un moment intime ou d’une discussion sérieuse avec un professionnel de santé.
Les détails d’une situation troublante
Le rapport indique qu’Apple permet à des sous-traitants d’écouter des enregistrements de commandes Siri. L’entreprise défend ce processus en affirmant que cela sert à améliorer les performances de l’assistant. Selon Apple, moins de 1 % des activations sont examinées, et ces enregistrements sont dépouillés d’informations personnelles.
Le processus d’évaluation des activations
Lors de ces évaluations, les sous-traitants notent comment Siri a réagi face aux demandes. Cependant, le problème réside dans la transparence du processus. Apple n’informe pas clairement les utilisateurs que des humains pourraient écouter leurs interactions. De plus, l’exemple de confiance et de respect de la vie privée semble faire défaut. Un lanceur d’alerte a exprimé des préoccupations sur le manque de rigueur dans le choix des sous-traitants, soulignant que certains pourraient avoir des intentions malveillantes.
Un accès troublant à des enregistrements privés
Le lanceur d’alerte a également révélé que les auditeurs entendent souvent des conversations sensibles, telles que des échanges entre médecins et patients ou même des situations plus délicates. Ces enregistrements peuvent être bien plus longs que les quelques secondes annoncées, s’étendant même jusqu’à 30 secondes. Un tel accès à des informations privées soulève des questions essentielles sur l’éthique et la protection des utilisateurs.
La réalité des assistants numériques
Il est important de noter qu’Apple n’est pas la seule entreprise à s’engager dans de telles pratiques. D’autres géants comme Amazon et Google opèrent également de cette manière. À l’heure actuelle, les assistants numériques semblent voués à devenir de plus en plus présents dans notre vie quotidienne, ce qui laisse penser que les entreprises continueront à chercher à perfectionner leurs technologies.
Si ces entreprises sont décidées à autoriser l’écoute humaine des enregistrements, il est essentiel qu’elles se concentrent sur une priorité préalable : former les assistants à n’écouter que lorsqu’ils sont sollicités.
FAQ
H4: Qui écoute vraiment mes commandes Siri ?
Des sous-traitants d’Apple peuvent entendre certains enregistrements d’interactions avec Siri pour évaluer le service.
H4: Quels types de conversations sont écoutés ?
Les auditeurs peuvent écouter des discussions privées, y compris des échanges médicaux, des affaires et d’autres conversations sensibles.
H4: Que fait Apple pour protéger mes données ?
Apple déclare que moins de 1 % des activations de Siri sont examinées et que les enregistrements sont anonymisés avant d’être écoutés.
H4: Comment puis-je protéger ma vie privée en utilisant Siri ?
Vous pouvez limiter l’utilisation de Siri et consulter les paramètres de confidentialité sur votre appareil pour en savoir plus sur la gestion de vos données.
H4: Est-ce que d’autres entreprises font la même chose ?
Oui, des entreprises comme Amazon et Google ont également été signalées pour écouter des enregistrements de leurs assistants numériques.
