Intelligence Artificielle

Google Alerte Ses Employés sur l’Usage de l’IA Tout en Promouvant Ses Propres Technologies d’IA

Google Alerte Ses Employés sur l'Usage de l'IA Tout en Promouvant Ses Propres Technologies d'IA

Une double moralité

La société mère de Google, Alphabet, met en garde ses collaborateurs sur l’utilisation de l’intelligence artificielle, y compris son propre chatbot développé en interne, Bard. C’est le constat effectué par un rapport de Reuters.

Cet avertissement est d’autant plus surprenant que la firme a investi massivement dans cette technologie. Alphabet semble particulièrement préoccupé par le partage de données confidentielles par ses employés avec les chatbots. Bien que cette inquiétude soit justifiée, il est paradoxal qu’elle alerte son personnel sur une technologie qu’elle promeut activement auprès de ses clients.

Protéger ses secrets

Face à cette problématique, des entreprises du monde entier cherchent des solutions pour empêcher leurs employés de divulguer des informations sensibles à des outils d’IA.

Plus tôt cette année, Amazon a mis en garde son personnel contre les fuites d’informations à destination de ChatGPT, développé par OpenAI. En avril, des employés de Samsung ont également rencontré des problèmes pour avoir partagé des données d’entreprise avec ce même chatbot. De son côté, Apple a restreint l’utilisation de ChatGPT et d’autres outils d’IA, craignant que des informations confidentielles ne soient divulguées.

A lire :  Google Réduit Radicalement le Prix de Ses Résultats en IA Après un Lancement Désastreux.

Malgré ces alertes, il semble que les employés continuent à utiliser ces outils. Un sondage a révélé qu’en février, près de la moitié des professionnels recouraient à des technologies d’IA comme ChatGPT sans en informer leurs supérieurs.

De plus, Google profite de l’occasion pour proposer à des entreprises des outils de chatbots coûteux, qu’elle assure exempts de fuites de données vers des modèles d’IA accessibles au public, comme le mentionne Reuters.

Cependant, la société fait face à des défis non négligeables. Elle rencontre des difficultés dans le déploiement international de son chatbot Bard et a dû retarder son lancement au Union Européenne en raison de préoccupations concernant la protection des données, rapporte Politico.

Alors que le monde est en pleine évolution à cause de l’IA, il est essentiel d’observer les actions des entreprises, et non seulement leurs discours.

À lire aussi sur Bard : Google a averti ses employés que son IA présentait des tendances de “menteur pathologique”, malgré son lancement.

FAQ

Quelles sont les principales préoccupations d’Alphabet concernant l’utilisation de l’IA ?

Alphabet s’inquiète principalement des fuites potentielles de données sensibles par ses employés vers des chatbots comme Bard et ChatGPT.

Comment les entreprises ajustent-elles leur politique face à l’IA ?

De nombreuses entreprises durcissent leur politique d’utilisation des chatbots, recommandant à leurs employés de ne pas partager d’informations sensibles.

Quelles conséquences peuvent résulter d’une fuite d’informations à travers les chatbots ?

Les fuites peuvent entraîner des conséquences financières, juridiques, et nuire à la réputation de l’entreprise.

Pourquoi Google a-t-il retardé le lancement de Bard en Europe ?

Le lancement a été reporté en raison de préoccupations soulevées par les régulateurs au sujet de la protection des données des utilisateurs.

A lire :  Documents fuités : l’inquiétude des employés de xAI face aux demandes d’Elon Musk.

Quelle est la réaction des employés face aux avertissements sur l’IA ?

Malgré les mises en garde, un nombre significatif d’employés continue d’utiliser des outils d’IA sans en informer leur hiérarchie.