Intelligence Artificielle

Google présente des boucliers de sécurité pour l’IA de Chrome avant son lancement.

Google présente des boucliers de sécurité pour l'IA de Chrome avant son lancement.

Renforcer la sécurité des agents AI de Chrome

Google prend des mesures proactives pour intégrer plusieurs couches de sécurité dans les futurs agents d’intelligence artificielle (AI) de Chrome, avant leur mise à disposition du public. Cette démarche vise à répondre aux inquiétudes liées aux fonctionnements autonomes des navigateurs, qui pourraient potentiellement exposer les utilisateurs à des risques de vol de données et à des fraudes financières.

Une approche sécuritaire novatrice

Récemment, Google a levé le voile sur ses stratégies pour prévenir tout comportement imprévisible des agents AI de Chrome à leur lancement imminent. L’entreprise a élaboré un système de sécurité sophistiqué qui repose sur des modèles d’IA interagissant entre eux de manière à se surveiller mutuellement. Cette précaution est cruciale alors que les navigateurs s’efforcent d’intégrer des agents autonomes capables de réaliser des achats, de réserver des billets ou de naviguer sur le web pour le compte de l’utilisateur.

Les enjeux de cette évolution

Les fonctionnalités de navigation agentique pourraient véritablement transformer notre façon d’interagir avec Internet. Toutefois, elles ouvrent également la porte à de nouvelles vulnérabilités, où une simple commande malveillante pourrait entraîner des dégâts financiers ou le vol d’informations sensibles. Google avait d’abord présenté ces capacités en septembre, mais les détails concernant la sécurité n’avaient pas encore été révélés jusqu’à présent.

A lire :  Fonction d'IA de Microsoft : Captures d'écran de votre numéro de sécurité sociale

Un système de défense atypique

Au cœur de la stratégie de défense de Google se trouve ce que l’entreprise appelle un Critique d’Alignement Utilisateur. Il s’agit d’un système d’IA qui agit comme un juge, en examinant chaque action susceptible d’être exécutée par un autre modèle d’IA. Lorsque le modèle principal envisage de cliquer sur un bouton ou de remplir un formulaire, le critique évalue les métadonnées et pose une question essentielle : cette action correspond-elle réellement aux attentes de l’utilisateur ?

Si le modèle critique estime que la tâche prévue ne répond pas à l’objectif de l’utilisateur, il demande au modèle planificateur de réévaluer sa stratégie. L’un des aspects cruciaux de ce modèle de supervision est qu’il n’accède jamais au contenu réel du web, mais seulement aux actions envisagées, créant ainsi une barrière de protection supplémentaire en matière de vie privée.

Un filet de sécurité étendu

Cependant, les mesures de sécurité mises en place par Google ne se limitent pas à la simple surveillance inter-IA. L’entreprise a conçu un concept novateur appelé les Ensembles d’Origine d’Agent, qui établissent des limites strictes quant aux parties des sites web que les IA peuvent explorer et manipuler. En d’autres termes, cela agit comme un cordon numérique – l’IA peut être autorisée à lire des annonces de produits sur un site d’achat, mais elle ne peut pas toucher à des publicités ou à des pixels de suivi.

Cette approche réduit les risques de fuites de données entre différentes origines, une des principales failles mises en lumière par les chercheurs en sécurité concernant les agents de navigation. En effet, cela offre au navigateur la possibilité d’appliquer certains niveaux de séparation, en veillant à ne pas transmettre à l’IA des données qui ne font pas partie de ce qui peut être lu.

A lire :  Flock aurait utilisé des travailleurs philippins pour entraîner une IA de surveillance américaine

FAQ

Qu’est-ce qu’un agent d’intelligence artificielle dans Chrome ?

Un agent AI dans Chrome est un moteur autonome capable d’effectuer des tâches telles que la navigation, les achats ou la réservation en ligne sans intervention manuelle de l’utilisateur.

Comment Google protège-t-il la vie privée des utilisateurs ?

Google utilise des modèles critiques qui évaluent les actions des agents AI sans accéder au contenu réel des sites web, garantissant ainsi une protection des données personnelles des utilisateurs.

Quels sont les risques associés aux agents autonomes ?

Les agents autonomes peuvent introduire de nouvelles vulnérabilités, telles que le vol de données et les fraudes financières, en cas de défaillance ou d’attaques malveillantes.

Les utilisateurs auront-ils un contrôle sur les actions des agents AI ?

Oui, grâce à des protocoles de consentement stricts, les utilisateurs pourront garder un certain contrôle sur les actions entreprises par les agents AI dans Chrome.

Quand ces agents AI seront-ils disponibles au public ?

Google n’a pas encore annoncé de date précise, mais un lancement est attendu dans les mois à venir.