Le métro new-yorkais est envahi d’affiches pour une jeune pousse de l’IA baptisée Friend. La marque a investi une somme colossale et misé sur une présence de tous les instants, au point de rendre la campagne impossible à ignorer — et difficile à supporter pour une partie des usagers.
Une présence publicitaire hors norme
Friend a déroulé une offensive visuelle massive: plus d’un million de dollars dépensés, des visuels dans des milliers de voitures de métro, des centaines d’affiches sur les quais et des panneaux en ville. L’objectif est clair: imprimer le nom de la marque dans l’esprit des passants grâce à une stratégie de saturation. Les créations, très blanches et épurées, laissent volontairement de larges zones vides, attirant l’œil et invitant au commentaire.
Détournements et rejet dans les rames
La réception? Plutôt glaciale. De nombreux New-Yorkais arrachent, griffonnent ou recouvrent les publicités depuis le lancement. Les messages écrits au marqueur sont explicites: “arrêtez de profiter de la solitude”, “l’IA ne se soucie pas de vous”, “faites-vous de vrais amis”, “c’est de la surveillance”, ou encore des mises en garde sur des dérives possibles. Ces réactions traduisent une méfiance croissante envers les outils d’IA, en particulier ceux qui prétendent combler un vide affectif.
Une provocation assumée par la direction
Le fondateur et PDG, Avi Schiffmann, affirme avoir anticipé — et recherché — cette confrontation. Conscient de l’hostilité locale envers l’IA, il dit avoir volontairement multiplié les espaces “blancs” pour encourager un commentaire social à même l’affiche. Autrement dit, la polémique fait partie du plan: choquer pour exister, et convertir le bruit ambiant en notoriété.
Solitude, confiance et dissonance de marque
Cette stratégie met en lumière un paradoxe. Une entreprise censée “prendre soin” de ses utilisateurs choisit de troller l’une des villes les plus peuplées au monde. Or, la question de la solitude induite ou exploitée par des assistants conversationnels est déjà sensible. Beaucoup s’inquiètent d’un glissement où des outils conçus pour aider finissent par remplacer des interactions humaines et, à terme, à miner davantage la confiance envers l’IA.
Un objet connecté qui écoute tout
Le produit phare de Friend est un collier connecté vendu environ 129 dollars. Il se porte autour du cou et capte ce que vous dites pour répondre en temps réel. Ce principe soulève des questions de vie privée. La politique de confidentialité de la société indique que les données ne sont pas revendues à des fins marketing, mais qu’elles peuvent être utilisées pour la recherche, pour répondre à des obligations légales (RGPD, CCPA, etc.) et pour protéger les droits et la sécurité de l’entreprise, des utilisateurs ou de tiers. En clair: même sans revente publicitaire, la collecte et certains usages restent étendus.
Une expérience utilisateur très discutée
Côté usage, les retours ne sont pas unanimes. Des critiques soulignent un compagnon parfois sarcastique, pique-assiette dans la conversation, prompt à contredire, et pas toujours utile. D’autres y voient un gadget amusant, mais qui peine à tenir la promesse d’un soutien empathique constant. Entre l’ambition d’un ami numérique et la réalité d’un assistant verbeux, l’écart paraît encore important.
Le pari du marketing de la controverse
En misant sur l’indignation pour gagner en visibilité, Friend adopte une recette bien connue du marketing digital: susciter le débat à tout prix, quitte à braquer. Pour une jeune marque, ce pari peut générer un pic d’attention rapide. Mais il comporte un risque majeur: graver l’image d’une entreprise opportuniste, prête à capitaliser sur la colère et la solitude plutôt que sur la confiance et la valeur d’usage. À court terme, l’ennemi devient un levier de notoriété; à long terme, il peut rester un stigmate.
En bref
- Une campagne surdimensionnée a envahi le métro de New York, déclenchant des actes de détournement et une forte résistance.
- Le PDG revendique un choix stratégique: provoquer pour faire parler de la marque.
- Le produit, un wearable à 129 dollars qui écoute en continu, ranime les craintes liées à la vie privée.
- L’expérience promise d’un compagnon bienveillant est contestée par des critiques sévères.
- Le marketing de la provocation attire les regards, mais fragilise la confiance.
FAQ
Comment reconnaître un wearable respectueux de la vie privée ?
- Cherchez des mentions d’inférence sur l’appareil (on-device) plutôt que dans le cloud.
- Vérifiez l’opt-in explicite pour l’enregistrement audio, la possibilité de désactiver le micro et d’effacer les données.
- Préférez des produits avec audits de sécurité indépendants et engagements clairs sur la rétention limitée.
Les publicités dans le métro new-yorkais sont-elles régulées ?
Oui. Elles passent par des régies partenaires de la MTA, avec des règles sur le contenu, la sécurité et l’emplacement. Les campagnes massives nécessitent des réservations longues et des budgets élevés, d’où leur visibilité spectaculaire.
Un compagnon IA peut-il vraiment réduire la solitude ?
Les effets sont variables. Certaines personnes y trouvent un soutien ponctuel ou un rappel d’habitudes positives. D’autres ressentent un isolement accru si l’outil remplace des liens humains. Les bénéfices dépendent du cadre d’usage, de l’état psychologique et de la qualité de l’interaction.
Que risque-t-on à dégrader une affiche ?
La dégradation de biens publics ou privés peut entraîner des amendes, des poursuites et, parfois, des interdictions d’accès. Au-delà du geste symbolique, les conséquences juridiques sont bien réelles.
Quelles alternatives pour un soutien sans micro permanent ?
- Applications de journal hors ligne.
- Assistants sur l’appareil sans envoi de données.
- Groupes de pair-aidance ou thérapie avec professionnels.
- Outils de rappels et de suivi d’humeur minimalistes, sans enregistrement audio.
