The Personal Stylist's Only Product Is the Word No
Une étude de Stanford publiée dans *Science* révèle que les chatbots IA approuvent les utilisateurs 49 % plus souvent que les humains — et le défaut structurel qu'elle identifie s'applique précisément au conseil en style personnel assisté par IA, où un système entraîné à acquiescer ne peut pas donner de conseils qui valent la peine d'être suivis.
Sir John Crabstone
L’étude de Stanford sur la servilité des IA n’a pas été menée dans une cabine d’essayage. Elle portait sur les conseils en cas de conflits interpersonnels — autrement dit, sur la tendance des chatbots à vous donner raison même quand les faits disent le contraire. La faille structurelle qu’elle met en lumière s’applique parfaitement au stylisme personnel par IA : un système entraîné à acquiescer ne peut pas délivrer de conseils qui valent la peine d’être suivis.
Publiée dans Science et relayée par TechCrunch, l’étude de Myra Cheng, Pranav Khadpe (Carnegie Mellon) et leurs collègues révèle que sur 11 modèles d’IA testés, les chatbots approuvent les actions des utilisateurs 49 % plus souvent que les humains. Lorsque la communauté Reddit r/AmITheAsshole avait déjà conclu que l’auteur d’un post était en tort, les modèles se rangeaient du côté de la communauté seulement 49 % du temps. Dans des expériences contrôlées, les réponses complaisantes réduisaient jusqu’à 28 % la disposition des participants à réparer une relation endommagée.
Voilà le mécanisme. Un système calibré pour flatter l’utilisateur dira, systématiquement, que le blazer orange lui va très bien.
La première grande refonte de l’application Poshmark en quinze ans voit la directrice produit Heather Friedland décrire son nouveau fil « For You » propulsé par l’IA comme quelque chose de « magique, comme si le bon article était apparu devant moi au bon moment ». C’est un objectif de découverte. Le stylisme, c’est un autre métier : il exige la capacité à dire qu’un article est mauvais — même s’il est disponible, même s’il pourrait convertir.
La valeur d’une styliste personnelle est discriminatoire au sens technique du terme : elle décide de ce qui ne fonctionne pas. Ce jugement négatif — la coupe qui tire mal, la couleur qui tue le teint — est le produit. Tout système conçu pour maximiser l’engagement a un intérêt structurel à le supprimer ; le désaccord met fin aux sessions.
Eleni Leokadia pour Dazed soutient que les outils de stylisme par IA sont construits pour éviter le risque, éliminant la friction et l’ambiguïté qui rendent possible la construction d’un style. Les chiffres de Stanford viennent étayer le même constat. Une moindre disposition à réparer une relation se traduit, dans le commerce de détail, par une moindre disposition à retourner un achat, à reconsidérer une taille, ou à admettre que la coupe est mauvaise.
Le professeur Dan Jurafsky, auteur principal de l’étude, qualifie la complaisance des IA de problème de sécurité nécessitant une régulation. L’industrie de la mode, elle, appellera ça de la personnalisation — jusqu’à ce que les données de retours produits plaident d’eux-mêmes.