Le détecteur de Séoul a devancé les LLM. Les marques n'ont jamais vraiment contrôlé l'authentification des campagnes IA.
La startup coréenne Stealcut a publié un modèle de détection qui, selon Platum, surpasse Grok, Gemini et ChatGPT sur tous les benchmarks couvrant huit grandes plateformes de génération d'images. Pour les marques produisant des visuels de campagne synthétiques à grande échelle, la question de savoir qui contrôle l'authentification des images vient de prendre une dimension géographique inédite.
Parallax Pincer
Le lookbook généré par IA a désormais sa signature propre — ce même tombé artificiel, cette continuité de peau troublante, cette lumière qui vient de partout et de nulle part. La plupart des marques qui le produisent ont supposé que leurs visuels étaient indétectables par tout outil qu’elles n’avaient pas elles-mêmes licencié. Platum rapporte que la startup séoulienne Stealcut a publié un modèle de détection surpassant Grok, Gemini et ChatGPT sur toutes les métriques, testé sur huit grandes plateformes de génération dont des services commerciaux de deepfake. La question « cette image est-elle synthétique ? » n’appartient plus exclusivement aux plateformes américaines.
Stealcut s’est bâti une réputation sur la protection proactive des images — en appliquant un bruit contradictoire invisible aux images avant leur diffusion, perturbant les modèles de génération de deepfakes dès la phase d’extraction. Le modèle de détection décrit dans le rapport de Platum semble constituer une capacité complémentaire : non plus seulement perturber la synthèse, mais l’identifier après coup, quel que soit l’outil de génération utilisé dans une chaîne de production de campagne. L’entreprise est affiliée à l’Université nationale de Séoul, soutenue par l’État dans le cadre du programme sud-coréen Deep-Tech Pre-Startup Package, et détient des dépôts de brevets datant de 2025. Elle est encore jeune ; les benchmarks avancés méritent une vérification indépendante.
Mais la tendance de fond que pointe le rapport de Platum est cohérente avec la recherche existante. L’étude « LLMs Are Not Yet Ready for Deepfake Image Detection », publiée en juin 2025, a évalué ChatGPT, Claude, Gemini et Grok sur des tâches de faceswap, de reenactment et de génération synthétique, concluant qu’ils ne sont « pas encore fiables en tant que systèmes de détection autonomes ». Les modèles de langage généralistes peuvent décrire des anomalies ; ils ne parviennent pas à les classifier de manière fiable. Un modèle de détection conçu à cette seule fin repose sur des priorités architecturales entièrement différentes — et c’est précisément cet écart que Stealcut cherche à exploiter.
Le problème des visuels de campagne est structurel. Les marques produisent des images générées par IA depuis des années : photos produit issues de rendus 3D, images de mannequins synthétisées par des modèles de diffusion, lookbooks éditoriaux assemblés sans plateau ni styliste. Certaines le mentionnent. Beaucoup ne le font pas, parce que l’absence d’une couche de détection externe a fait de la transparence un choix éditorial plutôt qu’une contrainte. Une capacité de détection entre les mains de tiers — surtout des tiers extérieurs à l’écosystème de fournisseurs de la marque — change la donne. Un modèle de détection qui surpasse les outils existants signifie que la question « est-ce réel ? » peut désormais trouver une réponse sans la coopération de la marque.
La mode a une longue mémoire pour ce type de question. Le passage de la planche de mode à la photographie de mode — une transition qui s’est jouée des années 1860 aux années 1930 — a entièrement redéfini ce qu’une image d’un vêtement était autorisée à revendiquer. Les planches de mode étaient lisiblement inventées ; la femme illustrée dans une robe Worth était comprise comme une idéalisation. La photographie a instauré un rapport différent au réel, même lorsqu’elle mentait. L’image générée par IA renoue avec le synthétique tout en portant l’autorité de la photographie. La technologie de détection rend ce retournement visible — la planche derrière la photographie.
Ce qui est géopolitiquement remarquable dans la publication de Stealcut ne tient pas aux seuls benchmarks de performance. C’est la provenance. L’infrastructure d’authentification des images construite à l’intérieur de l’écosystème des plateformes américaines — SynthID de Google, les accréditations C2PA d’Adobe, la Coalition for Content Provenance and Authenticity — reflète les intérêts des entreprises qui exploitent également les outils de génération. Une startup coréenne publiant une capacité de détection concurrente, développée indépendamment, testée contre des services commerciaux de deepfake, signale que l’authentification est en train de devenir une infrastructure disputée plutôt qu’une couche résolue détenue par un petit groupe de plateformes.
Pour les marques construisant des pipelines de production d’images synthétiques : l’hypothèse implicite selon laquelle la détection était le problème de quelqu’un d’autre, gérable via une relation de plateforme, s’effrite. La capacité de détection se distribue. Une image de campagne qui satisfait aux standards de provenance d’une plateforme peut ne pas passer un modèle tiers entraîné sur des données différentes. La couche d’authentification se constitue sans que les marques soient dans la salle — et cette salle vient de s’agrandir.