Et si la cape d’invisibilité existait vraiment ? Le tissu mythique, censé rendre indiscernable toute personne le portant, est dans les contes de fées l’œuvre de magiciens ou de géants. Aujourd’hui, ce sont des ingénieurs et des designers mode qui s’essaient à l’art de disparaître. Avec un but très précis : échapper aux caméras de sécurité et aux intelligences artificielles. De plus en plus de marques promettent en effet que leurs vêtements et accessoires protègent leurs propriétaires des systèmes de vidéosurveillance et de reconnaissance faciale. Et, depuis le retour de Donald Trump, ces lunettes, pulls, t-shirts ou foulards « anti-IA » ont le vent en poupe, assurent plusieurs vendeurs à L’Express.
De plus en plus de caméras de surveillance
Les caméras de surveillance sont devenues des objets du quotidien. Selon Dominique Legrand, président de l’association nationale de la vidéoprotection (AN2V), la police et la gendarmerie opèrent désormais plus de 100 000 caméras de sécurité. Un chiffre qui reste dérisoire par rapport à la myriade de caméras privées dans les centres commerciaux, les usines et les bureaux. « Le parc est d’environ deux millions en France », estime Patrick Haas, directeur des publications En Toute Sécurité.
La France n’est pas le seul pays friand de caméras. Londres en comptait en 2022 près d’un million, d’après une étude de Clarion Security Systems, qui expliquait qu’un piéton était susceptible d’être filmé jusqu’à 70 fois par jour.
Aux Etats-Unis aussi, le secteur est aussi en pleine croissance. Une analyse du Bureau of Labour Statistic de 2021 indique qu’entre 2015 et 2018, le nombre de caméras de surveillance dans le pays a augmenté de près de 50 %, passant de 47 à 70 millions. Selon le cabinet Mordor Intelligence ce marché de 6,8 milliards de dollars en 2025 devrait frôler 11 milliards d’ici 2030.
Des pulls et accessoires anti-surveillance
Une omniprésence qui n’est pas du goût de tout le monde. « Sur Internet, nous pouvons dire ‘non’ aux cookies si ne voulons pas que nos données soient utilisées. Mais dans le monde physique, nous ne pouvons pas dire non aux caméras », regrette Rachele Didero. C’est lors d’un voyage à New York en 2019 que l’Italienne, alors étudiante en mode à Milan, perçoit l’ubiquité de ces équipements.
Elle choisit de créer Capable Design en réaction. Le projet voit le jour quelques années plus tard, en 2021, avec un objectif clair : créer des vêtements qui rendent les personnes qui les portent « visibles pour les humains, mais invisibles pour l’intelligence artificielle », raconte-t-elle. Sur le site de la marque, peu de produits, mais beaucoup de couleurs criardes : un pull crop top avec d’amples manches est brodé de ronds concentriques oranges et bleus. Une robe affiche des motifs psychédéliques faisant penser à des fils de fers barbelés emmêlés. Des t-shirts montrent des sortes de paysages hallucinés flous, évoquant des taches de pétrole dans l’eau. Des pantalons sont ornés de motifs faisant penser, de loin, à des têtes de chiens, à un pelage de léopard ou encore à des plumes de paon. Ces designs ne doivent rien au hasard : ils sont pensés pour berner les algorithmes de détection.
La reconnaissance faciale fonctionne suivant trois grandes étapes. « La première, c’est la détection d’un visage humain, par exemple en repérant un nez ou une bouche », résume Maher Jridi, directeur de la recherche à l’Institut supérieur d’Électronique et du Numérique et spécialiste de la vision par ordinateur. « L’étape d’après consiste à regarder précisément les caractéristiques du visage traité, puis à comparer ces caractéristiques à celles contenues dans des bases de données ».
Les motifs des vêtements de Capable Design viennent interférer avec la première étape. Loin d’être des amas de pixels aléatoires, ces images sont de l' »adversarial noise », du « bruit adverse » dans le jargon de l’intelligence artificielle. « Lorsqu’une intelligence artificielle voit ces motifs, elle n’arrive pas à reconnaître ce à quoi elle fait face », résume Rachele Didero. Et si l’IA n’arrive pas à vous identifier comme un humain, alors, elle ne cherche pas à effectuer les étapes suivantes d’identification.
L’existence de ces images adverses est connue depuis longtemps — l’étude qui atteste pour la première fois de leur capacité à tromper les algorithmes a été publiée en 2014. Les exemples présentés dans la publication sont frappants : confrontée à une image de panda classique, l’IA arrivait à identifier correctement l’animal avec 57,7 % de certitude. Mais une fois l’image modifiée avec du « bruit adverse », en intégrant les pixels à l’image de façon invisible pour l’œil humain, alors l’IA pensait que la photo représentait un singe, avec 99,3 % de certitude.
Les « bruits adverses » trompent les IA
Les vêtements de Capable Design sont tous conçus suivant cette technique. Le site indique ainsi qu’une personne portant un pantalon sera identifiée soit comme une girafe, soit comme un chien par l’IA. AntiAI.biz, un autre site spécialisé dans les vêtements anti-reconnaissance, utilise également cette méthode. Des foulards, des t-shirts, des sweats, des chemises et même des masques chirurgicaux arborent des motifs absurdes aux couleurs bariolées.
Se protéger contre les deepfakes…
La technique est également appliquée aux accessoires, telles ces lunettes NeuThroné, aux épais bords noirs et aux verres foncés. « Si quelqu’un vous prend en photo avec, et essaie ensuite d’entraîner un modèle de diffusion avec cette photo pour réaliser des deepfakes, cela cassera le modèle », explique dans un sourire Tim Shea, le co-créateur de la marque. Le bruit des lunettes NeuThroné perturbe les algorithmes de détection en introduisant des ‘bords’ et détails superflus. « Les systèmes n’arrivent pas à dire s’ils regardent un humain avec des lunettes ou des artefacts maya psychédéliques. Ils essayent de reproduire les deux en même temps, et le résultat n’est pas bon ».
Le « bruit » n’est pas la seule technique pour tromper les IA. Nicole Scheller, la créatrice de mode derrière la marque allemande Urban Privacy, a ainsi mis au point un motif interprété comme un visage par les algorithmes. « Je suis partie d’une photo de ma tête, que j’ai modifiée pour la rendre de plus en plus abstraite. Cela a donné un motif qui n’est pas forcément visible pour les humains, mais toujours reconnu comme un visage par les IA ». Une fois imprimé sur un t-shirt, le motif perturbe les caméras, qui détectent plusieurs visages sur un même corps. « Votre visage est toujours détecté, mais l’idée est de ralentir le système en le surchargeant d’informations ».
« Nous faisons également des produits pour tromper la détection de démarche », ajoute Daniel Preuss, qui a co-fondé la marque avec Nicole Scheller. Cette technique analyse la façon de marcher des piétons et peut déterminer à partir de certains facteurs leur âge et leur genre. « Nos t-shirts sont très larges, et nous cachons les coudes et les genoux, ce qui donne une apparence asymétrique aux corps, et qui rend donc plus difficile les estimations ». La marque vend également des poches anti-pistage pour téléphones bloquant les signaux, des foulards couverts de QR Codes ou en tissus réfléchissant pour rendre illisibles les photos prises avec un flash.
… et contre l’ICE
Cette panoplie attire de plus en plus l’intérêt. Depuis le mois de novembre, le nombre de ventes d’Urban Privacy explose, tout comme le nombre de visites sur le site. Les commandes affluent, en provenance d’Europe et d’Allemagne, mais aussi des Etats-Unis. Une tendance qui se retrouve chez Capable Design, dont les designs sont récemment devenus viraux et pour qui les Etats-Unis sont le plus gros marché. Tim Shea, de NeuThroné, affirme recevoir deux fois plus de visites sur son site depuis le début du 2e mandat de Donald Trump. Nicole et Daniel ont, eux, remarqué un nombre important de visites en provenance de Minneapolis, ville devenue l’épicentre de la contestation contre l’ICE. La violente police aux frontières, qui a tué deux manifestants dans la ville depuis le début de l’année, est armée d’une technologie de reconnaissance faciale censée l’aider à trouver des clandestins. Appelée Mobile Fortify, l’app leur permet de scanner les visages afin de retrouver l’identité des personnes scannées, et de récupérer sur elles de nombreuses données gouvernementales. Malgré des résultats parfois erronés, la police aux frontières continue de se servir activement de l’app : en quelques mois, ICE a utilisé Mobile Fortify pour scanner le visage de près de 100 000 personnes, d’après WIRED.
Mais des accessoires comme ceux de Capable Design ou d’Urban Privacy peuvent-ils véritablement soustraire leur propriétaire à la surveillance ? « Avec les lunettes NeuThronés, nous sommes capables de paralyser Stable Diffusion et Midjourney, et de brouiller la reconnaissance faciale sur les iPhones. Mais nous n’avons pas réussi à casser tous les modèles », admet Tim Shea. « Les modèles comme VEO et SORA sont très robustes ». Nicole et Daniel d’Urban Privacy reconnaissent devoir faire beaucoup de pédagogie auprès de leurs clients. « Certains pensent qu’ils vont devenir complètement invisibles avec nos vêtements. Mais ce n’est pas le cas : votre tête est toujours détectée. L’idée est de ralentir le système, de le perturber, mais pas de l’éviter complètement ».
Rachele Didero, de Capable Design, admet également à demi-mot ne pas pouvoir garantir que ses vêtements marcheront tout le temps. « Il peut arriver que YOLO [un algorithme de détection d’objet, NDLR] reconnaisse soudainement la personne avec nos vêtements. Nous ne disons pas, encore une fois, que c’est un « bouton d’invisibilité” complet. Cela peut arriver, mais nous réduisons le pourcentage de chance de détection ». Les logiciels de reconnaissance faciale sont en permanence mis à jour et améliorés, avec de nouvelles fonctionnalités plus puissantes. Tous n’utilisent pas les mêmes algorithmes. La réaction aux vêtements de ceux en open source comme YOLO peut être testée. Mais celle des algorithmes gardés secrets est imprévisible.
« Théoriquement, ces méthodes peuvent perturber la reconnaissance faciale, mais leur efficacité dans des conditions réelles est souvent surestimée », estime Valery Tsaryova, la porte-parole de RecFaces, une entreprise spécialisée dans les solutions de reconnaissance faciale biométrique. En laboratoire ou dans des environnements très contrôlés, elles peuvent provoquer des erreurs de classification, reconnaît-elle. Mais, en conditions réelles, avec la variété d’angles de vue, de luminosité et de distance, le bruit adverse ne pose, selon elle, qu’un obstacle mineur. « Et les systèmes modernes de reconnaissance faciale sont de plus en plus conçus en tenant compte de ces scénarios », assure-t-elle. Un constat aussi fait par la Fondation Mozilla, très active sur les questions de vie privée. Plusieurs tests ont montré que le modèle Teachable Machine, de Google, reconnaissait la présence d’humains grâce à leur posture, même si ces derniers portaient des vêtements censés les camoufler. Les capes d’invisibilité resteront sans doute des objets de légende.
Source link : https://www.lexpress.fr/economie/high-tech/les-vetements-anti-ia-la-nouvelle-mode-qui-promet-dechapper-aux-cameras-de-securite-KEFIZLUJBRBSPMW7652FTJBHJY/
Author : Aurore Gayte
Publish date : 2026-02-16 06:30:00
Copyright for syndicated content belongs to the linked Source.
