Dans un monde déchiré par les guerres et bousculé par la montée des tensions commerciales, la tentation du repli sur soi n’a jamais été aussi forte. Confrontées à la poussée du vote radical et à l’essor de la désinformation, les démocraties libérales sont fragilisées. C’est plus que jamais le moment de donner la parole aux architectes du sursaut, qu’ils soient scientifiques, militaires, experts de la tech, intellectuels ou entrepreneurs. L’Express consacre un numéro exceptionnel aux « Visionnaires ».
Les « ingénieurs du chaos », Hugo Micheron les étudie depuis longtemps. Spécialiste du djihadisme, il a très tôt compris que les mouvements autoritaires et totalitaires retournaient contre les démocraties leur outil favori : le Web. Alors cet enseignant-chercheur à Sciences Po appelle à « ne pas leur laisser le terrain ». Il a créé avec Antoine Jardin, ingénieur de recherche au CNRS, Arlequin AI, une entreprise qui développe des intelligences artificielles de pointe pour détecter les opérations d’influence en ligne et analyser l’opinion publique avec une précision inédite.
L’Express : Les mouvements antidémocratiques ont-ils pris le pouvoir sur Internet ?
Hugo Micheron : Les réseaux sociaux se sont vendus comme des outils de démocratisation. Et des événements tels que le Printemps arabe nous ont incités à les croire. Mais cela a aussi donné des idées aux Etats autoritaires et aux groupes portant des idéologies totalitaires. Quelques années plus tard, c’est là que Daech diffusait l’essentiel de sa propagande. Les rivaux de l’Occident ont parfaitement identifié le potentiel de ces plateformes et les ont investis massivement, tant pour se protéger en interne des contestations possibles que pour intervenir dans les espaces informationnels des pays occidentaux afin de les déstabiliser. L’influence malveillante, la désinformation sont devenues des méthodes politiques usuelles dans les relations internationales. Les réseaux prorusses visent par exemple la France au Mali.
Antoine Jardin : Dans les sociétés démocratiques, l’influence des réseaux sociaux a commencé à être questionnée après le Brexit et le scandale Cambridge Analytica. L’autre événement important, c’est bien sûr l’insurrection du 6 janvier aux Etats-Unis, la décision de Twitter de bannir le président Trump et la création par ce dernier, de son propre réseau social qu’il utilise désormais abondamment.
Face à ces « ingénieurs du chaos » que Giuliano da Empoli décrit dans son livre, vous appelez de vos vœux l’émergence d’ »ingénieurs de la démocratie ». Quelles actions défensives, voire offensives, ces ingénieurs de la démocratie devraient-ils mener ?
H.M. : Le point de départ d’Arlequin AI c’est le refus de la résignation. Lorsque j’enseignais et menais des recherches à l’université de Princeton (New-Jersey), j’ai rencontré de nombreux Européens travaillant dans les grandes entreprises de la tech. Presque par jeu, j’ai commencé à leur poser une question simple : « Pour quelle fraction de votre salaire accepteriez-vous de revenir en Europe, pour y mener les mêmes projets technologiques qu’ici, mais au service de l’intérêt général ? ». J’ai été agréablement surpris par leur réponse. Presque tous me disaient : « Pour un tiers de mon salaire américain, je serais prêt à rentrer si le projet est suffisamment ambitieux. » En fait, beaucoup d’ingénieurs européens ne s’expatrient pas pour l’argent, mais parce que c’est aux Etats-Unis qu’une bonne partie de l’innovation se produit.
Il est également important de comprendre que les « ingénieurs du chaos » que décrit Giuliano da Empoli ne sont pas tous de grands experts de la tech, loin de là. Et cela ne les empêche pas de construire des outils pour déstabiliser la démocratie. Nous ne sommes pas plus bêtes qu’eux, alors pourquoi leur laisser le terrain ? Il y a beaucoup de personnes en Occident qui sont sensibles à l’idée de défendre le bien commun, leurs valeurs. Et nous avons des écoles d’ingénieurs de renom sur lesquels nous appuyer.
A.J. : Précisons qu’il n’y a pas de dimension offensive de la démocratie dans le sens où on n’est pas attaqué par la liberté, on n’est pas pris d’assaut par le respect des libertés fondamentales. C’est quelque chose que beaucoup de gens privés de ces libertés appellent de leurs vœux. La réaction des démocraties a une visée universelle au service de l’ensemble des populations, et n’est jamais une attaque contre ces personnes.
H.M. : Les démocraties ont bien compris que le cyber était un nouvel espace de confrontation. En revanche, lorsqu’elles sont attaquées dans leurs valeurs, elles ne comprennent pas que l’intérêt direct de la nation est aussi en jeu. C’est une erreur.
Pourquoi est-ce plus grave qu’il n’y paraît ?
H.M. : Prenez les mouvements djihadistes. Les attentats ne sont que la face visible. La propagande, elle, porte systématiquement sur les principes fondamentaux des démocraties. D’abord l’idée de souveraineté populaire, le fait que le peuple vote ses propres lois et que ces lois s’appliquent à tous. Eux, la réfutent en affirmant que seule la souveraineté divine doit s’appliquer. L’égalité entre les personnes, les individus, les hommes et les femmes est une autre valeur à laquelle ils s’attaquent. Tout comme celle de la liberté de mœurs. Et là que faire ? Il n’y a pas de personne précisément désignée pour défendre ces valeurs. Des institutions telles que les médias ont cependant la capacité d’objectiver ce qui se passe. Debunker, une par une, chaque fake news a très peu d’impact. Les outils que nous développons donnent en revanche la capacité aux médias et aux acteurs démocratiques d’étudier globalement ces phénomènes. D’évaluer quels volumes et quels types de contenu sont poussés par quels types d’acteurs. C’est ainsi que les démocraties se recréent leurs anticorps.
Les nouvelles technologies peuvent attiser les clivages dans la société. Mais le breuvage est autant poison qu’antidote et, selon vous, l’IA accroît aussi grandement notre capacité à comprendre ce qui unit une société. En quoi l’IA peut-elle révolutionner les sondages ?
H.M. : Depuis les débuts des sciences sociales, nous sommes confrontés à un dilemme : il faut choisir entre deux types d’approche. D’un côté, les approches quantitatives, fondées sur la représentativité. Typiquement, il s’agit de très grands sondages, destinés à refléter l’opinion d’un échantillon représentatif de la population – disons, des Français. Le problème, c’est qu’on y pose des questions très simples, peu nuancées. Cela permet d’obtenir des chiffres globaux – par exemple, « 53 % des Français sont favorables à telle mesure » – mais sans aucune granularité. On ne sait pas comment cette opinion se construit, ni ce qu’elle recouvre vraiment. C’est utile, mais souvent trompeur. À l’opposé, il y a les enquêtes qualitatives – mon domaine d’origine – qui reposent sur des entretiens approfondis, menés auprès d’un petit nombre de personnes. L’objectif n’est pas la représentativité statistique, mais une compréhension fine des motivations, des valeurs et des raisonnements. On connaît très bien un échantillon restreint, ce qui nous permet d’accéder à une lecture plus profonde et plus nuancée de la société.
Jusqu’à présent, il y avait très peu de choses entre les deux. Avec l’IA et notamment les modèles Arlequin AI qu’ont développés Antoine Jardin et les équipes, on fait tomber ce mur de Berlin des sciences sociales. C’est ce que l’on a montré en analysant les réponses au « grand débat national » de 2019. Non seulement, nous avons pu traiter un set de données 40 à 50 fois plus grand que celui des études quantitatives classiques. Mais nous l’avons fait avec un niveau de précision qui était jusqu’ici réservé aux études qualitatives, car les réponses des sondés étaient très détaillées.
A.J. : Les sondages classiques déterminent les questions et les réponses à l’avance. Les répondants doivent choisir parmi une liste fermée d’options. Cela appauvrit considérablement leur liberté d’expression et la manière dont ils peuvent formuler leurs préférences. Avec l’IA, nous pouvons analyser leurs verbatims libres. Et faire émerger des typologies naturelles sur la base de ce qu’ils disent vraiment. On pense que cela modifiera très profondément l’étude de l’évolution de la société.
Cela aidera-t-il à faire émerger des consensus insoupçonnés ?
H.M. : C’est tout l’intérêt. Comme le pointe Antoine, les sondages traditionnels reposent sur des questions préconstruites, qui s’inspirent souvent des grilles de lecture des partis politiques ou, plus largement, du débat public tel qu’il existe déjà. L’intelligence artificielle, au contraire, permet de faire émerger les véritables points de consensus et de dissensus – de manière beaucoup plus visible et objective. Je vous donne un exemple concret, tiré du Grand Débat national. On parle ici de 400 000 Français qui ont répondu à 80 questions. Imaginez, cela fait 32 millions de réponses à traiter. Que font les modèles d’Arlequin AI ? Ils prennent l’intégralité des 80 réponses d’un répondant, et les comparent aux 80 réponses des 400 000 autres. Ce n’est qu’ensuite que le modèle procède au regroupement des personnes qui répondent globalement les mêmes choses. Cela peut sembler bête, mais c’est en réalité probablement l’une des premières fois sur ce type d’enquête qu’un humain même très expert ne décide pas au préalable arbitrairement de ce qu’il croit être « les vraies catégories de Français ». Dans le grand débat, nous avons a posteriori identifié quatre groupes très distincts : les civiques, les conservateurs, ceux très concernés par la transition écologique sous l’angle de la mobilité et enfin les pessimistes vis-à-vis de l’action publique. Cela a aussi fait émerger des consensus insoupçonnés. Par exemple, il y a un immense consensus en France sur la nécessité d’une transition écologique. Là où les avis divergent en réalité, c’est sur les modalités. Cela pose donc un cadre de débat très différent. On a également identifié un consensus insoupçonné sur l’impôt en France qui est un sujet majeur. Il n’y a en fait pas forcément de ras-le-bol fiscal – en tout cas en 2019 au moment des questions. En revanche, il y a une grande exigence de résultats des Français. A partir du moment où ils payent beaucoup d’impôts, ils veulent que le service public soit de qualité. Cela ne veut pas forcément dire qu’ils se plaignent du service public. Plutôt qu’ils trouvent inacceptable qu’avec le niveau d’impôts actuel, les infirmiers n’aient pas de quoi se payer des vacances ou que des professeurs se retrouvent en dessous du seuil de pauvreté. Nous pensons que l’IA va offrir des options inédites de consultation des populations. On va aller trois crans plus loin dans l’analyse.
L’UE a-t-elle une réelle chance de contraindre un jour les réseaux sociaux américains et chinois à respecter ses règles ? Et dans le cas contraire, quelle serait la bonne approche ? Créer un réseau social européen ?
H.M. : Je doute – même si j’aimerais me tromper – que l’Europe puisse faire émerger un réseau social capable de remplacer ceux que nous utilisons aujourd’hui, alors même qu’elle en est le plus grand consommateur au monde. Mais des leviers existent. Le premier est juridique : le Digital Services Act, notamment son article 40. Celui-ci établit deux responsabilités majeures pour les plateformes : d’abord, supprimer les contenus illégaux ; ensuite, agir lorsque du contenu présente un risque systémique pour un pays de l’Union européenne. C’est fondamental, car certains contenus peuvent être toxiques sans être techniquement illégaux. C’était d’ailleurs toute la force de Daech : produire de la propagande idéologique sans forcément appeler au meurtre. L’article 40 permet de sortir de cette impasse juridique. Au-delà du droit, un enjeu fondamental se pose : celui du pouvoir algorithmique. Alors qu’on nous a longtemps appris la séparation des pouvoirs, un cinquième pouvoir s’est imposé sans contrôle : les algorithmes. Elon Musk peut, en un clic, rendre un discours pro-Trump viral. L’algorithme de TikTok, opaque et hébergé en Chine, influence des millions de jeunes sans aucune transparence. Si l’on reconnaît que l’algorithme est un pouvoir, alors il faut créer des contre-pouvoirs algorithmiques. Cela implique des outils capables d’identifier les biais, comme ceux qui favoriseraient, par exemple, des contenus ultra-violents ou racistes auprès des 12-25 ans. Il ne s’agit pas de censurer, mais d’organiser le chaos informationnel, comme on l’a fait autrefois avec la presse, en posant un cadre, des règles, une éthique. Chez Arlequin AI, avec peu de moyens et en 18 mois, nous avons déjà mis au point des outils capables de détecter les biais dans les flux. Cela montre que c’est possible. Que l’on peut reprendre le contrôle. Encore faut-il assumer ce potentiel, s’engager dans l’IA – au lieu de toujours réduire le débat public à la peur de la destruction d’emplois par ChatGPT. Car il y a ici un vrai discours de puissance et d’espoir à porter.
Source link : https://www.lexpress.fr/economie/high-tech/la-methode-dhugo-micheron-contre-les-ingenieurs-du-chaos-linteret-direct-de-la-nation-est-en-jeu-BPVRW2V5YFF6XDOWYOJCBBESZ4/
Author : Anne Cagan
Publish date : 2025-10-14 18:00:00
Copyright for syndicated content belongs to the linked Source.