L’Express

Face à Sora d’OpenAI et ses fausses vidéos, il existe une parade évidente

OpenAI a lancé Sora, son générateur de vidéos IA aux Etats-Unis.




Un pélican à bicyclette sur un chemin côtier. La horde de guerriers de Gengis Khan galopant dans la steppe. Une vue aérienne des gratte-ciel de New York. Si les réseaux sociaux se peuplent d’insolites vidéos depuis quelques heures, c’est qu’OpenAI a décidé de frapper un grand coup avant l’ouverture, ce mardi 10 décembre, de la conférence NeurIPS, grand-messe de l’IA qui rassemble le gratin du secteur. Lundi soir, le leader de l’IA générative a donc lancé son très attendu modèle de génération de vidéos IA, Sora. Via les abonnements ChatGPT Plus et Pro (20 dollars et 200 dollars par mois), il est désormais disponible dans de nombreux pays, notamment les Etats-Unis, l’Inde et le Japon – mais pas encore dans l’Union européenne. Sora permet aux internautes de générer de superbes clips de 20 secondes en format paysage ou carré, à partir d’une simple phrase. Le cadeau de Noël dont rêvaient les complotistes ?Beaucoup redoutent à juste titre, une multiplication des fake news. Le réputé youtubeur tech américain Marques Brownlee a dévoilé sur X un clip entièrement fabriqué par Sora, qui ressemble à s’y méprendre au journal télévisé d’une chaîne américaine à gros budget à quelques détails près. Les textes dans le bandeau « alerte info » n’ont aucun sens mais les visages des faux présentateurs sont criants de vérité. Et le montage qui présente au spectateur des voies de circulation perturbées par le brouillard a le rythme dynamique de vidéos professionnelles.The rumors are true – SORA, OpenAI’s AI video generator, is launching for the public today…

I’ve been using it for about a week now, and have reviewed it: https://t.co/jII49vkuHN

THE BELOW VIDEO IS 100% AI GENERATED

I’ve learned a lot testing this, here are some new… pic.twitter.com/uA1EhRuK7B— Marques Brownlee (@MKBHD) December 9, 2024Un rendu bien plus réaliste que la fausse séquence vidéo – également générée par IA- montrant Donald Trump et l’actuelle première Dame Jill Biden, se battre comme des chiffonniers pendant la cérémonie de réouverture de Notre-Dame de Paris.Bien sûr, OpenAI a mis en place certaines sécurités et bloque par exemple la création de deepfakes sexuels. Difficile cependant pour quelque acteur de l’IA que ce soit d’anticiper toutes les requêtes malveillantes possibles, et surtout la manière dont les internautes sont susceptibles de les formuler.Traquer les fausses vidéos générées par IALes internautes font preuve d’ingéniosité pour contourner les défenses de ces outils. Alors que l’IA d’une entreprise refusait de leur présenter des informations réservées à la direction, certains ont ainsi découvert qu’il suffisait de lui demander de le faire « en langage nautique » pour qu’elle change d’avis et s’exécute. Le problème est depuis corrigé, mais d’autres failles de ce type existent à coup sûr encore. Sans parler des modèles open source que les connaisseurs réussissent à modifier afin de les rendre plus performants ou… moins stricts.Les chercheurs travaillent d’arrache-pied à améliorer leurs techniques de détection des contenus IA. Comme beaucoup d’entreprises, OpenAI inclut, dans les images de Sora, une sorte de signature numérique (avec des métadonnées et des filigranes) pour limiter les méprises. Et sur Internet, de nombreux détecteurs évaluent la probabilité qu’un contenu à l’origine floue ait été généré par une IA en étudiant certaines récurrences anormales. L’utilité de ces outils ne fera que croître à mesure qu’ils progressent. Mais les acteurs malveillants perfectionnent aussi leurs camouflages. En développant, par exemple, des outils qui modifient légèrement les contenus IA afin d’effacer les signes qui peuvent les trahir. Il est donc illusoire de penser que toutes les fake news pourront, un jour, être automatiquement détectées.Il existe cependant une parade toute simple à ce problème. Dans le monde de l’IA générative, il faut se faire à l’idée que le sérieux d’une information ne s’évalue plus à l’aune du contenu mais à celle de la source. Peu importe que les images semblent vraies, les chiffres crédibles… Quelle personne, quel organisme la diffuse ? Et s’agit-il bien de son compte officiel ? Se montrer digne de la confiance des internautes payera dans le monde de l’IA.Avec Worldcoin, l’identité devient un businessL’humanité a déjà prouvé sa grande capacité d’adaptation aux progrès technologiques. Les internautes ne prennent plus pour argent comptant les affirmations de n’importe quel blog. Ils repèrent avec adresse les images photoshopées. Et les entreprises se sont déjà adaptées aux premières générations de « bots », ces programmes qui se font passer pour d’authentiques internautes afin de gonfler l’audience d’un site, récupérer des données ou bloquer une plateforme. C’est ce qui a fait naître les « Captcha », ces agaçants quiz qui nous force à recopier des lettres illisibles ou compter des feux tricolores.Si le fléau des fake news n’est pas déjà résolu, c’est lié à un problème plus profond. « Une étude réalisée dans 26 pays montre que le facteur qui explique le mieux les différences d’attitude vis-à-vis des théories du complot, c’est le niveau de corruption du secteur public. Plus le secteur public d’un pays est corrompu, plus sa population croit aux théories du complot », expliquait à L’Express Laurent Cordonier, sociologue et directeur de la recherche de la fondation Descartes. Les citoyens éduqués vivant en démocratie distinguent en revanche mieux les fake news des informations solides. Et de manière générale, privilégient les sources fiables et indépendantes dès lors qu’elles existent. Cela n’empêche pas une portion de la population de relayer des fake news par désir de gagner en notoriété ou par idéologie. « La croyance motivée est un phénomène connu : nous croyons plus facilement ce qui arrange notre point de vue », pointait Laurent Cordonier en juin dernier.Mais le réalisme des fake news n’est pas le facteur clef de l’adhésion. Les traquer revient à tenter de vider le tonneau des Danaïdes. Prenons le problème dans le sens inverse. Le business de l’authentification est d’ailleurs en plein essor. Des entreprises comme WizTrust certifient les communiqués de presse et les publications d’entreprises via la blockchain. Sam Altman, le PDG d’OpenAI creuse lui aussi le filon. Il a participé à fonder Worldcoin, récemment rebaptisé « World ». Un projet qui ne propose rien de moins que de fournir, contre un scan d’iris, une preuve numérique d’identité à chaque Terrien.



Source link : https://www.lexpress.fr/economie/high-tech/face-a-sora-dopenai-et-ses-fausses-videos-il-existe-une-parade-evidente-AH5URXOGKRFRDK6PSRPI7RMP5E/

Author : Anne Cagan

Publish date : 2024-12-10 16:30:00

Copyright for syndicated content belongs to the linked Source.

Tags :L’Express
Quitter la version mobile

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (1) in /home/intellinews/htdocs/intellinews.org/wp-includes/functions.php on line 5427

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (1) in /home/intellinews/htdocs/intellinews.org/wp-includes/functions.php on line 5427