L’Express

IA et médecine, les liaisons dangereuses : la France face à un inquiétant déficit d’évaluation

IA et médecine, les liaisons dangereuses : la France face à un inquiétant déficit d’évaluation




Elle a fait son entrée à pas feutrés. Bien moins remarquée que sa version « grand public » Chat GPT ou que sa variante guerrière, qui équipe les drones tueurs en Ukraine, l’intelligence artificielle (IA) s’est progressivement installée dans les cabinets de santé, sans fureur ni fracas. Certaines détectent les cancers, d’autres améliorent la prise en charge des patients, aident à la formulation de diagnostics personnalisés ou simulent des millions de molécules pour les grands groupes pharmaceutiques. Autant de tâches que les médecins et chercheurs cèdent à la machine dans l’espoir d’être plus efficaces et de gagner du temps. Une denrée rare, alors que l’accès aux soins est un sujet de préoccupation majeure des Français.Mais l’intervention de l’IA dans la santé soulève, aussi, de nombreuses questions. Outre les craintes d’une déshumanisation du soin, la fiabilité et l’efficacité des outils sont une importante source d’inquiétude. Comment s’assurer que ces technologies fournissent des solutions adéquates reposant sur des preuves scientifiques solides, alors que leur fonctionnement reste opaque aussi bien pour la population générale que les professionnels de santé, voire pour les développeurs qui les créent ? Et quid de la sécurisation des données de santé collectées par les entreprises privées ou les puissances étrangères ? Interpellée par ces problématiques, l’Assurance maladie consacre plusieurs pages à ce sujet dans son rapport « Charges et produits » 2023, que L’Express a pu consulter.Sans évaluation nationale, les erreurs à la charge des médecins »Le déploiement à grande échelle [des outils d’IA] pose des défis techniques et éthiques majeurs pour le système de santé. La régulation et l’évaluation de ces systèmes sont cruciales pour assurer leur efficacité, leur sécurité et leur intégration dans les pratiques de soins », indique d’abord le document. Les auteurs s’attardent en particulier sur les Dispositifs médicaux numériques (DMN), dont les systèmes d’intelligence artificielle font partie. Car si ceux destinés aux patients sont évalués par les autorités de santé, ce n’est pas le cas des DMN à usage professionnels qui, eux, « n’entrent dans aucun processus national d’évaluation structuré » et dont « l’utilisation par les professionnels dans le cadre d’actes médicaux est totalement libre ». Le besoin d’évaluation, c’est-à-dire de tests menés dans le cadre d’études indépendantes – et non pas seulement par les industriels – est pourtant indispensable non seulement pour obtenir des preuves scientifiques robustes, mais également pour protéger et rassurer les médecins. »Quand un professionnel de santé utilise un DMN, s’il n’y a pas de recommandation claire des autorités, c’est le code de déontologie qui s’applique, il engage donc sa responsabilité et son éthique et c’est à lui de s’assurer que l’outil est sécurisé et basé sur les dernières données scientifiques », explique Pierre de Bremond d’Ars, médecin généraliste et représentant du Collège de la médecine générale, qui regroupe l’ensemble des organisations de la médecine générale. En cas de problème – la plainte d’un patient par exemple -, le médecin doit pouvoir présenter à ses pairs la démarche qui l’a conduit à utiliser un outil. Sans quoi, des sanctions peuvent s’appliquer. « Aujourd’hui, l’intelligence artificielle est considérée comme un dispositif d’aide, mais la décision médicale appartient toujours au médecin. L’IA n’a donc pas de responsabilité médicale propre », confirme Yann-Mael Le Douarin, chef du département Santé et transformation numérique de la Direction générale de l’Offre de soins.Nouvelles améliorations, nouveaux risquesLa jeune start-up française Nabla illustre bien la problématique. Encore inconnue il y a un an, elle a déjà levé plusieurs dizaines de millions d’euros et a signé d’importants contrats aux Etats-Unis. Sa promesse ? Révolutionner les consultations médicales grâce à son IA capable de générer automatiquement un compte rendu médical standardisé à l’issue d’une consultation qu’elle vient d’enregistrer. « Aujourd’hui, lors d’une consultation, de nombreux médecins vont alterner entre regarder leur patient et leur écran d’ordinateur, où ils vont noter des informations, des outils tels que Nabla propose que ce travail soit effectué par un algorithme, faisant ainsi gagner du temps de travail aux médecins tout en permettant une écoute plus attentive », illustre Pierre de Bremond d’Ars. Mais comme tout outil de reconnaissance vocale, le problème de la sécurisation des données, qui sont enregistrées sur des serveurs privés, se pose. »Nous sommes plusieurs médecins à avoir sollicité le Conseil de l’Ordre pour qu’un audit soit fait, parce que chaque médecin est responsable des données qu’il envoie », poursuit le médecin généraliste, qui a décidé, à titre personnel, de ne pas utiliser Nabla tant qu’une autorité de santé n’aura pas donné son blanc-seing. De nombreux médecins, eux, ont déjà sauté le pas, puisque Nabla revendique 30 000 utilisateurs. « Une évaluation nationale ne réglera pas à elle seule la question de la sécurisation des données, précise néanmoins Yann-Mael Le Douarin. La Haute autorité de santé peut se pencher sur l’évaluation de l’efficacité des soins, mais pour la sécurisation des données de santé, elle vérifiera seulement que les textes de lois sont respectés ». Pour le reste, ce sont d’autres autorités, comme la Commission nationale de l’informatique et des libertés, qui peuvent s’en charger en se reposant notamment sur les législations françaises et européennes qui restent parmi les plus protectrices au monde.Les « boîtes noires » de l’IALe problème n’est pas moins complexe quand il s’agit de s’assurer qu’un outil est fiable et propose des données basées sur la science, surtout quand les médecins sont sollicités des dizaines de fois par mois pour des myriades de produits. D’autant que, comme le souligne le Comité consultatif national d’éthique dans son avis « Diagnostic Médical et Intelligence Artificielle : Enjeux éthiques », la maturité technologique des systèmes d’IA reste inégale. Et il existe un décalage important entre les promesses affichées, l’état de la science réel et le niveau de connaissance des professionnels de santé et du grand public. Le règlement européen sur l’IA (AI Act) a déjà alerté sur la problématique des « boîtes noires », qui peut se résumer ainsi : les algorithmes sont nourris avec des données choisies et connues des créateurs, mais la manière dont le résultat est produit par ces outils n’est pas toujours comprise, même par ses créateurs. C’est la raison pour laquelle des algorithmes, même s’ils sont correctement entraînés, peuvent fournir des réponses qui apparaissent crédibles, alors qu’elles sont fausses. « Ce qui est particulièrement problématique dans le domaine de la santé puisque in fine, ce sont les professionnels qui sont responsables », insiste Pierre de Bremond d’Ars.Et même si les bases de données utilisées pour nourrir les IA sont connues, elles ne sont pas toujours adaptées à l’usage. Ainsi, en France, la plupart des bases de bonne qualité sont issues des données hospitalières. Il n’existe, en revanche, aucune base qui permette d’entraîner correctement des algorithmes sur des données de médecine de ville. Un manque que le projet P4DP (Platform for Data in Primary care) vise à combler, ce qui devrait encore prendre de nombreux mois. En outre, plusieurs outils d’intelligence artificielle utilisent Open AI (Chat GPT, Dall-E, etc.), lequel repose sur des données provenant d’Internet. « Or il y a du bon et du moins bon sur le Web, et même si les développeurs mettent en place des garde-fous pour éviter que leurs outils utilisent des réponses aberrantes – comme soigner le cancer avec du jus de carotte -, le risque demeure », poursuit le médecin.Un enjeu stratégique nationalConscient de ces problèmes, le Collège de la médecine générale a monté un groupe de travail visant à alerter la communauté médicale et paramédicale et la pousser à s’emparer de ces sujets. « Ces outils peuvent être extrêmement intéressants, bénéfiques, et vont quoi qu’il arrive modifier nos pratiques, mais ils engendrent des questionnements éthiques importants sur lesquels nous devons avoir la main », insiste Pierre de Bremond d’Ars. Le rapport de l’assurance maladie insiste lui aussi sur le besoin de formation des médecins, mais aussi sur le rôle des pouvoirs publics dans la mise en œuvre d’un encadrement des outils et des entreprises qui les créent. Le document rappelle également que sans évaluation nationale, il sera impossible de déterminer précisément leurs apports médicaux, ce qui empêchera le déploiement et l’utilisation de ceux qui sont efficaces, mais aussi le financement de certains projets.Heureusement, des travaux ont déjà été menés par l’Organisation mondiale de la santé (OMS) qui a passé en revue les processus d’évaluation des systèmes d’IA dans un document publié en 2023. En se basant sur ces travaux, l’Assurance maladie prévoit notamment de mener une expérimentation de la mise à disposition des médecins généralistes d’un outil d’IA d’assistance à l’interprétation d’électrocardiogramme (ECG). « Cette expérimentation sera lancée dans le cadre plus large d’un programme – sous l’égide de la Haute autorité de la santé – visant à faciliter l’adoption de l’IA par les professionnels de Santé dans leur exercice quotidien », note le rapport.Une chose est sûre, il y a urgence à ce que la France s’empare sérieusement du sujet. La capacité du pays à conserver sa souveraineté sur les données de santé et à se protéger contre le risque cyber n’est pas seulement une problématique réglementaire, mais aussi stratégique. « L’IA en santé représente un enjeu fort pour la compétitivité industrielle française […], notamment au regard des avancées majeures des Etats-Unis et de la Chine sur ce sujet », insiste l’Assurance maladie. Or le risque de fuite massive de données de santé vers ces pays est réel, et les algorithmes entraînés sur des bases étrangères pourraient comporter des biais et être moins performants sur la population française.



Source link : https://www.lexpress.fr/sciences-sante/sante/ia-et-medecine-les-liaisons-dangereuses-la-france-face-a-un-inquietant-deficit-devaluation-CGNSNUFLCJEGNEIPG52GU4KTVY/

Author : Victor Garcia

Publish date : 2024-07-20 07:00:00

Copyright for syndicated content belongs to the linked Source.

Tags :L’Express