Vers la 20ème minutes , le Professeur Delfraissy a déclaré que « 50% des IRM cérébrales en France étaient interprétées par des systèmes d’Intelligence Artificielle (IA), et les médecins ne font que vérifier le compte rendu généré par ces systèmes. »

La Société Française de Neuroradiologie souhaite répondre à la déclaration de Monsieur le Professeur Jean-François Delfraissy, président du Comité Consultatif National d’Éthique (CCNE), sur France Inter le mardi 4 avril 2023. Interrogé par Madame Léa Salamé, le Professeur Delfraissy a déclaré que « 50% des IRM cérébrales en France étaient interprétées par des systèmes d’Intelligence Artificielle (IA), et les médecins ne font que vérifier le compte rendu généré par ces systèmes. » La Société Française de Neuroradiologie tient à préciser que cette allégation est erronée.
Sur les chiffres, la SFNR estime à moins de 1 % des cas l’usage d’IA en aide à l’interprétation des IRM cérébrales en 2023 en France et aucun outil d’IA ne fournit seul l’interprétation ou le compte rendu.
L’application la plus fréquente, dans nos métiers de l’imagerie, est celle de l’amélioration par l’IA de la qualité des images produites. Cette fonction est très utile et participe à l’amélioration de nos capacités à poser un diagnostic précis. Toutefois, en aucun cas, ces outils ne permettent l’interprétation autonome de l’imagerie médicale.
Aussi, nous estimons que cette affirmation, à une heure de grande écoute, déjà relayée par d’autres médias, doit être corrigée.
Elle laisse croire en une génération de machines toutes puissantes créant puis analysant seules les données pour enfin produire, de façon autonome, un compte rendu.
La machine est sans doute, dans l’inconscient collectif, appréhendée comme infaillible.
Or, sur les systèmes d’IA, les résultats sont perfectibles. Ainsi nous sommes, dans notre pratique médicale, perpétuellement confrontés à des lésions non détectées par ces outils d’IA ou, au contraire, des images caractérisées à tort comme pathologiques.
Les outils d’IA utilisés en médecine et en particulier en imagerie médicale, ne tiennent pas compte de la complexité de la personne humaine, ni de la subtilité du raisonnement clinique et de la capacité du corps médical à générer et confronter des hypothèses diagnostiques. Les outils d’IA pour l’aide diagnostique sont actuellement principalement limités à une tâche donnée (détection d’une évolution radiologique de la maladie chez les patients porteurs d’une sclérose en plaques, ou détection des accidents ischémiques cérébraux).
La plus-value du raisonnement clinique est tout à fait claire dans le domaine de la santé, les décisions sont prises par les médecins, et dans le cas de l’interprétation des IRM, par les radiologues, qui ont la responsabilité de prendre en charge la santé de leurs patients.
C’est le principe fondamental de garantie humaine qui consiste à veiller à ce que l’intelligence artificielle ne prenne pas des décisions qui pourraient avoir des conséquences néfastes pour les patients. En matière de santé, ce point est fondamental. Il a d’ailleurs été affirmé dans l’avis commun 141 du Comité Consultatif National d’Ethique (CCNE) et 4 du Comité National Pilote du Numérique (CNPEN).
Il est impératif de prendre en compte les aspects éthiques, de diffuser des explications justes, claires, transparentes et actualisées auprès du public en matière d’IA pour limiter les fausses croyances, et promouvoir une utilisation responsable et éthique de l’IA afin de prévenir ces risques d’erreur.
Nous réaffirmons l’importance de cette garantie humaine, qui place le médecin et non l’IA au centre de la prise de décision pour nos patients. Ne survendons pas ce qui est actuellement un mythe, celui d’une machine ultra compétente qui remplace l’homme. Nous n’en sommes absolument pas à cette étape dans le domaine de la santé.