Selon une méta-analyse parue dans « The Lancet Digital Health » (1), les performances diagnostiques des algorithmes d'intelligence artificielle (deep learning) basés sur l'imagerie médicale égalent celles des professionnels de santé. Des résultats à nuancer toutefois par le faible nombre d'études solides disponibles dans ce domaine.
« Notre objectif était de dresser un état des connaissances afin de déterminer l'intérêt des outils d'Intelligence artificielle (IA) appliqués à la santé en allant au-delà de l'engouement qu'ils suscitent », indique au « Quotidien », le Pr Alastair Denniston, co-auteur de l'étude.
Sensibilités et spécificités similaires
Sur plus de 30 000 études identifiées dans différents domaines pathologiques (cancérologie, ophtalmologie…), 82 ont été retenues dans l'analyse. Parmi celles-ci, 69 disposaient de données suffisantes pour établir la sensibilité et la spécificité, 25 ont validé l'algorithme dans une cohorte externe (autre que celle ayant permis d'élaborer l'algorithme), et seules 14 ont comparé les performances du deep learning et des professionnels de santé pour un même échantillon. C'est à partir de ces 14 études que les auteurs ont pu montrer des performances similaires entre IA et professionnels avec respectivement une sensibilité de 87 % et une spécificité de 92,5 % contre 86,4 et 90,5 %.
Pour Olivier Colliot, responsable de l'équipe Aramis (Algorithmes, modèles et méthodes pour les images et les signaux du cerveau humain, intégrée au sein de l'Institut du cerveau et de la moelle épinière), il est toutefois difficile de tirer des conclusions de cette méta-analyse, car elle regroupe des éléments très différents que ce soit en termes de pathologie ou d'imagerie. « Plutôt que de répondre à la question "l'intelligence artificielle fait-elle aussi bien que les médecins ?", la question à poser est plutôt : pour telle tâche donnée, fait-elle mieux ? », précise-t-il.
Importance de la validation externe
Néanmoins, cette étude a l'intérêt de pointer les limites et les biais potentiels des études réalisées dans le domaine de l'IA. En plus de l'importance de la validation externe, un autre paramètre est essentiel, relève Olivier Colliot : le diagnostic de référence, qui permet d'établir les performances de l'IA et des professionnels de santé et dont les modalités vont varier d'une maladie à l'autre.
« L'IA est passionnante, mais nous devons rester consciencieux dans notre approche et veiller à concevoir des études de manière à ce que les patients, les chercheurs et les professionnels de santé puissent avoir confiance en leurs résultats », considère Alastair Denniston.
Un domaine à structurer
Olivier Colliot abonde dans ce sens : l'IA est un domaine émergent et porteur d'espoir qui doit se structurer. « Une réflexion doit s'ouvrir sur le niveau de preuve des algorithmes attendu pour une utilisation en routine, estime-t-il. Comme pour les médicaments, il faudrait qu'une démarche scientifique se mette en place pour évaluer et surveiller les algorithmes ».
Alors, les algorithmes pourront jouer tout leur rôle d'outil d'aide au diagnostic. « L'une des opportunités pour l'IA est aussi de fournir un diagnostic de niveau expert dans des endroits où il manque de médecins », précise Alastair Denniston.
(1) Liu X et al., Lancet Digit Health, https://doi.org/10.1016/S2589-7500(19)30123-2, 2019.
L’Académie de médecine s’alarme du désengagement des États-Unis en santé
Un patient opéré avant le week-end a un moins bon pronostic
Maladie rénale chronique : des pistes concrètes pour améliorer le dépistage
Covid : les risques de complications sont présents jusqu’à trente mois après hospitalisation