L’Intelligence Artificielle (IA) trouve de plus en plus d’applications en médecine au point où certains se demandent si elle ne risquerait pas de remplacer le médecin dans de nombreux aspects de son exercice professionnel. Dans cet article sont présentés quelques exemples d’IA en cardiologie, à titre d’illustration mais sans entrer dans les détails techniques rapidement complexes. Les avantages et les limites, les enjeux, les conséquences prévisibles (ou redoutées) de l’IA sur l’exercice médical et les aspects éthiques sont ensuite envisagés.

Pendant très longtemps, la médecine a surtout été réparatrice. Le traitement médical ou chirurgical a toujours eu comme but principal de soulager les symptômes de la maladie, faute de pouvoir assurer la guérison dans tous les cas. Grâce aux progrès diagnostiques et thérapeutiques, l’espérance de vie dans les pays développés s’est progressivement allongée pour atteindre en France environ 86 ans chez les femmes et 80 ans chez les hommes.

Récemment, certaines considérations se sont progressivement imposées dans la prise en charge des patients et la médecine est devenue celle des 4 P : plus Personnalisée dans son approche, Prédictive avec une meilleure évaluation du pronostic, Préventive avec, en particulier, une meilleure prise en charge des facteurs de risque et enfin Participative, le patient étant incité à devenir un acteur de sa santé. Ces 4 P pourraient être résumés en un cinquième, la médecine de Précision.

Parallèlement, la technologie en particulier dans le domaine diagnostique a considérablement évolué, avec l’introduction croissante de tous les progrès issus du numérique, dont une des formes les plus élaborées est l’Intelligence Artificielle.

De quoi parle-t-on ?

On entend par Intelligence Artificielle le recours à des machines (essentiellement de puissants ordinateurs) qui ont la capacité d’imiter le comportement humain intelligent. Le terme a été proposé en 1955 par John McCarthy et Marvin Minsky puis l’année suivante la conférence de Darmouth posa les fondements de cette discipline académique lors d’un colloque resté célèbre¹ . Le terme lui même pouvant prêter à confusion est actuellement contesté par beaucoup mais il est devenu consacré par l’usage. L’ « informatique heuristique* » serait plus appropriée mais l’expression peine à être acceptée.

* “art d’inventer, de faire des découvertes” (Dictionnaire Littré)

Ces machines sont « alimentées » par des données très nombreuses (« Big data ») et utilisent des algorithmes. L’origine de ce terme reste discutée. Pour certains il s’agirait du nom latinisé d’un mathématicien persan ayant vécu au IXè siècle, Muhammadal-al Khwarizmi. Pour d’autres, il serait issu du grec avec une double racine, Algos (douleur) et Rithmos (calcul). Autrement dit, ces algorithmes permettent d’effectuer, et de plus en plus rapidement, une suite finie d’opérations très complexes que l’homme ne pourrait pas effectuer seul sans « souffrance ». Dans l’apprentissage machine (« machine learning ») (Figure 1), on distingue selon le degré de l’intervention humaine 2 :

  • l’apprentissage supervisésupervised learning ») sous le contrôle de l’ingénieur ayant développé l’algorithme. La variable étudiée est prédéfinie (ce tracé ECG est-il en rythme sinusal ou en fibrillation atriale ?)
  • l’apprentissage non superviséunsupervised learning ») où la machine extrait des caractéristiques communes au sein d’une large population et peut faire apparaître des corrélations non prédéfinies ou « motifs cachés » voire des informations méconnues de « recherche inversée » conduisant à formuler de nouvelles hypothèses. Par exemple, l’identification de sous populations de patients plus sensibles que d’autres à l’effet d’un traitement. L’algorithme est aussi peu dirigé que possible et déduit ses propres règles à partir de l’environnement auquel il est soumis.
  • l’apprentissage par renforcement « reinforcement learning » où la machine se perfectionne en apprenant de ses propres erreurs à chaque étape et est en quelque sorte “récompensée”.

Quant à l’apprentissage profonddeep learning »), il s’agit de l’utilisation de « réseaux neuronaux profonds » (Deep Convolutional Neural Networks), métaphore proposée par analogie aux connections neuronales du cerveau des êtres vivants, traitant les informations successivement en plusieurs « couches cachées » (hyden multilayers CNNs) et qui peut être appliquée aux 3 techniques précédentes. (Figure 2).

L’apprentissage machine fait appel aux méthodes statistiques conventionnelles (régressions logistiques, corrélations diverses) mais qui se trouvent souvent dépassées par le volume des informations à traiter. Des méthodes plus sophistiquées sont alors utilisées (machines vectorielles, « forets de randomisation »). Les résultats obtenus sont présentés sous la forme habituelle de courbes ROC et de surface sous les courbes permettant de comparer les différents modèles utilisés pour tester l’hypothèse soumise à l’analyse par IA.

L’algorithme est développé en 3 phases successives : une phase d’entrainement de la machine qui est alimentée par de nombreuses données et ajuste ses paramètres algorithmiques, puis une phase de validation des résultats obtenus par comparaison avec un standard de référence (une autre méthode d’imagerie par exemple mais aussi parfois l’expertise humaine) et enfin une phase de test de l’algorithme sur des données nouvelles qui n’ont pas été utilisées lors de la phase d’apprentissage.

Citons à titre d’exemple la reconnaissance de l’image d’un chat par l’ordinateur. Par apprentissage profond supervisé, la machine va se perfectionner pour devenir (presque) aussi performante que l’homme après que lui auront été présentés des milliers d’exemples de chat, (alors qu’un enfant en bas âge saura reconnaître un chat et toutes ses variétés des races après avoir regardé moins de 10 photographies de cet animal). L’algorithme utilisé peut être choisi parmi les nombreux modèles existants ou être créé de novo selon la particularité ou la complexité du problème à résoudre. Pour rester performant, il ne doit être ni trop simple ni trop complexe et surtout non biaisé. Les biais algorithmiques sont une des principales causes d’erreur et doivent être préalablement soigneusement détectés (cf infra).

Quelques exemples d’IA en cardiologie ²-⁸

Par commodité et parce que les usages et les conséquences sur la prise en charge sont différents, on peut distinguer les applications utilisées par le cardiologue et celles qui sont conseillées ou «prescrites» au patient par le médecin (en particulier les objets connectés).

L’IA au service du cardiologue

Si le potentiel est considérable, il faut reconnaître qu’actuellement les indications réellement validées sont encore peu nombreuses. Parmi les plus abouties et performantes, citons celles de l’analyse d’images ⁴, ⁵.

En échographie, la reconnaissance automatique des contours endocardiques, la segmentation pariétale, le calcul des volumes ventriculaires et auriculaires ou les indices de déformation myocardique (strain) en échographie font appel à l’IA.

Une société française (DESKI) développe actuellement un algorithme indiquant à un opérateur non expérimenté la bonne position de la sonde d’échographie sur le thorax du patient pour recueillir les incidences standards. D’autres ⁵ utilisent des algorithmes d’apprentissage profond et de réseaux neuronaux pour établir une classification phénotypique de certaines affections comme les cardiomyopathies hypertrophiques ou infiltratives ou encore l’hypertension pulmonaire à partir de l’analyse de composants de l’image cardiaque issus d’une base de plusieurs milliers d’échocardiogrammes mais dont les caractéristiques sont peu ou pas spécifiques ou inappréciables par l’œil du médecin.

En IRM, l’estimation de la fraction d’éjection du ventricule gauche peut être effectuée sans aucun calcul de volumes mais par comparaison des images du patient à celles contenues dans une gigantesque base de données et ce avec une précision diagnostique équivalente à celle d’un expert.

L’appréciation de la FFR à partir des images de scanner coronaire a pu être comparée à celle de la mesure invasive avec une excellente performance diagnostique.

L’ECG est un autre domaine de recherche d’applications en IA. Le tracé soumis à l’analyse de la machine peut être un ECG 12 dérivations conventionnel ou un enregistrement de type holter (d’une durée plus ou moins prolongée) recueilli de façon habituelle ou par l’intermédiaire d’objets connectés. Les algorithmes d’apprentissage profond supervisé (puisque le diagnostic de l’anomalie électrocardiographique attendue est précisé) permettent ainsi d’identifier certains troubles du rythme, en particulier la fibrillation atriale. Le diagnostic d’autres anomalies est actuellement moins précis surtout lorsqu’il repose sur l’association de critères quantitatifs de durée et d’amplitude du signal. (ex: blocs auriculo ventriculaires, rythme idioventriculaire accéléré vs tachycardie ventriculaire…).

Dans un autre domaine, plusieurs algorithmes ont été développés pour évaluer le pronostic d’affections cardiovasculaires (Figure 3) : prédiction de survenue

d’évènements majeurs (MACE) après infarctus du myocarde ⁶ ou en cas d’insuffisance cardiaque congestive par exemple, avec une performance diagnostique supérieure à celle des scores de risque habituels.

En génétique, l’IA est utilisée pour mieux préciser les facteurs de risque et les profils de certaines cardiopathies et la réponse au traitement. Ces applications sont présentées à titre d’exemple, tant de nouvelles indications se font jour régulièrement mais avec des niveaux de développement et surtout de validation très variables qui ne permettent pas encore un usage répandu dans la pratique médicale quotidienne.

L’IA utilisée par le patient

Il s’agit des robots conversationnels (Chatbots) qui délivrent des conseils et des réponses pré préparées aux questions posées par le patient sur son état de santé, ses symptômes ressentis ou son traitement.

Par ailleurs, de nombreux objets connectés sont déjà mis à disposition. Les montres connectées (type Applewatch) permettent de détecter des irrégularités du rythme cardiaque et d’identifier avec une valeur prédictive positive de 71% une fibrillation atriale paroxystique ⁷ . Plus sophistiquée encore, la photo pléthysmographie faciale et digitale qui détecte la FA d’après les variations de la coloration sous cutanée analysée par l’appareil photographique du téléphone portable ⁸ ! L’application iHeartWatch en cours de développement permettra la mesure de la pression artérielle au poignet sans brassard.

Des vêtements connectés type Tshirt vont permettre l’enregistrement puis l’analyse après envoi sur le cloud de multiples paramètres tels qu’un ECG 12-15 dérivations, la fréquence respiratoire, l’impédance pulmonaire, etc…

 

Quels sont les avantages attendus de l’IA ?

Ses objectifs essentiels sont de rendre moins pénibles, plus précises et plus reproductibles les tâches répétitives, d’individualiser la prise en charge du patient (médecine Personnalisée), de procéder à la stratification du risque et à détection anticipée des complications (médecine Prédictive), d’appliquer des programmes automatisés de prévention (médecine Préventive) et, nous l’avons vu avec le recours aux objets connectés, de favoriser l’implication du patient dans sa maladie (médecine Participative).

On peut donc en attendre une prise en charge globale améliorée (médecine de Précision).

En termes de recherche clinique, le volume accru des données fournies à l’algorithme permet d’affiner la stratification des populations étudiées voire de faire apparaitre des corrélations inattendues et de formuler de nouvelles hypothèses (recherche dite « inversée », par exemple la mise en évidence de l’effet protecteur des statines vis à vis du cancer du sein chez la femme).

Enfin, on peut attendre in fine une amélioration de l’efficience médicale et une diminution de la iatrogénie, et donc des bénéfices économiques.

 

Limites des modèles proposés

Le cardiologue, le plus souvent peu familiarisé avec ces notions mathématiques et informatiques complexes, est contraint d’accorder sa confiance aux développeurs. Les variables entrées dans l’algorithme sont habituellement connues (données médicales au sens large) et les résultats fournis sont parlants pour le clinicien (analyse d’images cardiaques, ECG, données pronostiques, etc…). En revanche, le traitement par la machine elle-même reste obscur et évoque surtout l’image d’une « boite noire ».

De très nombreuses questions se posent

  • Les algorithmes utilisés sont-ils décrits précisément ou publiés dans les journaux scientifiques ? Les industriels (startups ou grandes sociétés) protègent souvent ces informations qu’ils considèrent comme des données secrètes. La Communauté Européenne a émis le souhait que les modèles utilisés soient standardisés et labellisés afin d’en étudier le contenu et de détecter les imperfections (biais algorithmiques introduits par erreur ou par méconnaissance, sinon par malveillance).
  • Comment les variables ont-elles été sélectionnées ? Sont-elles en adéquation avec la question posée ? Sont-elles réellement représentatives de la population étudiée, sans sur- ni sous-représentation, sans biais algorithmique ? Par exemple, les premiers algorithmes de reconnaissance faciale développés aux Etats Unis n’avaient pas été entrainés à reconnaître les peaux noires ! L’intégration de certaines variables comme l’appartenance à une ethnie ou la pratique d’une religion qui peuvent être pertinentes pour la question posée est autorisée dans certains pays et interdite dans d’autres.
  • Comment trouver le juste milieu entre un nombre limité de données fournies à la machine mais qui rend l’IA peu ou inutile et un excès de données qui brouille la précision du message et expose à un risque de fausses corrélations qui augmente de façon exponentielle avec leur accumulation.
  • Quel a été le standard de référence utilisé pour valider le modèle (autre technique comparative, expertise humaine ?)
  • Quelle est l’efficience réelle de l’algorithme en pratique médicale quotidienne ?

Toutes ces questions sont essentielles puisque l’usage des algorithmes médicaux a pour ambition d’être universel.

Enjeux éthiques et juridiques ⁹, ¹⁰

Vis à vis des médecins utilisateurs devenus « cybercompatibles », de nombreux scientifiques plaident pour une transparence complète de l’origine des sources et la traçabilité du recueil et de l’analyse des données. P

ar ailleurs, les droits du patient utilisateur doivent être respectés. Il doit être informé sur les indications, l’usage, l’accessibilité, les avantages et les limites de l’objet connecté utilisé. Certains proposent, par analogie avec la participation à une étude clinique, le recueil d’un consentement éclairé, surtout en cas d’utilisation potentielle des données personnelles précises. Enfin, les algorithmes eux-mêmes devraient pouvoir être l’objet de procédés de vérification régulière, ciblée et aléatoire, par une instance indépendante.

Quid du « profilage » ? La question se pose très concrètement par exemple vis à vis des renseignements collectés au cours de la prise d’un rendez-vous médical via l’application Doctolib (données personnelles d’état civil mais aussi spécialité médicale sollicitée voire type d’examen complémentaire demandé).

Peut-on identifier une « responsabilité algorithmique » ? Actuellement, le médecin est responsable de la mauvaise prescription d’un médicament et non le laboratoire pharmaceutique, sauf si l’information est erronée ou incomplète. L’utilisateur peut-il être considéré comme légalement responsable en cas de mésusage ou si l’algorithme utilisé est inadapté ou obsolète ? Pour reprendre un exemple souvent cité, le passager d’une voiture autonome pourra-t-il être considéré comme responsable en cas d’accident de la circulation ?

Les législations européennes et nationales encadrent juridiquement l’utilisation massive des données de santé. Du Règlement Général pour la Protection des Données (RGPD) au code de la Santé Publique en passant par les lois Informatique et Libertés, les données de santé du citoyen sont considérées comme « sensibles ». Mais dans le cas de l’IA, il faut en même temps protéger et innover. Dans le cadre du G7, la France et le Canada ont souhaité proposer des principes éthiques pour l’IA (Déclaration de Montréal pour le développement responsable de l’IA).

Le parlement européen a voté en 2017 une résolution appelant la Commission à définir la personnalité juridique des robots dépassant celle du programmateur. Cependant, une définition de l’IA au plan strict du droit reste à inventer.

 

Ce que n’est pas l’IA

Les algorithmes sont le reflet et la traduction des choix effectués par les programmateurs. Tous les biais et les imperfections qui peuvent exister résultent de facteurs humains. Leur détection est devenue une spécialité en algorithmie. Même si les machines ont la capacité d’apprendre et de s’améliorer, c’est l’homme qui fixe la direction. L’IA n’est pas comparable à l’intelligence humaine. Elle reproduit les opérations de l’esprit mais pas le fonctionnement du cerveau. Elle reproduit les résultats de l’intelligence humaine mais pas ses processus. La machine construit des lois empiriques mais ne peut inventer de nouveaux concepts, a fortiori inédits. L’IA n’a pas de valeurs morales ni d’autonomie au sens philosophique. Contrairement à l’humain caractérisé par son intelligence émotionnelle, elle n’a pas de libre arbitre, de « sens commun » lui permettant de gérer l’incertitude, la nouveauté ou l’imprévu. Elle est dépourvue d’intuition illogique, d’imagination, d’intention. L’IA ne pense pas, ne souffre pas, n’aime pas. Il ne faut pas anthropomorphiser les robots ¹¹.

 

L’IA va-t-elle remplacer le cardiologue ?

Aux yeux de certains, les capacités actuelles de l’IA en médecine apparaissent surestimées voire fantasmées. Les outils étant de plus en plus perfectionnés et difficiles à appréhender, la mauvaise compréhension des systèmes est à l’origine des craintes et des peurs. L’IA ne remplace pas le médecin mais utilise son expertise pour développer des procédures. Les formes traditionnelles de savoir du médecin restent nécessaires en amont de la conception de l’algorithme. Pour remplacer certaines tâches des cardiologues, il faut former … des cardiologues à l’IA. Ces machines doivent rester des outils au sujet desquels l’information et la formation sont indispensables pour éloigner les craintes et ce dès les études de médecine puis tout au long de l’exercice professionnel. Il s’agit d’un véritable accompagnement au changement et à la transformation du métier de médecin.

Même si les applications en cardiologie sont encore peu nombreuses, tout laisse à penser qu’elles vont se développer rapidement. Il ne faut donc pas craindre les capacités des machines mais plutôt s’interroger sur l’usage que peut en faire le médecin ¹².
Si le niveau d’attente est trop élevé, la déception ou la désillusion peuvent survenir.

Certaines applications facilitent et améliorent la précision de tâches répétitives comme les analyses d’images ou d’ECG. D’autres, issues du traitement d’un très grand nombre d’informations fournies à la machine ou extraites de bases de données nationales (tel que le SNIIRAM géré par l’assurance maladie) ou internationales, concernent les tâches que les médecins effectuent eux-mêmes parfois avec difficulté comme le recueil de données pronostiques ou l’établissement de thérapeutiques réellement personnalisées.

Dans l’exercice professionnel médical, les différents algorithmes offrent de réelles opportunités pour faciliter et assurer avec efficacité, et dans certains cas avec une précision accrue, ces tâches répétitives. L’IA ne se substitue pas au cerveau biologique mais le complète. Mais le diagnostic final, préalablement facilité ou rendu plus précis par l’algorithme, puis la prise en charge aidée par la machine restent du domaine de l’appréciation et de la responsabilité du médecin.

Dans l’idéal, le bénéfice attendu devrait être de libérer du temps médical consacré à la relation médecin-patient, au dialogue singulier alors que les chatbots ne sont pas capables de dialoguer (en tout cas la « conversation » devient imprécise dès que la personnalisation des questions augmente). Le robot capable de réconforter un patient en état de souffrance ou de trouver les mots justes pour annoncer une mauvaise nouvelle n’existe pas encore.

La médecine curative (Cure), même des 4P, doit être complétée par l’intelligence émotionnelle (Care) basée sur l’empathie, la bienveillance, la sollicitude, le respect, l’appréhension morale du patient par le médecin, toutes ces qualités étant hors de portée de l’IA.

Cette IA qui envahit notre quotidien, celle des ingénieurs, mathématiciens et développeurs, est dite « faible » par opposition à une « IA forte », celle de la science fiction. Certains prédisent l’avènement, même lointain, du « point de singularité* technologique» 13 où une supra intelligence algorithmique dépasserait l’intelligence humaine, reproduirait le fonctionnement de l’esprit, en particulier la conscience. La technologie devenue complètement autonome s’affranchirait de la tutelle humaine au delà de toute limite assignable. C’est l’évolution vers la transhumanité.

Pour conclure, entre catastrophisme et Hubris, il faudra transformer cette ambition technologique, puisqu’ inéluctable qu’est l’IA, en un horizon désirable et utile.

 

Pascal Gueret 

L’auteur déclare ne pas avoir de liens d’intérêt en rapport avec cet article.
* Point hypothétique de son évolution technologique où la civilisation humaine connaitra une croissance d’un ordre supérieur.

 

RÉFÉRENCES

1. A proposal for the Darmouth summer research project on artificial intelligence, August 31, 1955 ». www.aaai.org.

2. C Krittanawong, KW Johnson, RS Rosenson et al. Deep learning for cardiovascular medicine : a practical primer. Eur. Heart. J. 2019 ; 40 : 2058-2073.

3. KW Johnson, J Torres Soto, B.S Glicksberg et al : Artificial intelligence in cardiology. JACC 2018, 71 : 2668-2679.

4. SJ Al’Aref, K Anchouch, G Sing et al. Clinical applications of machine learning in cardiovascular disease and its relevance to cardiac imaging. Eur. Heart. J. 2019, 40 : 1975-1986.

5. J Zhang, S Gajjala, P Agrawal et al. Fully automated echocardiogram. Interpretation in clinical practice. Circulation 2018 ; 138 : 1323-1335.

6. WJ Gibson, T Nafee, R Travis et al. Machine learning versus traditional risk stratification methods in acute coronary syndrome : a pooled randomized clinical trials analysis. J. thrombosis and thrombolysis. https://doi.org/10.1007/s11239-019-01940-8.

7. MV Perez, KW Mahaffey, H Hedlin et al. Large scale assessment of Smartwatch to identify atrial fibrillation. N. Eng. J. Med. 2019 ; 381 : 1909-17.

8. BP Yan, WHS Lai, CKY Chan et al. Contact-free screening of atrial fibrillation by a smartphone using facial pulsatile photoplethysmographic signals. J. Am. Heart. Assoc 2018 ; 7 : e008 585.

9. Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle. Analyse et recommandations du CNOM. Janvier 2018.

10. Données massives et santé. Une nouvelle approche des enjeux éthiques. Avis du CCNE, rendu public le 29 mai 2019.

11. Gaspard Koenig. La fi n de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle. Editions de l’Observatoire. 2019.

12. G Barone-Rochette. Will artificial intelligence change the job of the cardiac imaging specialist ? Archives of cardiovascular disease. 2020 ; 113 : 1-4.

13. Jean-Gabriel Ganascia. Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ? Editions Seuil. 2017.

Commentaire(0)