Aller au contenu

Intelligence artificielle dans la santé

Un article de Wikipédia, l'encyclopédie libre.
Rayon X d'une main, avec calcul automatique de l'âge osseux par un logiciel informatique.

L'intelligence artificielle (IA) dans la santé (santé numérique ou e-santé) est l'utilisation d'algorithmes et de logiciels, ainsi que de robots pilotés par l'IA, pour, en s'approchant de la cognition humaine dans l'analyse et l'utilisation de données médicales complexes, ainsique des savoirs et savoir-faire (en chirurgie notamment), au profit d'une médecine plus personnalisée et d'une détection plus précoce des maladies, des soins améliorés (en ambulatoire notamment)[1], d'une automatisation des analyses faites sans intervention humaine directe.

L'IA est une technologie paradoxale et à double tranchant[2], qui a évolué rapidement ces dernières décennies, passant des premiers systèmes experts aux réseaux de neurones dédiés à l'apprentissage profond qui ont dans les années 2020 des applications encore émergentes, mais rapidement croissantes, dans la santé humaine et vétérinaire et dans la pharmacologie. L'IA est par exemple utilisée pour le diagnostic précoce ; pour des soins plus personnalisés ; pour la prédiction des épidémies ; la gestion des données médicales et la recherche, mais elle a bien d'autres usages possibles. Son efficacité dépend beaucoup de la qualité des données utilisées pour l'apprentissage des modèles d'IA. La collecte, la normalisation/anonymisation et la confidentialité de ces données sont des enjux du domaine tels qu'on cherche parfois à les remplacer par des données synthétiques. Les modèles d'IA et les modèles de langage tels que ChatGPT tranforment la relation médecin-patient : ils doivent aussi être compréhensibles pour les professionnels de santé ; l'opacité des modèles profonds est donc un défi. Un autre défi est d'allier ces avancées technologiques à une meilleure prise en compte de leurs impacts énergétiques, sociotechniques, climatiqueset environnementaux, dans une approche systémique de la santé humaine, animale et environnementale[3]. L'intégration de l'IA dans les services de santé pose des défis éthiques, organisationnels, réglementaires et systémiques dans précédents[2].

Parmi les objectifs de l'IA dans le domaine de la santé figurent :

  • l'aide à la décision, en temps réel ou différée, aux professionnels du soin, pour la prévention, le diagnostic, le traitement (dont choix du type et dosage de médicament), le suivi du patient (« grâce au numérique et au pilotage par les données – en établissement, en ville ou à domicile »)[4], des éponse rapide aux questions médicales ;
  • l'aide à la formation des soignants, des tiers-aidants ;
  • l'aide aux patients (conseils de prévention, prises de rendez vous, réponse à certaines questions, formation, et soutien émotionnel disponible 24h/24 ;
  • l'automatisation de tâches administratives (prise et gestion de rendez-vous, aide à la codification, rédaction automatique de brouillons de rapports médicaux), aide à la prise de décisions cliniques et à la conduite d'essais cliniques.
  • l'amélioration de la recherche médicale (génétique, toxicologie, pharmacologie, imagerie médicale, diagnostic, pronostic...)
  • une analyse plus fine des relations entre la prévention, les traitements et, d'autre part, l'état de santé des patients[5]. L'IA améliore le diagnostic (notamment dans le domaine de l'imagerie médicale et des analyses biologiques), le protocole de traitement, le développement, choix et dosage de médicaments, pour une médecine personnalisée ;
  • des soins plus personnalisés, leur évaluation et suivi. Ex : des institutions médicales telles que la Mayo Clinic, le Memorial Sloan Kettering Cancer Center[6], le Massachusetts General Hospital[7] ainsi que le National Health Service[8] ont développé des algorithmes d'IA pour leurs services. Les grandes entreprises de technologie comme IBM[9] et Google ainsi que des startups comme Welltok et Ayasdi[10] ont également développé des algorithmes d'IA pour la santé.

Dans les années 1960 et 1970, des méthodes d'IA émergent dans le champs de la médecine, issues de connaissances acquises dans d'autres domaines. Elles impliquent de nouveaux modes d'organisation et de structuration des connaissances d'experts des domaines cliniques et biomédicaux. Elles se basent sur des modèles causaux, taxonomiques, associatifs, le diagnostic différentiel[11],[12],[13],[14],[15], des règles[16] et des cadres formels de raisonnement probabiliste[17]. En 1975, des prototypes sont testés cliniquement ; laRutgers Research Resource on Computers in Biomedicine lance des ateliers sur l'IA en médecine où les perspectives du domaine sont discutées, en s'appuyant sur l'expérience pionnière SUMEX-AIM (réseaux informatiques biomédicaux) de l'université de Stanford[18].

la Recherche a produit un système expert, programme de résolution de problèmes baptisé Dendral[19]. Conçu pour des applications de chimie organique, il a jeté les bases de son successeur immédiat : le système MYCIN[20],[21], considéré comme l'un des plus importants usages pionniers de l'intelligence artificielle en médecine[22], puis Internist-1 et CASNET qui n'ont cependant jamais intégré le quotidien des professionnels[23].

Dans les années 1980 et 1990, le micro-ordinateur s'est généralisé, ainsi que les autoroutes de l'information, autorisant de nouveaux niveaux de « connectivité réseau », préparant une possible arrivée d'objets connectés (capteurs médicaux y compris). Les chercheurs et les développeurs estiment alors que les systèmes d'IA en santé devraient aussi pouvoir pallier l'absence de données parfaites, et appuyer l'expertise médicale[24]. Les approches impliquant la logique floue (théorie de l'ensemble flou)[25], les réseaux Bayésiens[26] et les réseaux de neurones artificiels[27],[28] commencent a être appliquées aux systèmes informatiques intelligents du domaine de la santé.

Dans les années 2000, de nouvelles applications de l'IA sont permises grâce à des améliorations dans la puissance de calcul plus rapides pour la collecte de données et le traitement de données ; une augmentation du volume et de la disponibilité des données liées à la santé des particuliers et des soins de santé liés à des dispositifs ; la croissance du séquençage génomique des bases de données ; la mise en œuvre généralisée des systèmes de gestion de dossiers de santé électroniques ; des améliorations dans le traitement du langage naturel et la vision par ordinateur, permettant à des machines de reproduire et parfois dépasser les processus humains de perception et d'analyse. La chirurgie robotisée gagne aussi en précision.

Au début des années 2020, alors que l'IA générative fait des progrès spectaculaires lui permettant à la fois, pradoxalement ou de manière ambialente[2], de proposer des médicaments nouveaux, et des molécules toxiques sans antidotes connus, les 5 pays les plus avancés dans ce domaine sont la Chine (qui a annoncé en juillet 2017 lancer un plan visant à ce que cette industrie génère plus de 20 milliards de dollars à horizon 2020 et près de 60 milliards de dollars avant 2025), les États-Unis, Israël, le Canada et le Royaume-Uni[29].
Des études montrent une acceptabilité plutôt bonne en termes de confiance pour les IA spécialisées dans le domaine médical[30], y compris chez certains éthiciens[4], mais, alors que certains, depuis 2018, songent à associer la blockchain (très énergivore) à l'informatique médicale[31],[32], et en particulier à la tracabilité de la logistique pharmaceutique[33],[34] et médicale[35], à la télémédecine[36],[37], à l'internet des objets (IOT)[38],[39] et au machine learning[40], dont pour mieux détecter la pseudomédecine et les arnaques médicales[41] ; ces progrès se payent en coûts environnementaux ; en terme d'empreinte écologique et énergétique dans un monde « contraint par le réchauffement climatique et le dépassement des limites planétaires, menaçant la santé humaine[42] et le fonctionnement même du système de santé[43]. Le rapport de la Délégation ministérielle du numérique en santé et la planification écologique du système de santé du gouvernement français confirment la nécessité de maîtriser l'impact environnemental du numérique en santé. En effet, en dépit des promesses de dématérialisation, le numérique est une industrie très matérielle, engendrant émissions de gaz à effets de serre[44], consommation problématique de ressources en eau et minerais et impacts sociaux (...) La compréhension des conséquences du numérique et de l'intelligence artificielle, et des phénomènes tels que l'effet rebond, est un préalable indispensable à la mise en œuvre d'une pathologie numérique sobre, responsable et durable »[3].

Recherche contemporaine

[modifier | modifier le code]

Au delà de l'utilisation de système expert codant les connaissances pour les utiliser sur des scénarios cliniques spécifiques, c'est l'apprentissage automatique qui offre la possibilité d'utiliser de nouveaux types de données dont le volume ou la complexité auraient rendu l'analyse inimaginables[45].

En 2016, l'OMS publie un guide pratique pour la recherche et l'évaluation en santé numérique[46].

Dans les années 2020, toutes les spécialités de la médecine sont directement ou indirectement concernées par l'IA. La première ayant attiré l'attention est l'interprétation radiographique, puis d'autres types d'imagerie médicale, mais l'avènement de l'IA générative pourrait aussi changer la relation patient-médecin et à la maladie. Le pays le plus avancé dans ce domaine est la Chine (qui a lancé en juillet 2017 un plan de développement national visant à générer plus de 20 milliards de dollars de revenus ou valeur à horizon 2020, et près de 60 milliards de dollars pour 2025)[47]. Viennent ensuite les États-Unis, Israël, le Canada et le Royaume-Uni[47].

Les recherches menées par l'entreprise Neuralink se concrétisent avec une puce qui allierait intelligence humaine et artificielle, principalement destinée à la médecine, par exemple contre, l'épilepsie, la dépression ou de permettre aux personnes paralysées d'écrire, parler ou se déplacer [48].

L'IA peut détecter un changement infime dans une image, ou un indice qu'un clinicien pourrait avoir accidentellement raté. Une telle étude qui a intégré l'IA en radiologie Stanford : les résultats montrent que l'algorithme créé peut détecter la pneumonie mieux que les radiologues. La Conférence de la Société de Radiologique de l'Amérique du Nord a orienté une grande partie de sa recherche dans l'utilisation de l'IA dans l'imagerie.

En septembre 2022, le logiciel BoneView de la start-up Gleamer permet aux radiologues de l'hôpital Paris Armand Trousseau de détecter correctement les fractures chez les personnes âgées et jeunes. La capacité à détecter les fractures, qui était de 73,3 %, est passée à 82,8 % avec l'intelligence artificielle[49].

Psychiatrie

[modifier | modifier le code]

En psychiatrie, après des systèmes experts testés dans les années 1980, par exemple avec Psyxpert, programmé pour aider les psychiatres à diagnostiquer les problèmes psychiatriques[50]. 40 ans plus tard, les applications de l'IA sont encore expérimentales, mais semblent prometteuses. Les domaines où les preuves s'élargissent rapidement comprennent les chatbots, des agents conversationnels qui imitent le comportement humain et qui ont été étudiés pour l'anxiété et la dépression[51].

Parmi les défis à relever, on peut citer le fait que de nombreuses applications dans ce domaine sont développées et proposées par des entreprises privées, comme le dépistage des idées suicidaires mis en place par Facebook en 2017[52]. Ces applications en dehors du système de santé soulèvent diverses questions professionnelles, éthiques et réglementaires[53].

Cancérologie

[modifier | modifier le code]

En 2018, une équipe de chercheurs français est parvenus à entraîner un ordinateur à analyser des images pour évaluer l'efficacité d'une immunothérapie[54]. L'IA peut faciliter les soins en ambulatoire (hors des murs de l'Hôpital) et améliorer « l'éducation et l'information des patients et soignants, la prévention, le dépistage et le diagnostic, le suivi sous traitement, la surveillance et la recherche »[1]


La télésanté

[modifier | modifier le code]

L'augmentation de la Télémédecine a montré la montée possible de demande en IA. La capacité de surveiller les patients (à l'aide de l'IA) peut permettre la communication de l'information aux médecins, si la présence d'une maladie est décelée. L'utilisation d'un dispositif porté par une personne peut permettre une surveillance constante du patient et déceler des changements difficilement décelables[55].

Les maladies chroniques et l'éducation thérapeutique

[modifier | modifier le code]

En 2017, des études montrent que l'utilisation de capteurs connectés est utile pour les personnes qui ont déjà choisi de changer de comportement ; l'aide des soignants reste essentielle pour amener une personne à modifier son comportement dans le cadre d'une action d'éducation thérapeutique[56]. Il existe des évidences scientifiques pour le diabète et les maladies coronariennes concernant les bénéfices des applications qui permettent aux patients d'introduire leurs données pour la gestion de leur affection. Cependant la majorité de ces patients souffrent généralement de plusieurs maladies chroniques. ce qui réduit l'avantage de l'utilisation ces applications[56].

L'industrie

[modifier | modifier le code]

Le subséquente motif de grande base la santé les sociétés de la fusion avec d'autres sociétés de produits de santé, en permettant une meilleure santé de l'accessibilité des données. Plus de données sur la santé pourraient permettre plus de la mise en œuvre d'algorithmes d'IA. Les exemples suivants sont des exemples de grandes entreprises qui ont contribué à des algorithmes d'IA pour une utilisation dans les soins de santé.

IBM Watson Oncologie est en cours de développement au Memorial Sloan Kettering Cancer Center et de la Clinique de Cleveland. IBM travaille également avec CVS de la Santé sur l'IA des applications dans les maladies chroniques, le traitement et avec Johnson & Johnson sur l'analyse d'articles scientifiques à trouver de nouvelles connexions pour le développement de médicaments.

Le projet Hanover de Microsoft analyse de la recherche médicale pour prédire le plus efficace du cancer de la drogue options de traitement pour les patients. D'autres projets incluent l'analyse d'images médicales de tumeurs et le développement programmable de cellules[57].

La plateforme DeepMind de Google est utilisée par le National Health Service du Royaume-Uni pour détecter certains risques pour la santé à travers les données collectées via une application mobile. Un deuxième projet avec le NHS implique une analyse des images médicales recueillies sur les patients pour développer des algorithmes de vision par ordinateur permettant de détecter les tissus cancéreux.

Google DeepMind a également conçu Alphafold, un système d'intelligence artificielle basé sur l'apprentissage profond qui permet de prédire la façon dont des protéines se replient. Cette nouvelle méthode, introduite en 2018 et améliorée en 2020, est nettement plus rapide que les approches traditionnelles et a été décrite comme une révolution dans le domaine de la recherche en biologie[58],[59].

Le fonds de capital-risque d'Intel, Intel Capital, a récemment investi dans la start-up Lumiata qui utilise l'IA pour identifier les patients à risque et développer des options de soins[60].

Predictive Medical Technologies utilise des données d'une unité de soins intensifs pour identifier les patients susceptibles de subir des incidents cardiaques. Modernizing Medicine utilise les connaissances recueillies auprès de professionnels de la santé ainsi que les données des patients pour recommander des traitements[61]. Nimblr.ia utilise un dialogueur d'IA pour automatiser la programmation et la confirmation des patients, tout en raccordant ces informations avec les dossiers patients électroniques[62]. AZmed aide les radiologues et urgentistes dans leur diagnostic en radiographie standard à l'aide d'algorithmes d'apprentissage profond[63].

Des applications digitales pour consultants comme Babylone (basée au Royaume-Uni) utilisent l'IA pour donner des consultations médicales[64] fondées sur les antécédents médicaux personnels et la connaissance médicale. Les utilisateurs décrivent leurs symptômes à l'application, qui utilise la reconnaissance vocale pour comparer les informations à une base de données des maladies. Babylone donne alors une recommandation, en tenant compte de l'historique médical de l'utilisateur.

En 2023, la version de ChatGPT basée sur GPT-4 s'est montrée capable d'obtenir le diplôme de médecin aux États-Unis[65].

Limites, risques et régulation

[modifier | modifier le code]

En 2024, il n'y a que peu de réglementation cadrant clairement l'utilisation de l'IA dans le domaine spécifique et sensible des données de santé et des soins médicaux.

Malgré des progrès spectaculaires, notamment depuis les années 2020, l'utilisation de l'IA (en général, et dans les soins de santé en particulier) a des limites (hallucinations encore possibles) et des biais algorithmiques, source de discrimination, de stéréotypes et d'iniquité, ou de perte de performance de certains modèles d'IA (parfois pourtant validés par une autorité de santé) quand on les utilise dans un contexte différent de celui correspondant à leurs données d'apprentissage[66].

L'IA peut aussi poser des problèmes de perte de vie privée.

Dans d'autres domaines (publicité, réseaux sociaux, propagande militaire, politiques ou religieuse notamment), elle est très utilisée pour l'influence, la désinformation, la captation du temps de cerveau, avec des conséquences sociétales importantes[67]. La forme très anthropomorphique des jeux de questions/réponses avec les chatbots (de SIRI à ChatGPT...) peut conduire à une confiance exagérée de leurs utilisateurs[67],[68], et en 2024, l'algorithme de recommandation de TikTok commence à être utilisé comme moteur de recherche par 40 % des jeunes qui le préfèrent à Google. Durant la pandémie de Covid-19, la prolifération, sur les réseaux sociaux, de prépublications scientifiques (dont le nombre a dépassé celui des études relues par des pairs), d'analyses personnelles et de fausses nouvelles a montré la nécessité pour des applications telles que chat-GPT de citer ses sources et d'être en mesure de qualifier leur niveau de qualité[69].

On ignore encore ses effets sur le marché de l'emploi. Elle peut indirectement être consommatrice d'énergies carbonées[67], et de ressources informatiques.

Des questions éthiques complexes se posent, par exemple liées aux ordonnances de « ne pas réanimer » ou à l'absence de moralité des machines posent des défis et suscitent un besoin de réglementation[70]. En , la Maison-Blanche a annoncé une série d'ateliers et de formations dispensés par le sous-comité de Machine Learning et de l'Intelligence Artificielle du National Science and Technology Council (NSTC)[71]. En , le groupe a publié La Recherche Nationale sur l'Intelligence Artificielle et le Plan Stratégique de Développement, présentant ses propositions prioritaires pour la R&D dans l'IA, recherche financée par le gouvernement fédéral. Le rapport propose un plan stratégique de R&D pour le sous-champ des technologies de l'information de la santé en plein développement[72].
En 2019, en France, la Haute Autorité en Santé (HAS), publie ses recommandations sur l'évaluation et la certification des dispositifs médicaux connectés (DMC). Ce guide concerne les applications disposant d'une fonction de télécommunication éventuellement liée à une intelligence artificielle et utilisés à des fins médicales par le patient[73]. L'étude de la HAS conclut que « les méthodologies d'études se rapportant à un dispositif médical connecté ne se distinguent pas de celles des autres dispositifs médicaux ». Néanmoins les dispositifs médicaux connectés se distinguent par leur rapidité d'évolution, l'impact sur les patients et sur l'organisation des soins et l'interaction avec d'autres systèmes[74]. La France crée le Health Data Hub afin de simplifier et encadrer l'utilisation des données de santé. Le , le Health Data Hub lance un premier appel à projets qui donne lieu à la sélection de 10 projets lauréats le .

En Europe, le Règlement Général sur la Protection des Données (RGPD), concernant les patients au sein de l'UE, détaille les exigences en matière de consentement pour l'utilisation des données des patients lorsque des entités collectent des données de santé des patients.

Le personnel médical dot être formé pour utiliser l'IA à bon escient. L'IA peut être utilisée pour améliorer la formation des médecins, infirmières, psychologues, etc. grâce notamment à la simulation médicale réaliste[68].

Aspects et défis éthiques

[modifier | modifier le code]

Depuis le début des années 2020 notamment, les usages de l'intelligence artificielle et de l'apprentissage automatique[75],[76] sont en pleine expansion dans la plupart des champs de la santé. Les médias ont largement relayé[77] les discours sur améliorer la prévention, les soins aux patients, la technique et la clinique médicale, la médecine personnalisée, la médecine de précision… dans les établissements de soins de santé comme dans la vie courante.

La médecine et la société sont confrontés à de nouveau dilemmes et défis éthiques, complexes, voire imprévisibles, incluant un risque de surveillance généralisée, de « dystopies où règneraient une systématisation de l'exploitation par « les Machines » de nos données de santé au détriment de toute vie privée, voire de tout libre arbitre », risque en France mis en balance avec les bénéfices attendus, par le rapport (2019) du Groupe de travail sur les enjeux éthiques du numérique et de l'intelligence artificielle (IA) co-dirigé par Claude Kirchner pour le Comité consultatif national d'éthique (CCNE) dans le cadre de la préparation de la révision bioéthique[4] (quid de l'homme augmenté par exemple ? ou du croisement des nanotechnologies, des objets connectés et de la blockchain avec la médecine et l'intelligence artificielle ?[78]), alors que d'autres défis sont encore à relever sur les questions de partialité, de protection des données de santé et de la vie privée ; sur les inégalités de santé, les biais algorithmique, la complexité de la confidentialité algorithmique, de l'anonymat et de l'anonymisation dans ce contexte (cf. utilité de données personnalisées pour la médecine personnalisée, et capactité des IA à désanonymiser certaines données), le consentement éclairé ; la cybersécurité en santé, le manque de transparence, d'explicabilité et de « responsabilité » de certaines IA (quid du secret commercial, secret des affaires, du secret de fabrication, ou de l'erreur médicale dans ce contexte). Les impacts sur les relations médecin-patient sont encore à évaluer[79]. Des biais (raciaux[80] et autres[81]) à l'empathie[82] et à la compassion[83], l'intelligence artificielle suscite de nombreux débats philosophiques, éthiques et moraux qui se croisent avec les quatre piliers de l'éthique médicale[84] que sont :

  1. l'autonomie (le patient conserve dans la mesure du possible, une indépendance de pensée et de prise de décision, son consentement est pleinement éclairé) ;
  2. la justice (les traitements ou médicaments nouveaux, rares ou chers devraient être partagés de manière équitable ; les fardeaux et les avantages devraient être répartis entre tous les groupes) ;
  3. la bienfaisance (intention de faire du bien au patient) ;
  4. la non-malfaisance (ne pas nuire au patient, ni à la société dans son ensemble).

En 2024, des chercheurs, face aux risques identifiés par diverses études, plaident pour la mise en place rapide d'une éthique spécifique de l'IA dans le domaine de la médecine[85]. En Europe, une « initiative Ethik-IA » vise une régulation de l'IA s'appuyant sur la législation existante en France et dans l'UE ; sans surprotection ni déréglementation ; c'est à dire ne freinant pas le développement des promesses d'innovations liées à l'IA et à la robotisation en santé[86].

En 2018, le Comité consultatif national d'éthique français (CCNE), dans le cadre de la révision de la loi de bioéthique s'est prononcé très favorablement en faveur de l'IA en médecine, quoi qu'avec quelques précautions[4] :

  1. . « Le CCNE considère comme prioritaire la diffusion du numérique en santé, et souhaite qu'en l'état des recherches et du développement de ces technologies, le recours au droit opposable soit circonscrit au maximum. Compte tenu des marges de gains de qualité et d'efficience permises par un recours élargi au numérique dans notre système de santé, mettre en œuvre une logique bloquante de réglementation ne serait pas éthique. Il propose par ailleurs que soit engagée au cours des prochains mois une réflexion sur la création d'instruments de régulation de type “droit souple”, applicables à la diffusion du numérique au sein de notre système de santé, avec un rôle de supervision générale qui pourrait être dévolu à la Haute Autorité de santé. Un tel cadre permettrait de renforcer l'efficacité et l'efficience de notre système de santé, tout en conservant la souplesse opérationnelle nécessaire à l'accompagnement de l'innovation[4] ».
  2. . « Le CCNE propose que soit inscrit au niveau législatif le principe fondamental d'une garantie humaine du numérique en santé, c'est-à-dire la garantie d'une supervision humaine de toute utilisation du numérique en santé, et l'obligation d'instaurer pour toute personne le souhaitant et à tout moment, la possibilité d'un contact humain en mesure de lui transmettre l'ensemble des informations la concernant dans le cadre de son parcours de soins[4] » ;
  3. . « Le CCNE juge nécessaire que toute personne ayant recours à l'intelligence artificielle dans le cadre de son parcours de soins en soit préalablement informée afin qu'elle puisse donner son consentement libre et éclairé[4] »v
  4. . « Le CCNE souhaite que cette révolution numérique ne pénalise pas les citoyens du non-numérique qui sont souvent en situation de grande fragilité, particulièrement dans le domaine de la santé[4] » ;
  5. . « Le CCNE propose que soit créée une plateforme nationale sécurisée de collecte et de traitement des données de santé pour articuler entre eux les différents enjeux éthiques afférents aux données de santé[4] » ;
  6. . « Le CCNE va s'engager pleinement dans les réflexions éthiques relatives au domaine du numérique et de la santé, et d'autre part se propose d'aider à la préconfiguration d'un comité d'éthique spécialisé dans les enjeux du numérique[4] »

En France, des projets de Big Data (ConSoRe, un moteur de recherche dédié à la cancérologie ; Health Data Hub..) doivent contribuer a améliorer la qualité de la donnée nécessaire aux IA et l'accès à ces données[1].

Investissements gouvernementaux

[modifier | modifier le code]

En 2015, le gouvernement des États-Unis annonce investir dans l'IA pour la santé[71] à hauteur d'un milliard de dollars pour le Cancer Moonshot[87] et de 215 millions de dollars pour la médecine de précision[88].

Les investissements ne sont pas que financiers : ainsi, en Norvège, le réseau KIN (Kunstig Intelligens i Norsk Helsetjeneste - Intelligence Artificielle dans le service de santé Norvégien) associe des professionnels de la santé et de l'informatique pour une transition soutenable, en encourageant le partage de connaissances et la collaboration avec les politiciens et les administrateurs en charge de la santé pour surmonter les incertitudes liées à l'IA, tout en tenant compte des réalités cliniques et sociopolitiques[89]. De nombreux pays adoptent une approche similaire pour mieux intégrer l'IA dans le domaine de la santé[89].

Notes et références

[modifier | modifier le code]
  1. a b et c François Bertucci, Anne-Gaëlle Le Corroller-Soriano, Audrey Monneur et Sylvain Fluzin, « Santé numérique et « cancer hors les murs », Big Data et intelligence artificielle », Bulletin du Cancer, vol. 107, no 1,‎ , p. 102–112 (DOI 10.1016/j.bulcan.2019.07.006, lire en ligne, consulté le )
  2. a b et c (en) Veysel Bozkurt et Dogan Gursoy, « The Artificial Intelligence Paradox: Opportunity or Threat for Humanity? », International Journal of Human–Computer Interaction,‎ , p. 1–14 (ISSN 1044-7318 et 1532-7590, DOI 10.1080/10447318.2023.2297114, lire en ligne, consulté le )
  3. a et b Thomas Guillory, Cyprien Tilmant, Alexis Trécourt et Lucie Gaillot-Durand, « Impacts environnementaux du numérique et de l'intelligence artificielle, à l'heure de la pathologie digitale », Annales de Pathologie,‎ (DOI 10.1016/j.annpat.2024.05.006, lire en ligne, consulté le )
  4. a b c d e f g h i et j David Gruson, « Le numérique et l'intelligence artificielle en santé : surveillance généralisée ou avancée majeure ? », Les Tribunes de la santé, vol. 60, no 2,‎ , p. 23–29 (ISSN 2678-9035, DOI 10.3917/seve1.060.0023, lire en ligne, consulté le )
  5. E. Coiera (1997) Guide to medical informatics, the internet and telemedicine Chapman & Hall, Ltd.
  6. Power B (2015)Artificial Intelligence Is Almost Ready for Business [1], 19 mars
  7. Manisha Bahl, « High-Risk Breast Lesions: A Machine Learning Model to Predict Pathologic Upgrade and Reduce Unnecessary Surgical Excision », Radiology, vol. 286, no 3,‎ , p. 810–818 (PMID 29039725, DOI 10.1148/radiol.2017170549, lire en ligne)
  8. S. Bloch-Budzier, NHS using Google technology to treat patients [2], 22 novembre 2016
  9. L. Lorenzetti, Here's How IBM Watson Health is Transforming the Health Care Industry [3], 5 avril 2016
  10. CB Insights Artificial Intelligence report, 28 juin 2016, [4]
  11. MARTIN LIPKIN, « Digital Computer as Aid to Differential Diagnosis », Archives of Internal Medicine, vol. 108, no 1,‎ , p. 56 (ISSN 0003-9926, DOI 10.1001/archinte.1961.03620070058008, lire en ligne, consulté le )
  12. Martin Lipkin et James D. Hardy, « Differential Diagnosis of Hematologic Diseases Aided by Mechanical Correlation of Data », Science, vol. 125, no 3247,‎ , p. 551–552 (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.125.3247.551, lire en ligne, consulté le )
  13. Benjamin Kleinmuntz et Robert S. McLean, « Diagnostic interviewing by digital computer », Behavioral Science, vol. 13, no 1,‎ , p. 75–80 (ISSN 0005-7940 et 1099-1743, DOI 10.1002/bs.3830130112, lire en ligne, consulté le )
  14. G. Anthony Gorry, « Strategies for computer-aided diagnosis », Mathematical Biosciences, vol. 2, nos 3-4,‎ , p. 293–318 (ISSN 0025-5564, DOI 10.1016/0025-5564(68)90022-9, lire en ligne, consulté le )
  15. Robert S. Ledley et Lee B. Lusted, « Reasoning Foundations of Medical Diagnosis », Science, vol. 130, no 3366,‎ , p. 9–21 (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.130.3366.9, lire en ligne, consulté le )
  16. Lindberg DAB, Rowland LR, Buch CR, Morse WF, Morse SS (1968) CONSIDER: A computer program for medical instruction. Proc 9th IBM Symp Med
  17. Peter Szolovits et Stephen G. Pauker, Categorical and probabilistic reasoning in medical diagnosis, vol. 11, , 115–144 p. (ISSN 0004-3702, DOI 10.1016/0004-3702(78)90014-0, lire en ligne)
  18. (en) C. A. Kulikowski, « An Opening Chapter of the First Generation of Artificial Intelligence in Medicine: The First Rutgers AIM Workshop, June 1975 », Yearbook of Medical Informatics, vol. 24, no 01,‎ , p. 227–233 (ISSN 0943-4747 et 2364-0502, PMID 26123911, PMCID PMC4587035, DOI 10.15265/IY-2015-016, lire en ligne, consulté le )
  19. R. K. Lindsay, B. G. Buchanan, E. A. Feigenbaum, J. Lederberg, Dendral: a case study of the first expert system for scientific hypothesis formation, Artificial intelligence, 61(2), 1993 : 209-261.
  20. W.J. Clancey, E.H. Shortliffe (1984) Readings in medical artificial intelligence: the first decade, Addison-Wesley Longman Publishing Co., Inc.
  21. Edward Hance Shortliffe, Computer-Based Medical Consultations: Mycin, Elsevier, , 205–232 p. (ISBN 978-0-444-00179-5, lire en ligne)
  22. G. Bruce, B. G. Buchanan, E. D. Shortliffe, Rule-based expert systems: the Mycin experiments of the Stanford Heuristic Programming Project, 1984
  23. R. O. Duda, E. H. Shortliffe, Expert systems research, Science, 220(4594), 1983 : 261-268.
  24. R. A. Miller, Medical diagnostic decision support systems—past, present, and future, Journal of the American Medical Informatics Association, 1(1), 1994 : 8-27.
  25. KP. Adlassnig, A fuzzy logical model of' computer-assisted medical diagnosis, Methods Inf Med 1980, 19:14
  26. J. A. Reggia, Y. Peng, Modeling diagnostic reasoning: a summary of parsimonious covering theory, Computer methods and programs in biomedicine, 25(2), 1987 : 125-134.
  27. W. G. Baxt, Use of an artificial neural network for the diagnosis of myocardial infarction, Annals of Internal Medicine, 115(11), 1991 : 843-848.
  28. P. S. Maclin, J. Dempsey, J. Brooks, J. Rand, Using neural networks to diagnose cancer, Journal of Medical Systems, 15(1), 1991 : 11-19.
  29. Davide Callegarin et Patrick Callier, « Enjeux du déploiement de l'intelligence artificielle en santé », Actualités Pharmaceutiques, vol. 60, no 611,‎ , p. 21–24 (ISSN 0515-3700, DOI 10.1016/j.actpha.2021.10.006, lire en ligne, consulté le )
  30. Peretti-Watel Patrick, Emmanuel Didier (2024) "Le recours à l'intelligence artificielle en santé. Qu'en pensent les Français?." |url=https://univ-paris-dauphine.hal.science/hal-04512612/
  31. Juan M. Roman-Belmonte, Hortensia De la Corte-Rodriguez et E. Carlos Rodriguez-Merchan, « How blockchain technology can change medicine », Postgraduate Medicine, vol. 130, no 4,‎ , p. 420–427 (ISSN 0032-5481 et 1941-9260, DOI 10.1080/00325481.2018.1472996, lire en ligne, consulté le )
  32. Igor Radanović et Robert Likić, « Opportunities for Use of Blockchain Technology in Medicine », Applied Health Economics and Health Policy, vol. 16, no 5,‎ , p. 583–590 (ISSN 1175-5652 et 1179-1896, DOI 10.1007/s40258-018-0412-8, lire en ligne, consulté le )
  33. C.M. Nalayini, S. Sarulatha et R. Akshaya, « Drug Traceability using Blockchain », Journal of Ubiquitous Computing and Communication Technologies, vol. 6, no 2,‎ , p. 105–121 (ISSN 2582-337X, DOI 10.36548/jucct.2024.2.003, lire en ligne, consulté le )
  34. Zibin Cui, Xiangdong Liu, Zehua Feng et Zhengzong Huang, « Blockchain Adoption for Generic Drugs in the Medicine Supply Chain with Consumers' Risk-Aversion: A Game-Theoretic Model Within Chinese Legal Framework », Risk Management and Healthcare Policy, vol. Volume 17,‎ , p. 15–28 (ISSN 1179-1594, DOI 10.2147/rmhp.s444026, lire en ligne, consulté le )
  35. Wang Zeng, Yuzhi Wang, Kaibo Liang et Jianlan Li, « Advancing Emergency Supplies Management: A Blockchain‐Based Traceability System for Cold‐Chain Medicine Logistics », Advanced Theory and Simulations, vol. 7, no 4,‎ (ISSN 2513-0390 et 2513-0390, DOI 10.1002/adts.202300704, lire en ligne, consulté le )
  36. Thomas F. Heston, Perspective Chapter: Integrating Large Language Models and Blockchain in Telemedicine, IntechOpen, (lire en ligne)
  37. Ankit Kushwaha, Rahul Chauhan, Ruchira Rawat et Srinivas Aluvala, « Role of Blockchain in Tele-Health and Tele-Medicine », 2024 IEEE 9th International Conference for Convergence in Technology (I2CT), IEEE,‎ (DOI 10.1109/i2ct61223.2024.10543999, lire en ligne, consulté le )
  38. Pawan Whig, Rashmi Gera, Ashima Bhatnagar Bhatia et Rahul Reddy Nadikattu, Convergence of Blockchain and IoT in Healthcare, CRC Press, , 277–296 p. (ISBN 978-1-003-46694-9, lire en ligne)
  39. Imran Khan, Yasar Majib, Rehmat Ullah et Omer Rana, « Blockchain Applications for Internet of Things — A Survey », Internet of Things, vol. 27,‎ , p. 101254 (ISSN 2542-6605, DOI 10.1016/j.iot.2024.101254, lire en ligne, consulté le )
  40. Safak Kayikci et Taghi M. Khoshgoftaar, « Blockchain meets machine learning: a survey », Journal of Big Data, vol. 11, no 1,‎ (ISSN 2196-1115, DOI 10.1186/s40537-023-00852-y, lire en ligne, consulté le )
  41. Harish Verma, Yash Sonawane, Shreyas Zagare et Manish Khodaskar, « Counterfeit Medicine Detection using Blockchain », SSRN Electronic Journal,‎ (ISSN 1556-5068, DOI 10.2139/ssrn.4843864, lire en ligne, consulté le )
  42. Renee N. Salas, Debra Malina et Caren G. Solomon, « Prioritizing Health in a Changing Climate », New England Journal of Medicine, vol. 381, no 8,‎ , p. 773–774 (ISSN 0028-4793 et 1533-4406, DOI 10.1056/nejme1909957, lire en ligne, consulté le )
  43. Marina Romanello, Claudia di Napoli, Carole Green et Harry Kennard, « The 2023 report of the Lancet Countdown on health and climate change: the imperative for a health-centred response in a world facing irreversible harms », The Lancet, vol. 402, no 10419,‎ , p. 2346–2394 (ISSN 0140-6736, DOI 10.1016/S0140-6736(23)01859-7, lire en ligne, consulté le )
  44. Alireza Vafaei Sadr, Roman Bülow, Saskia von Stillfried et Nikolas E J Schmitz, « Operational greenhouse-gas emissions of deep learning in digital pathology: a modelling study », The Lancet Digital Health, vol. 6, no 1,‎ , e58–e69 (ISSN 2589-7500, DOI 10.1016/S2589-7500(23)00219-4, lire en ligne, consulté le )
  45. Ziad Obermeyer et Ezekiel J. Emanuel, « Predicting the Future — Big Data, Machine Learning, and Clinical Medicine », The New England journal of medicine, vol. 375, no 13,‎ , p. 1216–1219 (ISSN 0028-4793, PMID 27682033, PMCID PMC5070532, DOI 10.1056/NEJMp1606181, lire en ligne, consulté le )
  46. (en) OMS, Monitoring and Evaluating Digital Health Interventions A practical guide to conducting research and assessment, OMS, (lire en ligne)
  47. a et b Davide Callegarin et Patrick Callier, « Enjeux du déploiement de l'intelligence artificielle en santé », Actualités Pharmaceutiques, vol. 60, no 611,‎ , p. 21–24 (DOI 10.1016/j.actpha.2021.10.006, lire en ligne, consulté le )
  48. « Elon Musk et sa start-up Neuralink dévoilent leurs premiers résultats pour connecter le cerveau à l'ordinateur », sur usine-digitale.fr (consulté le )
  49. ALICE VITARD, « Le logiciel de détection automatisée des fractures de Gleamer fait ses preuves en pédiatrie », sur L'Usine Digitale, (consulté le )
  50. Mary A. Overby, « Psyxpert: An expert system prototype for aiding psychiatrists in the diagnosis of psychotic disorders », Computers in Biology and Medicine, vol. 17, no 6,‎ , p. 383–393 (ISSN 0010-4825, DOI 10.1016/0010-4825(87)90056-4, lire en ligne, consulté le )
  51. Russell Fulmer, Angela Joerin, Breanna Gentile et Lysanne Lakerink, « Using Psychological Artificial Intelligence (Tess) to Relieve Symptoms of Depression and Anxiety: Randomized Controlled Trial », JMIR Mental Health, vol. 5, no 4,‎ (ISSN 2368-7959, PMID 30545815, PMCID 6315222, DOI 10.2196/mental.9782, lire en ligne, consulté le )
  52. (en-US) Glen Coppersmith, Ryan Leary, Patrick Crutchley et Alex Fine, « Natural Language Processing of Social Media as Screening for Suicide Risk », Biomedical Informatics Insights, vol. 10,‎ , p. 117822261879286 (ISSN 1178-2226 et 1178-2226, PMID 30158822, PMCID PMC6111391, DOI 10.1177/1178222618792860, lire en ligne, consulté le )
  53. (en) Matthias Brunn, Albert Diefenbacher, Philippe Courtet et William Genieys, « The Future is Knocking: How Artificial Intelligence Will Fundamentally Change Psychiatry », Academic Psychiatry,‎ (ISSN 1545-7230, DOI 10.1007/s40596-020-01243-8, lire en ligne, consulté le )
  54. « Cancer : quand l'intelligence artificielle prédit l'efficacité d'un traitement », sur Le Parisien
  55. « Santé | Télémédecine : Une option dans le monde, une obligation en Tunisie », sur La Presse, (consulté le )
  56. a et b Marc-André Raetzo, « Informatique et médecine », sur www.revmed.ch, Revue Médicale Suisse, (consulté le )
  57. (en) James Vincent, « Microsoft announces new AI-powered health care initiatives targeting cancer », sur The Verge, (consulté le )
  58. Nathan Mann, « Une intelligence artificielle de Google dénoue le problème cinquantenaire du repliement des molécules », L'Usine Nouvelle,‎ (lire en ligne, consulté le )
  59. François Manens, « Google vient-il de résoudre un problème vieux de 50 ans en biologie ? », sur Numerama, (consulté le )
  60. (en) « Intel Capital invests $10 million in medical artificial intelligence », sur Healthcare IT News, (consulté le )
  61. Daniela Hernandez, Artificial Intelligence Is Now Telling Doctors How to Treat You, Wired, 2 juin 2014 [5].
  62. Cas Proffitt, Top 10 Artificially Intelligent Personal Assistants, Disruptor Daily, 8 mars 2017 [6]
  63. (en) Guillaume Reichert, Ali Bellamine, Matthieu Fontaine et Beatrice Naipeanu, « How Can a Deep Learning Algorithm Improve Fracture Detection on X-rays in the Emergency Room? », Journal of Imaging, vol. 7, no 7,‎ , p. 105 (DOI 10.3390/jimaging7070105, lire en ligne, consulté le )
  64. Simon Parkin, « The Artificially Intelligent Doctor Will Hear You Now », sur MIT Technology Review, (consulté le )
  65. (en) Hilary Brueck, « The newest version of ChatGPT passed the US medical licensing exam with flying colors — and diagnosed a 1 in 100,000 condition in seconds », sur Business Insider, (consulté le )
  66. (en) « Ethics and governance of artificial intelligence for health » (consulté le )
  67. a b et c (en) Qiuhong Wei, Zhengxiong Yao, Ying Cui et Bo Wei, « Evaluation of ChatGPT-generated medical responses: A systematic review and meta-analysis », Journal of Biomedical Informatics, vol. 151,‎ , p. 104620 (DOI 10.1016/j.jbi.2024.104620, lire en ligne, consulté le )
  68. a et b Philippe Coucke, « La médecine du futur: Intelligence artificielle générative et modèle linguistique large en soins de santé. Du battage médiatique à la réalité. », Revue Médicale de Liège, vol. 79,‎ (ISSN 0370-629X, PMID 38223971, lire en ligne, consulté le )
  69. (en) Manasi Soni, Pranav Anjaria et Prakash Koringa, « The revolutionary impact of chatGPT: advances in biomedicine and redefining healthcare with large language models », Future Medicine AI,‎ (ISSN 2753-8087, DOI 10.2217/fmai-2023-0011, lire en ligne, consulté le )
  70. « Artificial Intelligence in Health Care: Applications and Legal Issues », Petrie-Flom Center,‎ (lire en ligne, consulté le )
  71. a et b Ed. Felten, Preparing for the Future of Artificial Intelligence, Whitehouse.gov, 3 mai 2016 [7].
  72. The National Artificial Intelligence Research and Development Strategic Plan, Office of Science and Technology Policy, 16 octobre 2016 [8].
  73. « La HAS publie un guide sur l'évaluation des dispositifs médicaux connectés », sur www.ticpharma.com (consulté le )
  74. « Haute Autorité de Santé - Spécificités méthodologiques d'évaluation clinique des Dispositifs Médicaux Connectés », sur www.has-sante.fr (consulté le )
  75. (en) Danton S. Char, Nigam H. Shah et David Magnus, « Implementing Machine Learning in Health Care — Addressing Ethical Challenges », New England Journal of Medicine, vol. 378, no 11,‎ , p. 981–983 (ISSN 0028-4793 et 1533-4406, PMID 29539284, PMCID PMC5962261, DOI 10.1056/NEJMp1714229, lire en ligne, consulté le ).
  76. (en) Effy Vayena, Alessandro Blasimme et I. Glenn Cohen, « Machine learning in medicine: Addressing ethical challenges », PLOS Medicine, vol. 15, no 11,‎ , e1002689 (ISSN 1549-1676, PMID 30399149, PMCID PMC6219763, DOI 10.1371/journal.pmed.1002689, lire en ligne, consulté le ).
  77. (en) Leila Ouchchy, Allen Coin et Veljko Dubljević, « AI in the headlines: the portrayal of the ethical issues of artificial intelligence in the media », AI & SOCIETY, vol. 35, no 4,‎ , p. 927–936 (ISSN 0951-5666 et 1435-5655, DOI 10.1007/s00146-020-00965-5, lire en ligne, consulté le ).
  78. (en) Juliana Marchesano et Sara Brenner, « Nanotechnology in Biology: Understanding Future Ethical Dilemmas from Past Technologies », Ethics in Biology, Engineering and Medicine: An International Journal, vol. 1, no 4,‎ (ISSN 2151-805X et 2151-8068, DOI 10.1615/EthicsBiologyEngMed.v1.i4.10, lire en ligne, consulté le ).
  79. (en) Aaron T. Hui, Shawn S. Ahn, Carolyn T. Lye et Jun Deng, « Ethical Challenges of Artificial Intelligence in Health Care: A Narrative Review », Ethics in Biology, Engineering and Medicine: An International Journal, vol. 12, no 1,‎ (ISSN 2151-805X et 2151-8068, DOI 10.1615/EthicsBiologyEngMed.2022041580, lire en ligne, consulté le ).
  80. (en) Nicol Turner Lee, « Detecting racial bias in algorithms and machine learning », Journal of Information, Communication and Ethics in Society, vol. 16, no 3,‎ , p. 252–260 (ISSN 1477-996X, DOI 10.1108/JICES-06-2018-0056, lire en ligne, consulté le ).
  81. (en) Bilwaj Goankar, Kirstin Cook et Luke Macyszyn, « Ethical Issues Arising Due to Bias in Training A.I. Algorithms in Healthcare and Data Sharing as a Potential Solution », AI Ethics Journal, vol. 1, no 2,‎ (DOI 10.47289/AIEJ20200916, lire en ligne, consulté le ).
  82. (en) Frances Shaw, « Machinic Empathy and Mental Health: The Relational Ethics of Machine Empathy and Artificial Intelligence in Her », dans Kim Wilkins et Wyatt Moss-Wellington, ReFocus: The Films of Spike Jonze, Édimbourg, Edinburgh University Press, (ISBN 978-1-4744-4762-1, DOI 10.3366/edinburgh/9781474447621.003.0009 Accès payant, SUDOC 256146365, lire en ligne), p. 158-175.
  83. (en) « Representing Communication, Compassion, and Competence in the Era of AI », AMA Journal of Ethics, vol. 21, no 11,‎ , E1009–1013 (ISSN 2376-6980, DOI 10.1001/amajethics.2019.1009, lire en ligne, consulté le ).
  84. (en) Alan M. Reznik et Fred R. T Nelson, « Ethics in Artificial Intelligence: Hidden Dangers », Ethics in Biology, Engineering and Medicine: An International Journal, vol. 11, no 1,‎ , p. 75–80 (ISSN 2151-805X, DOI 10.1615/EthicsBiologyEngMed.2021036497, lire en ligne, consulté le ).
  85. Julian Savulescu, Alberto Giubilini, Robert Vandersluis et Abhishek Mishra, « Ethics of artificial intelligence in medicine », Singapore Medical Journal, vol. 65, no 3,‎ , p. 150–158 (ISSN 0037-5675 et 2737-5935, DOI 10.4103/singaporemedj.smj-2023-279, lire en ligne, consulté le )
  86. « L'initiative Ethik IA Pour une régulation positive de l'intelligence artificielle et de la robotisation en santé ! » (consulté le )
  87. (en) Office of the Press Secretary, At Cancer Moonshot Summit, Vice President Biden Announces New Actions to Accelerate Progress Toward Ending Cancer As We Know It, Whitehouse.gov, 28 juin 2016 [9].
  88. (en) Office of the Press Secretary, President Obama's Precision Medicine Initiative, Whitehouse.gov, 30 janvier 2015 [10].
  89. a et b (en) Mari S. Kannelønning, « Navigating uncertainties of introducing artificial intelligence (AI) in healthcare: The role of a Norwegian network of professionals », Technology in Society, vol. 76,‎ (lire en ligne Accès libre)

Articles connexes

[modifier | modifier le code]

Lien externe

[modifier | modifier le code]