Médecin · IA en santé

Comprendre l'IA en santé

Histoire, fonctionnement, usages cliniques, cadre juridique, financement et formations — tout ce qu'un médecin doit savoir sur l'IA appliquée à la santé.

Origines

70 ans d'histoire — du test de Turing aux LLM

L'intelligence artificielle n'est pas née avec ChatGPT. Le concept date de 1950, le terme de 1956. Sa renaissance par le deep learning (2012) puis les transformers (2017) explique la révolution médicale en cours.

  1. 1950

    Test de Turing

    Alan Turing publie « Computing Machinery and Intelligence » et propose le test imitation. Naissance philosophique de l'IA.29

  2. 1956

    Conférence de Dartmouth

    John McCarthy invente le terme « artificial intelligence ». Premiers programmes de raisonnement symbolique.28

  3. 1980-90

    Hiver de l'IA

    Limites des systèmes experts, financements coupés. Survivent les chercheurs sur les réseaux de neurones (Hinton, LeCun, Bengio).

  4. 2012

    AlexNet — révolution du deep learning

    Krizhevsky, Sutskever & Hinton remportent ImageNet avec un CNN entraîné sur GPU. Renaissance de l'IA basée données.30

  5. 2016

    AlphaGo bat Lee Sedol

    DeepMind démontre la supériorité de l'IA renforcée sur un jeu jusque-là considéré inaccessible. Moment grand-public.

  6. 2017

    Architecture Transformer

    Vaswani et al. publient « Attention Is All You Need ». Fondation des LLM modernes (GPT, BERT, Med-PaLM).31

  7. 2017-19

    Premiers succès cliniques

    Esteva (mélanome niveau dermatologue), Gulshan (rétinopathie diabétique). L'IA atteint le niveau spécialiste sur des tâches d'imagerie ciblées.564

  8. 2022

    ChatGPT — adoption massive

    OpenAI rend GPT-3.5 accessible au grand public. 100 M utilisateurs en 2 mois. Bascule des LLM en outil productif.

  9. 2023

    Med-PaLM 2 (Google)

    Premier LLM à dépasser le seuil « expert » à l'examen USMLE (86,5 %). Ouvre l'ère des copilotes médicaux.32

  10. 2024

    AI Act EU adopté

    Règlement européen 2024/1689 — première régulation horizontale de l'IA au monde. Entrée en vigueur progressive 2025-2027. IA santé classée « haut risque ».1

  11. 2025-26

    Génération copilotes cliniques

    Microsoft DAX, Nabla, Doctolib AI : assistants de consultation par dictée + LLM. Adoption en cabinet et hôpital.91022

Comment ça marche ?

Fonctionnement des IA modernes

Trois grandes familles dominent l'IA santé contemporaine : le machine learning (apprentissage par exemples), le deep learning (réseaux de neurones profonds), et les LLM (modèles de langage géants). Cliquez sur chaque carte pour le détail.

L'IA en santé en chiffres

Impact mesuré — France & monde

1016+

Dispositifs médicaux IA approuvés FDA

Total cumulé fin 2024 — 90 % en imagerie médicale.3

0%

Croissance annuelle marché IA santé monde

TCAC 2023-2030, valorisation 2030 estimée 188 Mds $.16

1/4

Médecins français utilisant un outil IA en consultation

Adoption rapide assistants type Doctolib AI / Nabla / DAX en 2024-25.916

0.0%

Examen USMLE — Med-PaLM 2

Premier LLM à dépasser le seuil expert humain (60 % traditionnel).32

0.0Mds €

France 2030 — investissement IA

Stratégie nationale 2021-2025 + Phase 2.8

0M $

Levée Nabla (FR healthtech IA)

Series B 2024 — Cathay Innovation, ZEBOX, soutien Microsoft + Nvidia.10

En clinique

Usages concrets de l'IA pour les médecins

🖼️ Imagerie diagnostique

Radiologie

Détection AVC sur scanner cérébral (RapidAI), fractures, embolie pulmonaire, anévrysmes. Triage urgent + 2e lecture.3

Dermatologie

Classification mélanome / nevus à partir de photos cliniques (DermaSensor, SkinVision). Niveau dermatologue depuis 2017.5

Ophtalmologie

Dépistage rétinopathie diabétique sur fond d'œil (IDx-DR, premier algorithme FDA-autonomous 2018).6

✍️ Documentation clinique

Microsoft DAX Copilot

Capture la consultation par micro ambient + génère le compte-rendu. 35 millions de notes cliniques générées en 2024.22

Nabla (FR)

Assistant de consultation par dictée + LLM. Génère ordonnances, courriers, plans de soins en français.10

Doctolib AI

Module IA intégré au logiciel cabinet : prise de notes, résumés, courriers types.9

🩺 Aide à la décision

PaperDoc / OpenEvidence

Recherche bibliographique médicale ancrée PubMed + recos. Réduit le temps de recherche d'évidence.

Pulselife AI

Aide à la prescription avec garde-fous interactions, contre-indications.

🧬 Recherche & santé publique

Health Data Hub (FR)

Plateforme nationale d'accès aux données de santé pour la recherche IA. > 100 projets actifs.21

AlphaFold (DeepMind)

Prédiction structure 3D de toutes les protéines connues. Accélère la R&D pharmaceutique.

Cadre juridique

Régulation & cadre légal

L'IA santé est encadrée par 3 niveaux : européen (AI Act, RGPD, EHDS, MDR), national (HAS, CNIL, CNOM), et professionnel (déontologie médicale).

AI Act (UE 2024/1689)

Règlement européen — IA santé classée « haut risque »

Adopté le 13 juin 2024. Obligations pour systèmes IA haut risque (santé, biométrie, RH…) : qualité données, transparence, supervision humaine, robustesse, gestion des risques. Entrée progressive 2025-2027. Sanctions jusqu'à 35 M € ou 7 % CA mondial.1

RGPD + EHDS

Données personnelles de santé

RGPD (2018) cadre la collecte/traitement. EHDS — règlement 2025/327 — crée l'Espace européen des données de santé : usage primaire (continuité soins) + usage secondaire (recherche, IA). Hébergement HDS obligatoire pour traitements en France.1112

Marquage CE médical (MDR/IVDR)

Dispositif médical IA

Tout logiciel IA à finalité diagnostique / thérapeutique = dispositif médical → MDR 2017/745 ou IVDR 2017/746. Classification I à III selon risque. Évaluation clinique obligatoire avant commercialisation.273

Recommandations HAS

Bonnes pratiques

Guide HAS 2024 : grille d'évaluation IA santé en 6 axes (utilité, performance, équité, transparence, sécurité, durabilité). Recommandations PECAN (prise en charge anticipée numérique) pour DTx + IA.214

Recommandations CNIL

IA et données personnelles

Guide CNIL 2024 sur le développement responsable d'IA : licéité de la base d'apprentissage, minimisation, droit à la suppression, AIPD (analyse d'impact) obligatoire pour IA santé.7

Code de déontologie médicale (CNOM)

Responsabilité du médecin

Article 47 du Code de déontologie : le médecin reste responsable de ses actes même assisté par IA. Obligation d'information du patient sur le recours à un système IA. Pas d'exclusivité IA dans la décision clinique.13

Enjeux éthiques

Biais, transparence, consentement, responsabilité

Modèle économique

Remboursement & financement

PECAN — Prise en charge anticipée numérique

Dispositif LFSS 2022 art. 54. Permet le remboursement temporaire (jusqu'à 1 an) de DTx + IA en attente de l'évaluation HAS définitive. Ouverture pour applications certifiées CE et hébergées HDS.14

Forfait Innovation

Inscription LPPR pour technologies innovantes après évaluation positive HAS-CEPS. Couvre les dispositifs IA validés cliniquement.2

France 2030 — IA santé

Plan d'investissement de 2,5 Mds € sur l'IA dont une part dédiée santé : Health Data Hub, projets bpifrance Innovation Santé 2030, soutien startups via French Tech.821

Modèles industriels

SaaS par patient (DAX, Nabla : ~150 €/mois), licence par service (radiologie : ~5-15 € / examen IA), pay-per-use API (LLM cloud), RPC (revenue per consultation, modèles plus rares).91022

Risques & sécurité

Cyber, hallucinations, drift, biais adversaires

Se former

Cursus & ressources — du gratuit au DU

Pour intégrer l'IA dans sa pratique, deux pistes : approche « usage » (comprendre, prescrire, encadrer) ou approche « recherche/dev » (modéliser soi-même). Les ressources couvrent les deux niveaux.

Questions fréquentes

Responsabilité, obligations, LLM, consentement

Suis-je obligé d'utiliser un LLM type ChatGPT pour ma pratique ?

Non. Aucun texte réglementaire n'oblige le recours à un LLM. Le Code de déontologie [13] requiert que le médecin reste maître de la décision. Si vous utilisez un LLM, choisissez un outil santé (RAG sur sources médicales, hébergement HDS) plutôt que ChatGPT grand public, qui n'est pas approprié pour des données patients.13712

Quelle est ma responsabilité si l'IA produit une erreur de diagnostic ?

Code de déontologie [13] : le médecin reste responsable de ses actes. L'IA est un outil d'aide, pas un décisionnaire. Vérifiez l'évaluation CE médicale [27], documentez votre raisonnement, ne déléguez pas aveuglément. La responsabilité peut être partagée avec l'éditeur en cas de défaut prouvé du logiciel (vice de conception, dossier technique défaillant).13127

Puis-je utiliser ChatGPT / Claude grand public pour rédiger un compte-rendu ?

Risqué. Les LLM grand public (OpenAI, Anthropic, Google Gemini) ne sont pas hébergés HDS [12]. Toute donnée patient transmise constitue un transfert hors Espace européen sans cadre RGPD adapté. Préférez un outil dédié santé (Nabla, Doctolib AI, DAX) avec HDS France/UE.121122

Le patient doit-il être informé que j'utilise une IA pendant la consultation ?

Oui (recommandation forte). Le CCNE [26] et la CNIL [7] recommandent l'information explicite du patient en amont. L'AI Act [1] prévoit une obligation de transparence pour les systèmes IA haut risque. En pratique : affiche cabinet + mention dans le consentement initial.2671

Mon outil IA doit-il être marqué CE médical ?

Si l'outil a une finalité médicale (diagnostic, traitement, suivi de pathologie) : OUI [27]. Une simple aide à la rédaction administrative (DAX, Nabla en mode dictée pure) peut être hors scope si elle ne propose pas de décision médicale. La frontière est en cours de clarification — vérifier la classification HAS/ANSM.27214

Combien de temps puis-je gagner en consultation avec un copilote IA ?

Les retours d'expérience publiés [22, 9] indiquent 10-15 minutes par consultation gagnées sur la documentation (compte-rendu, courriers). À pondérer par le temps d'apprentissage et la révision des sorties IA — il faut TOUJOURS vérifier ce que l'IA a écrit avant signature.22916

L'IA peut-elle remplacer le médecin ?

Non. La littérature [4, 15] et les recommandations [2, 26] convergent : l'IA augmente le médecin, ne le remplace pas. Les tâches réflexives (entretien, examen physique, raisonnement clinique multimodal, relation thérapeutique) restent humaines. L'IA gagne sur des tâches étroites (lecture d'image, extraction d'info structurée).415226

Comment évaluer la qualité d'un outil IA santé avant adoption ?

Grille HAS 2024 [2] : (1) utilité clinique démontrée par étude contrôlée, (2) performance sur cohorte représentative, (3) équité (pas de biais sur sous-groupes), (4) transparence (explicabilité), (5) sécurité (CE médical, HDS, audit), (6) durabilité (suivi post-déploiement, mises à jour). Demandez à l'éditeur l'évaluation HAS / publication peer-reviewed.2127

Mes données de patients servent-elles à entraîner les modèles IA ?

Cela dépend du contrat éditeur. Lisez les CGU/DPA. Une solution conforme HDS + RGPD doit garantir : pas d'usage des données pour entraîner un modèle tiers sans consentement explicite (ce qui exclut quasi tous les usages secondaires hors étude). Recherchez les clauses « no training » ou « zero data retention ».12711
Bibliographie

Sources numérotées

Toutes les assertions de cette page sont sourcées. Cliquez sur les numéros [N] dans le texte pour atteindre la source ci-dessous.

  1. 8
    Stratégie nationale pour l'IA en France — France 2030

    Inst.Gouvernement français — Direction Générale des Entreprises · 2023-05

  2. 11
    Espace Européen des Données de Santé (EHDS) — Règlement (UE) 2025/327

    Régul.Journal officiel de l'Union européenne · 2025-02

  3. 13
    Code de déontologie médicale — Article 47 (responsabilité du médecin)

    Régul.Conseil National de l'Ordre des Médecins · 2024-01

  4. 15
    Rajkomar A, Dean J, Kohane I. Machine Learning in Medicine

    Sci.New England Journal of Medicine · 2019-04

  5. 17
    DU Intelligence Artificielle en Santé — Université Paris-Cité

    AcadémiqueUniversité Paris-Cité · 2024-09

  6. 18
    Coursera — AI for Medicine Specialization (Stanford)

    AcadémiqueCoursera × Stanford University · 2024-01

  7. 23
    Stanford HAI Index 2024 — IA en santé adoption et publications

    AcadémiqueStanford Institute for Human-Centered AI · 2024-04

  8. 26
    Avis CCNE 137 — Éthique et IA dans le domaine de la santé

    GuideComité Consultatif National d'Éthique · 2022-09

  9. 28
    Histoire de l'IA — McCarthy J. (1956), Conférence de Dartmouth

    AcadémiqueDartmouth Conference Archives · 1956-08

🚀 Vous voulez aller plus loin ?

Découvrez les applications IA santé évaluées sur MonRhumato (DTx, copilotes, aide à la prescription), les recommandations cliniques actualisées, et la veille mensuelle résumée par IA.

Page rédigée par Dr Julien Schemoul · sources HAS, CNIL, CNOM, FDA, AI Act EU, PubMed, McKinsey, Stanford HAI · mise à jour 2026-04-28