Assouplir la régulation de l’IA et des objets connectés : une décision risquée

12 février 2026


Un patient arrive à une consultation, brandissant l’écran d’un téléphone comme preuve : un outil d’intelligence artificielle (IA) a qualifié ses symptômes de « risque élevé » et a recommandé une marche à suivre. Le vocabulaire est soigné, la recommandation est précise, et l’anxiété du patient est réelle. L’outil ne « fait pas un diagnostic » — techniquement, il « fournit des informations ». Mais il a déjà fait ce que ces outils font inévitablement : il a façonné la décision clinique avant même que le clinicien n’entre dans la salle.

C’est dans ce cadre qu’il faut évaluer la nouvelle posture de la FDA vis-à-vis de la santé numérique. Lors du Consumer Electronics Show, le commissaire de la FDA, le docteur Marty Makary, médecin et MPH, a encadré les priorités de l’agence en termes de Silicon Valley — vitesse, investisseurs et itération rapide — et a annoncé des « changements radicaux » dans l’approche de la FDA concernant les logiciels d’aide à la décision clinique et certains dispositifs portables.

Un certain allégement de la réglementation est raisonnable. Chaque aide au comptage de pas ou application de méditation n’a pas besoin du même niveau d’examen qu’un test diagnostique. Les ressources de la FDA sont limitées, et il est défendable de privilégier la surveillance des outils à plus haut risque.

La question est où l’agence trace désormais la frontière — et si les nouvelles directives facilitent que des produits qui se comportent comme de la médecine échappent au statut médical.

« General Wellness » Is Not the Same As « Not Medical »

Les directives actualisées de la FDA sur le « Bien-être général » réitèrent une approche d’application que nombre d’acteurs du numérique en santé réclament depuis des années : le Centre des dispositifs et de la radiologie sanitaire « n’a pas l’intention d’examiner » les produits de bien-être général à faible risque pour déterminer s’ils sont des dispositifs ou s’ils respectent les exigences pré-commercialisation et post-commercialisation.

Ce qui est nouveau — et plus déterminant — est jusqu’où le « bien-être général » peut s’étendre dans un territoire cliniquement familier. La directive indique que la FDA peut considérer des produits qui utilisent des capteurs non invasifs (y compris la détection optique) pour estimer ou afficher des paramètres physiologiques tels que la pression artérielle, la saturation en oxygène, le glucose sanguin et la variabilité de la fréquence cardiaque comme des produits de bien-être général, pourvu que les résultats soient destinés uniquement à des usages de bien-être et respectent des garde-fous (non invasifs, sans intention de maladie, ne pas remplacer un dispositif autorisé par l’agence, ne pas provoquer d’action clinique, et ne pas imiter des valeurs cliniques à moins d’être validés).

Dans un exemple illustratif, un dispositif portable qui estime le pouls et la pression artérielle par photopléthysmographie peut encore être traité comme un bien-être général à faible risque — à condition que les valeurs soient validées et que les affirmations ne suggèrent pas un usage médical.

Ces précautions comptent. Mais elles entrent aussi en collision avec le fonctionnement réel de la médecine. Des chiffres comme la pression artérielle et le glucose ne restent pas dans une voie « bien-être ». Les patients les apportent aux consultations et dans les messages via le portail. Les systèmes de santé intègrent de plus en plus les données des dispositifs grand public dans les dossiers électroniques et les flux de surveillance à distance. Un outil peut être étiqueté « non destiné à un usage médical » et devenir néanmoins une entrée dans la prise de décision médicale, simplement parce que la sortie paraît et se ressent comme clinique.

La définition des frontières par la FDA reflète cette tension. La même directive insiste sur le fait que les produits ne constituent pas du bien-être général lorsqu’ils ont pour but de mesurer ou de rapporter des valeurs physiologiques à des fins médicales ou cliniques, notamment le dépistage, le diagnostic, la surveillance, l’alerte ou la gestion de maladie. En d’autres termes, le contexte et l’usage déterminent le risque — et non le langage marketing seul.

Ainsi, lorsque la FDA affirme qu’elle n’examinera pas les produits de bien-être à faible risque, demandons-nous : ce risque est-il pour qui, et dans quel contexte ? Un produit peut être non invasif et rester potentiellement dangereux s’il désoriente systématiquement — surtout quand il présente des valeurs cliniques avec l’autorité de la mesure.

Une « seule recommandation » peut être la recommandation la plus coercitive

La FDA a également mis à jour ses directives sur les logiciels d’aide à la décision clinique (CDS). Les directives clarifient la façon dont certaines fonctions CDS peuvent être « non-dispositifs » selon les critères de la loi 21st Century Cures Act. Mais elles introduisent aussi un changement de politique crucial : lorsque seule une option est cliniquement appropriée et que le CDS satisfait par ailleurs aux critères législatifs, la FDA « a l’intention d’exercer une discrétion d’application » — c’est-à-dire qu’elle n’entend pas faire respecter les exigences de la Food, Drug, and Cosmetic Act pour ces fonctions.

Cela compte, car une seule recommandation n’est pas une incitation neutre. C’est une directive présentée comme un conseil.

Dans le monde réel, les cliniciens sont occupés, leurs boîtes mail débordent, et les décisions se prennent sous pression temporelle. Dans ce contexte, des outils logiciels qui produisent un seul « meilleur » choix peuvent discrètement réorienter le jugement clinique. C’est un schéma connu de la prise de décision : le biais d’automatisation, la tendance à accepter la recommandation d’une machine même lorsqu’elle est erronée ou lorsqu’il existe des informations contradictoires.

Ajoutez à cela l’IA générative moderne. Ces systèmes peuvent être convaincants et persuasifs même lorsqu’ils sont faux et peuvent échouer de manières difficiles à déceler pour l’utilisateur sur le moment. Cela pourrait ouvrir la porte à ce que davantage de médecins se fient aux recommandations du logiciel IA — même lorsque celles-ci présentent des défauts.

Une posture réglementaire qui élargit les catégories de « ne pas faire appliquer » pour les recommandations cliniques devrait donc être associée à des attentes plus fortes en matière de transparence, de surveillance et de preuves — et non à une réduction.

Retirer la directive d’évaluation clinique envoie le mauvais signal

Le même jour où ces mises à jour ont été annoncées, la FDA a retiré de sa liste de réflexions actuelles la directive « Logiciels en tant que dispositif médical (SaMD) : Évaluation clinique ».

Les directives ne sont pas des lois, et les cadres doivent évoluer. Mais le symbolisme compte. À un moment où l’IA s’insère dans les flux cliniques plus rapidement que les normes d’évaluation, retirer un cadre commun d’évaluation clinique risque de suggérer que la priorité est la vitesse — même lorsque la crédibilité et la confiance restent les véritables goulots d’étranglement à l’adoption.

Un meilleur compromis : des preuves plus rapides, des garde-fous plus solides

Le cadre habituel — innovation versus sécurité — constitue une fausse dichotomie. En médecine, la sécurité est ce qui rend l’innovation adoptable. Si patients et cliniciens ne peuvent pas faire confiance à ces outils, l’adoption va stagner et la réaction négative va s’accentuer.

Une alternative constructive est disponible :

  1. Réguler par le contexte d’utilisation, et non par les étiquettes marketing. Si un dispositif grand public produit des valeurs physiologiques cliniquement significatives, la FDA devrait exiger une divulgation claire et standardisée sur la validation, l’usage prévu et les limites — et considérer l’utilisation clinique prévisible comme un facteur de risque même lorsque les produits sont étiquetés « bien-être ».
  2. Faire de la discrétion d’application une voie rapide structurée, et non une voie sombre. Lorsque l’agence choisit de ne pas appliquer les exigences pré-commercialisation pour une catégorie, elle devrait tout de même exiger une transparence de base : résumés publics de ce que fait l’outil, des données sur lesquelles il a été évalué et de ce pour quoi il ne doit pas être utilisé, accompagnés d’un reporting post-marché significatif.
  3. Accélérer la production de preuves plutôt que de simplement assouplir la surveillance. La FDA a déjà décrit des modèles qui associent l’accès à un apprentissage structuré en conditions réelles, notamment le pilote TEMPO visant à comprendre comment les technologies de santé numérique fonctionnent en pratique tout en protégeant les patients. Dans cet esprit, les voies plus rapides devraient s’accompagner d’attentes claires sur la mesure de la performance réelle et sur le fait que les produits qui dérivent ou échouent seront rapidement corrigés.

L’objectif ne devrait pas être « moins de FDA ». L’objectif devrait être de meilleures preuves au rythme du logiciel, car les recommandations générées par l’IA et les chiffres dérivés des dispositifs portables apparaissent déjà lors des visites, orientent les décisions et modifient les attentes des patients vis-à-vis des soins. Quand ces outils se trompent, le coût n’est pas supporté par les investisseurs ou les équipes produit. Il est supporté par les patients, les cliniciens et un système de santé qui ne peut se permettre une autre vague de technologies qu’il faut désapprendre.

Henry Bair, MD, et Mak Djulbegovic, MD, MSc, sont médecins résidents à l’hôpital Wills Eye dont les recherches portent sur l’intersection de l’intelligence artificielle et la prise de décision clinique.


Thomas Leroy

Thomas Leroy

Je m’appelle Thomas Leroy et je suis le rédacteur de Placebo. Médecin de formation et passionné par le journalisme, j’ai choisi de créer ce média pour apporter une information claire et indépendante sur la santé et les addictions. Chaque jour, je m’engage à rendre accessibles des sujets complexes afin d’aider chacun à mieux comprendre et agir.