J’ai récemment pris connaissance d’une étude du MIT Media Lab qui mettait en lumière des inquiétudes autour de ce que l’on appelle la « dette cognitive », un concept désignant l’idée que s’appuyer de façon répétée sur l’intelligence artificielle (IA) pour des tâches complexes pourrait affaiblir l’apprentissage, la mémoire et la pensée critique. Dans cette étude, cette préoccupation était associée à une activité EEG plus faible chez les participants qui dépendaient fortement de l’IA.
Cette recherche a vite été suivie d’un autre constat inquiétant publié dans The Lancet Gastroenterology & Hepatology. L’étude portait sur des médecins gastro-entérologues chevronnés — en moyenne près de trente ans d’expérience et plus de 2 000 coloscopies chacun — qui adoptaient une détection de polypes assistée par l’IA. Au début, les résultats semblaient rassurants : lorsque l’IA était active, la détection des adénomes s’améliorait. Mais lorsque les mêmes médecins réalisèrent ensuite des coloscopies sans IA, leurs taux de détection chutèrent brusquement, passant de 28,4 % à 22,4 %. L’explication avancée était que les cliniciens s’étaient habitués aux indices visuels fournis par l’IA et portaient moins d’attention lorsque ces indices disparaissaient.
Le mot employé pour décrire ce phénomène est « dé-skilling ». Inutile de se cacher derrière des mots sophistiqués : il s’agit d’un affaiblissement des compétences. Et, sans surprise, ce constat a ébranlé de nombreux médecins. Si l’IA peut dégrader l’efficacité des endoscopistes une fois l’outil retiré, faut-il s’inquiéter d’une adoption généralisée de cette technologie dans le domaine médical, où pratiquement chaque spécialité exige des capacités cognitives considérables ?
En bref : oui, cela mérite une attention sérieuse. La réponse plus nuancée est qu’il faut être très prudent quant à ce que l’on blâme, ou qui.
A Signal Worth Studying — But Not Panicking Over
Commençons par clarifier ce que cette étude est — et ce qu’elle n’est pas.
Il s’agit d’une étude rétrospective et observationnelle, non d’un essai randomisé. La période d’exposition — trois mois avant et trois mois après l’introduction de l’IA — était courte. La cohorte se limitait à quatre centres d’endoscopie en Pologne et comptait 1 443 patients. Les populations de patients pourraient ne pas être exactement identiques. De plus, le mécanisme proposé reste spéculatif et non démontré.
Mais ce qui rend l’étude véritablement importante, c’est qu’elle pose pour la première fois la question de ce qui arrive aux compétences cliniques lorsque l’IA n’est pas disponible.
Des centaines d’études ont montré si l’IA améliore la détection, la rapidité ou la précision. Je ne connais pas beaucoup d’études qui s’interrogent sur ce que fait, à long terme, l’utilisation de l’IA sur la compétence de base de l’opérateur humain.
Cette lacune est importante, car l’IA n’est pas toujours disponible. Les systèmes peuvent tomber en panne. Les vendeurs peuvent rencontrer des défaillances. Les hôpitaux peuvent changer de plateforme. Les zones rurales ou les établissements à ressources limitées peuvent ne pas y avoir accès du tout.
Un médecin qui ne peut pas fonctionner de manière compétente sans IA n’exerce pas une médecine augmentée — il pratique une médecine dépendante.
Voilà un vrai risque.
De-skilling Didn’t Start With AI
Examinons les choses sous un autre angle.
La médecine est confrontée au « drift » des compétences depuis bien avant l’avènement des grands modèles de langage ou de la vision par ordinateur sur les lieux de soins. Des exigences de volume procédural existent pour une raison. Le recertificat vieillissant des praticiens existe pour une raison. Nous reconnaissons déjà — souvent avec un certain inconfort — que les compétences se détériorent sans une pratique délibérée.
Nous n’avons pas tenu pour responsable les stéthoscopes quand ils réduisaient les performances en percussion. Nous n’avons pas blâmé les calculatrices pour l’affaiblissement des calculs mentaux. Nous n’avons pas reproché aux imageries d’éloigner l’examen physique de certaines pratiques. Et nous n’avons certainement pas affirmé que les livres rendaient l’auto-apprentissage optionnel. Les livres ont élargi l’accès au savoir; ils n’ont pas permis aux médecins d’éviter de lire, de réfléchir et de penser avec esprit critique. Au contraire, ils ont augmenté les attentes.
L’IA appartient à cette même catégorie. Le problème ne vient pas du fait que l’IA aide à la détection. Le problème survient lorsque les cliniciens laissent l’assistance remplacer l’attention — l’attention qui est une condition préalable à l’apprentissage. Ce n’est pas une défaillance technologique. C’est une défaillance professionnelle.
Cognitive Debt: A Useful Metaphor, Not a Verdict
Et la notion de « dette cognitive » lancée par l’étude du MIT a suscité un débat nourri pour des raisons similaires. D’un côté, certains soutiennent que les compétences se dégradent lorsque l’exercice revient à un minimum, invoquant les principes bien connus de la neuroplasticité. De l’autre, d’autres estiment que les changements observés dans l’EEG — une activité réduite — pourraient refléter une économie cognitive plutôt qu’une perte réelle — le cerveau réorientant son effort lorsque l’IA prend en charge les aspects mécaniques ou organisationnels d’une tâche, plutôt que son raisonnement central lui-même.
Le cerveau s’adapte à la demande. L’apprentissage nécessite d’abord une implication active; lorsque l’IA se charge des parties les plus difficiles d’une tâche avant même que cette implication ait lieu, le signal d’apprentissage s’estompe ou disparaît. Ce qui compte, ce n’est donc pas savoir si l’IA est utilisée, mais quand et comment elle est utilisée.
Les cliniciens expérimentés qui pensent d’abord et consultent les outils ensuite sont peu susceptibles de perdre les compétences fondamentales. Ceux qui reportent la cognition principale sur la technologie peuvent perdre ces compétences, ou ne jamais les développer complètement.
Et cela n’est pas nouveau. C’est simplement devenu plus apparent aujourd’hui.
The Lancet Study’s Real Lesson
L’élément le plus important à tirer de l’étude sur la coloscopie n’est pas que l’IA « rende les médecins pires ». C’est que la mise en œuvre compte réellement.
Si les cliniciens externalisent inconsciemment leur vigilance — en attendant une « boîte verte » plutôt que de scruter activement — l’intégration de l’IA échoue au niveau des facteurs humains. La solution n’est pas de renoncer à l’IA, mais de concevoir son utilisation de manière à renforcer l’attention plutôt que à la remplacer.
Cela peut inclure :
- Des sessions d’entraînement périodiques sans IA pour préserver les compétences de base
- Des programmes de formation qui mettent l’accent sur les fondamentaux parallèlement à l’utilisation de l’IA
- Des interfaces qui exigent une confirmation active plutôt qu’une acceptation passive
- Des normes de certification qui partent du principe que l’IA ne sera pas toujours présente
Ces préoccupations s’appliquent encore plus fortement aux médecins en formation. Si l’IA est introduite avant que les compétences fondamentales soient établies, le risque n’est pas le dé-skilling mais le fait de ne jamais développer ces compétences du tout. L’éducation médicale mérite donc une attention particulière lorsque l’on discute de la manière — et du moment — d’utiliser l’IA.
Aucun de ces éléments n’implique d’abandonner l’IA. Il s’agit de respecter les limites de l’automatisation. Si un médecin devient moins compétent lorsque l’outil n’est plus présent, ce n’est pas le fait que l’outil existait qui échoue. C’est que les compétences se soient affaiblies sans contrôle. L’IA n’exonère pas les cliniciens de leur vigilance autant que les manuels scolaires ne les déchargent pas de penser. Elle élève simplement les enjeux de notre formation, de notre pratique et de notre autosurveillance. Les outils comptent. Mais le professionnalisme compte davantage.
The Right Question Going Forward
Alors, cette étude démontre-t-elle un risque réel, ou s’agit-il d’une crainte exagérée ?
C’est un risque réel si nous restons complaisants. C’est une crainte surévaluée si nous faisons preuve de discernement et de méthode.
La réponse adaptée n’est ni de freiner l’adoption de l’IA de manière réflexe, ni de rejeter les signaux précurseurs comme une technophobie. Il faut plutôt poser de meilleures questions : Comment préserver la compétence humaine dans des environnements riches en IA ? Quelles compétences doivent rester explicitement humaines, même lorsque l’automatisation est disponible ? Comment former les médecins à utiliser l’IA comme partenaire plutôt que comme béquille ?
Si nous échouons à poser ces questions, le dé-skilling ne sera pas un simple effet secondaire involontaire — il deviendra un résultat évitable.