C’est l’une des questions de politique publique les plus rares qui unite le gouverneur Ron DeSantis (R) de Floride et le gouvernement démocrate du Maryland contre le président Donald Trump et le gouverneur Gavin Newsom (D) de Californie : comment les assureurs santé devraient-ils utiliser l’intelligence artificielle (IA) ?
Réglementer l’IA, en particulier son utilisation par les assureurs hospitaliers, devient un sujet politiquement polarisant et brouille les anciennes lignes partisanes.
Les promoteurs de l’IA, dirigés par Trump, ne se contentent pas de pousser son intégration dans le gouvernement, comme dans l’expérience de Medicare utilisant l’IA pour l’autorisation préalable, mais essaient aussi d’empêcher d’autres d’imposer des freins et des garde-fous. Un décret présidentiel de décembre cherche à repousser la plupart des efforts étatiques visant à réguler l’IA, décrivant « une course avec des adversaires pour la suprématie » dans une nouvelle « révolution technologique ».
« Pour gagner, les entreprises américaines d’IA doivent pouvoir innover sans une réglementation lourde », indiquait le décret de Trump. « Mais une régulation étatique excessive va à l’encontre de cet impératif. »
Partout dans le pays, les États se rebellent. Au moins quatre d’entre eux — l’Arizona, le Maryland, le Nebraska et le Texas — ont adopté l’an dernier des lois qui restreignent l’usage de l’IA dans l’assurance maladie. Deux autres, l’Illinois et la Californie, avaient adopté des textes l’année précédente.
Les législateurs du Rhode Island prévoient de revenir à la charge cette année après qu’un projet de loi obligeant les régulateurs à recueillir des données sur l’utilisation de la technologie n’est pas parvenu à franchir les deux chambres l’an dernier. Un texte en Caroline du Nord exigeant que les assureurs n’utilisent pas l’IA comme seul fondement d’une décision de couverture a suscité un vif intérêt chez les législateurs républicains l’an dernier.
DeSantis, ancien candidat à la présidence du Parti républicain, a dévoilé une « Déclaration des droits de l’IA », dont les dispositions incluent des restrictions sur son utilisation dans le traitement des demandes d’indemnisation et une exigence permettant à un organisme réglementaire d’État d’inspecter les algorithmes.
« Nous avons la responsabilité de veiller à ce que les nouvelles technologies se développent de manière morale et éthique, dans des façons qui renforcent nos valeurs américaines, et non les éroder », a déclaré DeSantis lors de son allocution sur l’État de l’État en janvier.
Propice à la réglementation
Des sondages montrent que les Américains se montrent sceptiques envers l’IA. Un sondage de décembre réalisé par Fox News indique que 63 % des électeurs se décrivent comme « très » ou « extrêmement » préoccupés par l’IA, et ce, avec des majorités à travers le spectre politique. Près des deux tiers des démocrates et un peu plus de la moitié des républicains disent avoir des réserves à propos de l’IA.
Le mois dernier, le comité des moyens et de la sécurité à la Chambre a convoqué des dirigeants de Cigna, UnitedHealth Group et d’autres grands assureurs pour aborder les questions de coût. Interrogés, les dirigeants ont soit démenti, soit évité de parler de l’emploi des technologies les plus avancées pour refuser des demandes d’autorisation ou rejeter des réclamations.
L’IA « n’est jamais utilisée pour refuser », a affirmé le PDG de Cigna, David Cordani, devant les législateurs. Comme d’autres acteurs de l’assurance maladie, l’entreprise est poursuivie pour ses méthodes de refus de réclamations, comme le met en lumière ProPublica. La porte-parole de Cigna, Justine Sessions, a déclaré que le processus de refus de réclamations « n’est pas alimenté par l’IA ».
En effet, les entreprises s’efforcent de présenter l’IA comme un serviteur fidèle. Optum, filiale du géant de l’assurance santé UnitedHealth Group, a annoncé le 4 février qu’elle déployait une autorisation préalable assistée par technologie, en mettant en avant une accélération des approbations.
« Nous transformons le processus d’autorisation préalable afin de réduire les frictions qu’il engendre », a déclaré John Kontor, MD, vice-président senior chez Optum, dans un communiqué de presse.
Cependant, Alex Bores, informaticien et député à l’Assemblée de New York, figure de premier plan du débat législatif de l’État sur l’IA qui a abouti à un texte global régissant la technologie, affirme que l’IA est un domaine naturel à réglementer.
« Tant de personnes trouvent déjà les réponses fournies par leurs compagnies d’assurance opaques », a déclaré Bores, démocrate en lice pour le Congrès. « Ajouter une couche qui, par sa nature, ne peut pas s’expliquer ne semble pas utile là-bas. »
Du côté de la médecine, certains — notamment les médecins — applaudissent les législateurs et les régulateurs. L’American Medical Association « soutient des réglementations étatiques visant à accroître la responsabilité et la transparence des assureurs privés qui utilisent l’IA et des outils d’apprentissage automatique pour examiner les demandes d’autorisation préalable », a déclaré John Whyte, MD, MPH, PDG de l’organisation.
Whyte a ajouté que les assureurs utilisent déjà l’IA et que « les docteurs continuent de faire face à des retards dans les soins, à des décisions d’assurance opaques, à des règles d’autorisation incohérentes et à une lourde charge administrative ».
Les assureurs résistent
Avec des textes approuvés ou en cours d’examen dans au moins neuf États, il demeure incertain à quel point les lois d’État auront un effet, selon Daniel Schwarcz, professeur de droit à l’Université du Minnesota. Les États ne peuvent pas réguler les plans « auto-assurés », utilisés par de nombreux employeurs; seul le gouvernement fédéral détient ce pouvoir.
Mais des questions plus profondes subsistent, dit Schwarcz : la plupart des lois étatiques qu’il a vues exigeraient qu’un humain signe toute décision proposée par l’IA, mais sans préciser ce que cela signifie concrètement.
Ces lois n’offrent pas un cadre clair pour comprendre combien de révision est nécessaire, et avec le temps, les humains ont tendance à devenir un peu paresseux et à approuver simplement les suggestions d’un ordinateur, explique-t-il.
Cependant, les assureurs voient cette vague de propositions comme un problème. « Plus généralement, le fardeau réglementaire est réel », affirme Dan Jones, vice-président principal des affaires fédérales à l’Alliance des Plans de Santé Communautaire, un cartel pour certains assureurs privés à but non lucratif. Si les assureurs passent plus de temps à naviguer dans un patchwork de lois étatiques et fédérales, cela signifie « moins de temps à consacrer et à investir dans ce que nous sommes censés faire, à savoir veiller à ce que les patients aient le bon accès aux soins ».
Linda Ujifusa, sénatrice démocrate du Rhode Island, a déclaré que les assureurs s’étaient opposés l’an dernier au projet de loi qu’elle a proposé pour restreindre l’utilisation de l’IA dans les refus de couverture. Il a été adopté dans une chambre, mais pas dans l’autre.
« Il y a une forte opposition » à tout ce qui réglemente des tactiques comme l’autorisation préalable, a-t-elle déclaré, et « une forte opposition » à identifier des intermédiaires tels que les assureurs privés ou les gestionnaires de prestations pharmaceutiques « comme un problème ».
Dans une lettre critiquant le texte, AHIP, un groupement professionnel des assureurs, a plaidé pour des « politiques équilibrées qui favorisent l’innovation tout en protégeant les patients ».
À la recherche d’un équilibre
En Californie, Newsom a signé certaines lois régissant l’IA, dont l’une oblige les assureurs santé à s’assurer que leurs algorithmes soient appliqués de manière équitable et impartiale. Mais le gouverneur démocrate a vetoé d’autres textes plus ambitieux, tels qu’un projet de loi prévoyant davantage d’obligations sur le fonctionnement de la technologie et des exigences de divulgation de son utilisation aux régulateurs, aux cliniciens et aux patients sur demande.
Chris Micheli, lobbyiste basé à Sacramento, a déclaré que le gouverneur cherche probablement à garantir que le budget de l’État — alimenté de manière constante par des gains importants de la bourse, notamment des entreprises technologiques — reste florissant. Cela nécessite un équilibre.
Newsom tente de « veiller à ce que le robinet financier continue de couler, tout en garantissant qu’il y ait aussi des protections pour les consommateurs californiens », a-t-il ajouté. Il a précisé que les assureurs estiment déjà être soumis à une myriade de réglementations.
L’administration Trump semble convaincue. Le récent décret présidentiel propose d’assigner en justice et de restreindre certains financements fédéraux pour tout État qui adopte ce qu’elle qualifie de régulation étatique « excessive », avec quelques exceptions, notamment pour les politiques qui protègent les enfants.
Cette directive pourrait être inconstitutionnelle, d’après Carmel Shachar, spécialiste des politiques de santé à la Harvard Law School. La préemption provient généralement du Congrès, a-t-elle indiqué, et les législateurs fédéraux ont à deux reprises envisagé, puis refusé d’adopter, une disposition empêchant les États de réguler l’IA.
« En nous fondant sur notre compréhension précédente du fédéralisme et de l’équilibre des pouvoirs entre le Congrès et l’exécutif, un recours judiciaire serait très susceptible de réussir », a déclaré Shachar.
Certains législateurs considèrent l’ordre de Trump avec un certain scepticisme, notant que l’administration a été en train de retirer des garde-fous, et d’empêcher les autres d’en édifier, à un degré extrême.
« Il ne s’agit pas vraiment de savoir si cela doit être fédéral ou étatique en ce moment », a déclaré Bores. « La question est : faut-il que ce soit l’État ou pas du tout ? »