Prise de position de l’AMM sur l’intelligence artificielle et l’intelligence augmentée dans les soins médicaux

Adoptée par la 76ème Assemblée générale de la WMA, Porto, Portugal, octobre 2025
PRÉAMBULE
- L’Association médicale mondiale (AMM) reconnaît que l’intelligence artificielle (IA) bouleverse rapidement tous les secteurs, y compris celui des soins de santé. Dans la présente prise de position, l’AMM réaffirme son engagement en faveur de soins centrés sur le patient et dispensés par des médecins à travers le concept d’intelligence augmentée – une formulation qui met en évidence le rôle de l’IA dans l’amélioration du jugement humain, en le renforçant plutôt qu’en le remplaçant, tout en reconnaissant que pour certaines tâches spécifiques et bien définies, l’IA peut fonctionner de manière indépendante, mais toujours sous la responsabilité humaine. Grâce à l’augmentation, l’IA soutient plutôt qu’elle ne remplace le jugement clinique, l’empathie et la responsabilité humains.
- S’appuyant sur les enseignements tirés des premières expériences de déploiement, l’AMM énonce une série de principes qui maximisent les avantages de l’IA tout en atténuant ses risques, veillant ainsi à ce que son développement, sa réglementation et son utilisation restent conformes à l’éthique médicale, aux normes internationales en matière de droits de l’homme et à la confiance que le public accorde à la profession.
DÉFINITIONS ET PORTÉE
- Pour favoriser la clarté entre les juridictions tout en intégrant la perspective de l’intelligence augmentée, l’AMM utilise les définitions suivantes dans l’écosystème des soins de santé :
- Intelligence artificielle (IA) – Systèmes informatiques conçus pour effectuer des tâches qui requièrent normalement l’intelligence humaine, telles que l’apprentissage, la résolution de problèmes, la compréhension du langage et la reconnaissance de modèles.
- Intelligence augmentée – Utilisation de l’intelligence artificielle pour soutenir – et non remplacer – les capacités humaines dans le domaine des soins de santé.
- Médecin dans la boucle (Physician-in-the-loop ou PITL) – Une extension du principe général « humain dans la boucle », selon lequel un médecin agréé – plutôt qu’un utilisateur – doit examiner et conserver l’autorité finale sur tous les intrants générés par l’IA avant qu’ils n’influencent les soins cliniques. Lorsque les soins cliniques font appel à des équipes multidisciplinaires, l’application du PITL devrait faire en sorte que tous les professionnels autorisés concernés soient consultés de façon adéquate, tout en laissant au médecin la responsabilité clinique ultime.
- Mettre l’accent sur « augmenté »
- Ce terme traduit une approche de l’IA centrée sur l’homme, qui conforte le rôle du médecin en tant que décideur final. Plutôt que de considérer l’IA comme un substitut, l’intelligence augmentée envisage ces outils comme des extensions de l’expertise clinique, destinées à soutenir – et non à remplacer – le jugement professionnel, l’empathie et la responsabilité.
- Alors que l’« IA » est communément comprise comme étant l’intelligence artificielle, mettre l’accent sur la dimension augmentée permet de s’assurer que les systèmes sont conçus, validés, réglementés, et considérés comme fiables, dans le respect des bonnes priorités éthiques.
- Pour la profession médicale, ce cadrage permet également un plaidoyer plus efficace – en particulier lorsqu’elle collabore avec les décideurs, les régulateurs et les parties prenantes qui utilisent par défaut le terme plus large d’IA. Elle permet aux médecins de promouvoir des technologies qui correspondent réellement aux objectifs de soins éthiques et centrés sur le patient.
- Champ d’application et public cible
- La présente prise de position a vocation à s’appliquer à toutes les utilisations de l’IA en médecine, y compris aux soins cliniques et à la recherche, pour lesquels l’IA sert principalement à améliorer la prise de décision humaine. Les systèmes d’IA utilisés dans les contextes administratifs et éducatifs doivent être appliqués de manière responsable et sous la supervision appropriée d’êtres humains.
- Ses principes s’adressent aux médecins, aux autres professionnels des soins de santé, aux organisations de soins de santé, aux développeurs, aux régulateurs, aux payeurs, aux institutions académiques et aux partenaires industriels, chacun d’entre eux partageant la responsabilité de veiller à ce que l’IA reste un outil sûr, équitable, transparent et régi par l’éthique dans la délivrance des soins de santé dans le monde entier.
PRINCIPES DIRECTEURS POUR L’IA DANS LES SOINS DE SANTÉ
- Centrage sur l’humain : une IA centrée sur l’humain privilégie les besoins, les valeurs et le bien-être de l’être humain par rapport aux capacités technologiques ou aux mesures de performance. Ce principe prévoit de :
- préserver et respecter la dignité, et l’autonomie et les droits des patients par un consentement valable pour l’utilisation de l’IA ;
- préserver le bien-être et la santé du patient et le lien humain avant toute chose ;
- intégrer la compétence culturelle pour garantir que les systèmes d’IA respectent la diversité des valeurs, des besoins cliniques, des langues et des croyances en matière de santé des patients.
- Le bien-être des médecins : le bien-être des médecins et autres cliniciens doit être préservé, en reconnaissant à quel point il est essentiel de réduire la charge administrative et d’éviter toute charge cognitive inutile, non seulement pour soutenir les professionnels de santé, mais aussi pour garantir la qualité et la sécurité des soins prodigués aux patients.
- L’IA est un outil : l’IA doit être considérée comme un moyen de soutenir les objectifs de soins de santé et non comme une fin en soi. Contrairement aux outils médicaux traditionnels, les systèmes d’IA semblent capables d’apprendre et de s’adapter sans intervention humaine continue, ce qui rend indispensable de conjuguer leur utilisation avec une surveillance humaine rigoureuse et une gouvernance éthique.
- Responsabilité : l’intégration de l’IA ne réduit pas la responsabilité des médecins quant au bien-être et à la défense des intérêts des patients. Conformément au principe PITL, si les médecins doivent continuer à exercer leur jugement professionnel, et la responsabilité finale en matière de diagnostic, de prescription et de traitement doit toujours incomber au médecin. Dans le même temps, la généralisation de ces outils nécessite une répartition claire des responsabilités. La responsabilité doit être répartie de manière appropriée entre toutes les parties prenantes, y compris, mais sans s’y limiter, les développeurs, les organismes de soins de santé, les régulateurs, les chercheurs et les médecins.
- Transparence, explicabilité et fiabilité :
- Les systèmes d’IA doivent être conçus et développés de manière à garantir que leurs résultats et leurs recommandations puissent être compris de manière appropriée par leurs utilisateurs finaux, qu’il s’agisse de médecins, d’autres professionnels de santé ou de patients, dans le contexte clinique pertinent. La transparence transcende le paradigme de la « boîte noire », tandis que l’explicabilité permet de comprendre le fondement de résultats spécifiques, favorisant ainsi la confiance et permettant une utilisation responsable. Les exigences de transparence et les obligations d’information doivent être adaptées aux besoins des médecins et des patients sans alourdir la charge administrative ni ajouter de tâches supplémentaires. Garantir ces conditions relève de la responsabilité partagée de toutes les parties prenantes, y compris des développeurs, des organismes de santé, des régulateurs, des chercheurs et des cliniciens.
- Des mécanismes s’imposent, qui permettraient de remettre en question les résultats de l’IA dans le domaine de la santé, afin que les patients et les cliniciens, et notamment les médecins, puissent, le cas échéant, contester, revoir ou annuler les recommandations de l’IA. Cette capacité est indispensable à l’instauration d’une confiance clinique, sans laquelle les cliniciens risquent de rejeter des outils d’IA précieux ou de se fier exagérément à des systèmes opaques.
- L’explicabilité se situe sur un continuum : certains modèles complexes fonctionnent comme des « boîtes noires » où seules les relations entre les données d’entrée et les résultats obtenus peuvent être observées. Le niveau d’explicabilité requis doit de manière générale être proportionnel au risque clinique encouru et au degré d’autonomie accordé au système. Dans les contextes à haut risque, tels que les décisions de vie ou de mort, des garanties et une surveillance supplémentaires doivent être mises en place chaque fois qu’il n’est pas possible d’obtenir une explicabilité totale.
- Un déploiement sûr : pour que l’IA dans les soins de santé soit déployée en toute sécurité, il faut qu’elle soit validée dans le monde réel pour démontrer des performances constantes, son efficacité clinique et sa facilité d’utilisation avant qu’elle ne soit adoptée à grande échelle. Avant leur déploiement clinique, les systèmes d’IA doivent également faire l’objet d’une évaluation rigoureuse de leur impact sur l’éthique et l’équité en matière de santé, qui tiendra compte du contexte et sera adaptée au contexte sanitaire et à la population concernée, en accordant une attention particulière aux groupes vulnérables et sous-représentés. Sa mise en œuvre doit s’accompagner d’un contrôle continu des performances, de mécanismes de retour d’information et de protocoles d’amélioration itératifs afin de garantir des avantages constants et une accessibilité au niveau mondial. Les risques et les conséquences dommageables, y compris les biais, doivent être correctement compris, anticipés et atténués.
- Mise en œuvre équitable : tout nouvel outil bénéfique de l’IA dans le domaine de la santé doit être conçue et déployé de manière équitable dans le but qu’il soit accessible à tous à travers le monde. Une application équitable devrait, à terme, combler les écarts en matière d’accès aux soins, aux traitements et aux résultats, tout en élargissant l’accès à la technologie dans les différents établissements de santé.
- Gouvernance des données : toutes les parties prenantes doivent respecter les normes les plus strictes en matière de collecte, de stockage, de traitement et de partage des données afin de protéger la vie privée des patients et la confiance dans l’institution. Ce principe est fondamental dans la mesure où l’IA dans le domaine de la santé se nourrit de l’accès aux données. La transparence sur la provenance des données, notamment l’origine, la diversité et la qualité des ensembles de données utilisés pour former les systèmes d’IA, doit également être garantie afin d’instaurer un climat de confiance et de vérifier que les données représentent correctement les patients pris en charge.
- Impact sur l’environnement : pour que l’IA soit appliquée efficacement dans le domaine de la santé, il faut tenir compte de son impact sur l’environnement et s’engager fermement en faveur du développement durable. La responsabilité environnementale doit être associée à la validation clinique afin de garantir que les nouvelles technologies améliorent les soins tout en minimisant leur impact sur la planète.
RÔLES ET RESPONSABILITÉS DES MÉDECINS
- Jugement clinique et responsabilité : comme le mentionne le principe PITL, le jugement du médecin reste essentiel lorsqu’on utilise l’IA dans le domaine de la santé, car il s’agit à la fois d’un impératif éthique et d’une nécessité pratique. Conformément à la Déclaration de Séoul de l’AMM, les médecins doivent conserver leur autonomie professionnelle et leur indépendance clinique pour agir dans le meilleur intérêt des patients.
- Défense des patients : les médecins doivent préserver la santé, le bien-être et la sécurité des patients, tout en veillant à ce que les outils d’IA ne soient utilisés que d’une manière qui profite réellement aux patients. La sécurité des patients doit rester une priorité fondamentale, que l’intelligence augmentée soit appliquée ou non.
- Développement d’outils d’IA : les médecins doivent être associés à toutes les étapes du développement et de la mise en œuvre des technologies de l’IA dans les soins de santé. Ils doivent participer aux processus de prise de décision concernant la technologie et son utilisation dès le départ et être en mesure d’examiner minutieusement les nouvelles innovations, y compris sur le plan de leur facilité d’utilisation.
- Renouvellement des compétences : les médecins doivent conserver leurs compétences cliniques fondamentales tout en suivant une formation leur permettant de travailler de manière responsable avec les systèmes d’IA. La délégation de tâches à l’IA ne doit pas compromettre les capacités humaines nécessaires à la sécurité des soins critiques ou à la continuité lorsque les systèmes d’IA ne sont pas disponibles ou ne sont pas fiables. Les organismes de santé doivent soutenir cette démarche par le biais d’une formation continue, de cours de remise à niveau basés sur la simulation, d’un renouvellement périodique des compétences et de procédures de basculement documentées qui permettent aux médecins d’évaluer de manière critique, de passer outre et, si nécessaire, d’effectuer des tâches essentielles de manière indépendante.
- Signalement des incidents : les médecins doivent être en mesure de signaler les incidents et de contester les résultats obtenus grâce à l’utilisation de l’IA dans le domaine des soins de santé.
DROITS ET PARTICIPATION DES PATIENTS
- Si les droits élémentaires des patients figurent dans les politiques existantes de l’AMM, l’IA présente de nouveaux risques – notamment en raison de sa dépendance aux données – qui requièrent une attention éthique particulière.
- Consentement éclairé : les systèmes d’IA étant fondamentalement tributaires des informations sur la santé des patients, il est essentiel de mettre en place des garanties adéquates pour l’utilisation des données. Les principes du consentement éclairé et de la transparence, qui s’appuient sur la Déclaration de Lisbonne de l’AMM affirmant les droits des patients à l’information et à l’autodétermination, doivent être rigoureusement appliqués dans les soins de santé utilisant l’IA. Dans la mesure du possible, les patients doivent comprendre et être informés du rôle que joue l’IA dans leurs soins d’une manière compréhensible et significative, tandis que les médecins conservent la responsabilité de garantir une utilisation sûre et appropriée de l’IA. Dans les cas où une compréhension technique complète n’est pas possible, le consentement éclairé peut légitimement être élargi à un modèle de « consentement à la gouvernance », selon lequel les patients accordent une confiance justifiée aux médecins, aux établissements de santé et aux autorités de contrôle réglementaire pour défendre leurs droits, leur sécurité et leur bien-être.
- Droits sur les données : les patients doivent être informés des limites des systèmes d’IA et des risques d’erreur, ainsi que de la manière dont la supervision par les médecins aide à garantir leur propre protection. Les patients doivent conserver le droit de demander la suppression de leurs données des systèmes d’IA lorsque cela est possible et légalement autorisé, et celui de se faire expliquer comment leurs données contribuent à leurs soins.
- Autonomie du patient et droits d’explication : l’autonomie du patient doit être préservée au moyen de procédures de consentement adéquates. Les patients devraient conserver le droit, lorsque cela est possible, de refuser les interventions assistées par l’IA et de demander une évaluation exclusivement humaine. Lorsque ce refus n’est pas possible en raison de l’intégration systémique de l’IA, des garanties doivent être mises en place pour que les données des patients restent anonymes et non traçables. Des explications compréhensibles et impartiales sur la manière dont l’IA contribue aux soins, adaptées aux besoins et aux préférences des patients, doivent être mises à sa leur disposition. Les patients doivent également garder le droit de contester les recommandations générées par IA s’ils estiment qu’elles sont erronées et de demander une compensation appropriée. Cela doit concerner l’utilisation de l’IA par les assureurs santé pour déterminer les soins, les paiements et la couverture des patients.
- Patients vulnérables : les patients vulnérables, tels que ceux et celles dont les capacités de décision sont réduites, ne doivent pas être désavantagés ou pénalisés par l’utilisation de l’IA dans les soins de santé. Les mesures de protection doivent inclure une réduction proactive des préjugés, le développement de jeux de données inclusifs et des procédures de consentement ou de gouvernance adaptées afin de protéger les personnes incapables de faire preuve d’une autonomie totale. Une attention particulière doit être accordée à la mise en œuvre des principes du consentement éclairé et des droits relatifs aux données, de manière à ne pas renforcer les inégalités structurelles ni exclure les groupes vulnérables d’un accès équitable aux soins.
GOUVERNANCE, RÉGLEMENTATION ET RESPONSABILITÉ
- Des normes actualisées : la réglementation, les normes et les orientations doivent être suffisamment solides pour garantir la sécurité des patients et veiller à ce que les règles éthiques de la profession médicale soient respectées, les régulateurs étant habilités à se tenir au courant des évolutions et à faire appliquer la législation. Les politiques en matière d’IA dans le domaine des soins de santé doivent être coordonnées et mises en cohérence au sein des différentes entités gouvernementales.
- Responsabilité : il convient d’établir des règles claires en matière de responsabilité juridique, y compris pour les développeurs de l’IA, les médecins et les organismes de soins de santé. La responsabilité doit être partagée et proportionnelle, reflétant le rôle de chaque acteur dans la conception, le déploiement et l’utilisation, plutôt que d’être attribuée par défaut à un seul acteur.
- Audit continu : les processus réglementaires et les organes chargés de l’IA dans les soins de santé devraient faire l’objet d’examens et d’audits réguliers, y compris via des vérifications de leur partialité, des examens éthiques et une gouvernance participative avec l’apport des médecins.
L’INTÉGRATION CLINIQUE ET LA MISE EN ŒUVRE DE L’AI DANS LE DOMAINE DE LA SANTÉ
- Évaluation des outils et soutien à la gouvernance : les systèmes d’IA implantés en milieu clinique doivent être validés pour leur pertinence clinique, leur sécurité et leur efficacité. Des mises à jour régulières s’imposent pour maintenir la sécurité et garantir une interaction efficace entre les systèmes et l’évolution des pratiques cliniques. Dans les environnements de prestation complexes, l’adoption de l’IA doit également être soutenue par des structures de gouvernance appropriées mettant en adéquation les équipes cliniques, les dirigeants et les équipes technologiques afin de garantir une mise en œuvre sûre et responsable.
- Intégration des flux de travail : le déploiement d’outils d’IA nécessite une intégration transparente dans les flux de travail existants pour en accroître la convivialité et en faire des éléments de soutien plutôt que des éléments perturbateurs susceptibles de compromettre l’efficacité de la prestation des soins. Des mécanismes doivent être mis en place pour assurer le suivi des recommandations de l’IA et de leur impact sur les décisions cliniques finales.
- Suivi post-déploiement : il est essentiel de mettre en place un suivi post-déploiement solide pour s’assurer que les systèmes d’IA continuent à fonctionner comme prévu. Les systèmes d’IA peuvent s’écarter des paramètres de performance initiaux lorsqu’ils sont confrontés à de nouvelles populations de patients non représentées dans les données de formation ou lorsque les pratiques cliniques évoluent, ou même au sein des mêmes populations au fil du temps. Une attention particulière doit ainsi être accordée au suivi des résultats dans les populations de patients qui ne sont pas représentées de manière adéquate dans les ensembles de données de formation.
MISE EN ŒUVRE DE LA GOUVERNANCE DES DONNÉES
- Données du patient : Toutes les informations permettant d’identifier le patient, utilisées ou générées par les systèmes d’IA, doivent être collectées, stockées et traitées dans le strict respect de la Déclaration de Taipei de l’AMM sur les considérations éthiques concernant les bases de données de santé et les biobanques, ainsi qu’avec toutes les lois et réglementations applicables. Des mesures de sécurité sont impératives pour préserver la confidentialité, empêcher tout accès non autorisé et maintenir la confiance thérapeutique à la base de la relation patient-médecin. En outre, l’utilisation des données des patients doit respecter les mêmes garanties éthiques que celles qui s’appliquent aux données des médecins, notamment la limitation de la finalité, la transparence et le consentement, la protection contre les abus et, dans la mesure du possible, l’anonymisation et la minimisation des données collectées.
- Données sur les médecins : Les systèmes d’IA recueillent de plus en plus de données granulaires sur les médecins (par exemple, les frappes au clavier, les enregistrements vocaux, les paramètres du flux de travail, les habitudes de prescription). Si ces informations peuvent à leur tour améliorer la qualité et la sécurité, elles présentent également un risque de mise sous surveillance, d’utilisation abusive à des fins punitives ou d’une moindre autonomie professionnelle. C’est pourquoi :
- Limitation de la finalité : les données permettant l’identification du médecin ne peuvent être utilisées que pour des objectifs cliniques, éducatifs ou d’amélioration de la qualité qui ont été clairement définis, annoncés préalablement aux médecins concernés et acceptés par eux.
- Transparence et consentement : les médecins doivent être informés, à l’avance et dans des termes compréhensibles, des données collectées, de la manière dont elles seront analysées et des personnes qui y auront accès. Un consentement explicite est nécessaire pour les utilisations autres que les soins directs aux patients ou le retour d’information demandé par le médecin.
- Protection contre l’utilisation abusive : les données ne doivent pas être réaffectées dans le but de pénaliser les médecins, de fixer des quotas de performance irréalistes ou de porter atteinte à la relation patient-médecin. Toute utilisation secondaire (par exemple, analyse commerciale, surveillance administrative) doit faire l’objet d’un examen éthique distinct et d’un consentement.
- Anonymisation et minimisation : dans la mesure du possible, les données relatives aux médecins doivent être dépersonnalisées ou agrégées, et leur collecte doit être limitée au minimum nécessaire pour atteindre l’objectif fixé.
- Gouvernance et surveillance: Les établissements de santé doivent mettre en place des mécanismes de surveillance indépendants – tels que, mais sans s’y limiter, la désignation de responsables de la protection des données, de comités d’éthique et des audits externes périodiques – afin de vérifier le respect des garanties susmentionnées, tant pour les données des patients que pour celles des médecins. Toute violation ou utilisation non autorisée doit faire l’objet d’un signalement transparent, de mesures correctives et, le cas échéant, de sanctions. De plus, les développeurs de systèmes d’IA doivent mettre en œuvre et soutenir des politiques et des contrôles de cybersécurité robustes afin de protéger la confidentialité, l’intégrité et la disponibilité des données de santé tout au long du cycle de vie du système d’IA.
L’ENSEIGNEMENT MÉDICAL ET LE RENFORCEMENT DES CAPACITÉS
- Exigences de maîtrise de l’IA : les médecins doivent posséder des connaissances appropriées sur l’IA dans un contexte d’évolution rapide, y compris les connaissances et les compétences nécessaires pour utiliser correctement les outils d’IA et la capacité de les comprendre et de les évaluer d’un point de vue critique. La maîtrise de l’IA doit être systématiquement intégrée dans les programmes d’études médicales de premier cycle afin de garantir que tous les médecins acquièrent une connaissance élémentaire de ces technologies. En outre, la maîtrise de l’IA devrait être consolidée par des programmes obligatoires de formation professionnelle continue, afin que les médecins puissent suivre l’évolution des outils et garantir leur utilisation sûre, éthique et éclairée dans la pratique.
- L’équité mondiale : il faut tout particulièrement veiller à combler les écarts entre les régions en matière d’éducation à l’IA, en mettant l’accent sur le renforcement des capacités dans les pays à revenu faible et intermédiaire (PRFI). Une répartition équitable des ressources et des possibilités éducatives est essentielle pour éviter de creuser les disparités dans le déploiement de l’IA et faire en sorte que le monde entier bénéficie de ces avancées technologiques.
RECHERCHE, INNOVATION ET EVALUATION
- Normes de recherche médicale : toute recherche médicale impliquant l’IA, que celle-ci soit l’outil ou l’objet de l’étude, doit respecter les normes internationales reconnues en matière de recherche médicale, notamment les bonnes pratiques cliniques et la Déclaration d’Helsinki de l’AMM et sa Déclaration de Taipei.
CONSIDÉRATIONS MONDIALES ET COLLABORATION
- Applicabilité interjuridictionnelle : les politiques et infrastructures d’IA devraient, dans la mesure du possible, être harmonisées afin d’être applicables dans toutes les juridictions.
- Diversité des situations en matière de soins de santé : des solutions d’IA adaptées doivent être recherchées dans diverses situations de soins de santé, y compris les contextes de soins de santé disposant de peu de ressources. Cela nécessite de soutenir les innovations développées localement et adaptées au contexte afin de garantir que les systèmes d’IA répondent aux besoins, aux réalités et aux contraintes locales de ressources.
- Sensibilité culturelle : les politiques relatives à l’IA devraient respecter les différentes approches culturelles tout en veillant au respect des principes éthiques fondamentaux, tels que le respect de la dignité humaine, des droits et du bien-être.
RECOMMANDATIONS
- À l’intention des médecins et des associations médicales : les professionnels de la santé et leurs organisations représentatives devraient promouvoir l’élaboration de programmes complets de formation à l’IA, collaborer activement aux structures de gouvernance de l’IA – notamment en contribuant à l’élaboration de bonnes pratiques pour l’utilisation de l’IA en médecine – et respecter des normes éthiques rigoureuses afin de garantir des soins de qualité aux patients dans un environnement de soins de santé amélioré par l’IA. Ils devraient également envisager de créer du matériel pédagogique destiné aux patients de manière à favoriser la transparence et une compréhension éclairée de l’IA dans le domaine des soins de santé.
- A l’intention des établissements de santé : les établissements de santé doivent définir des cadres solides de gouvernance pour l’adoption en toute sécurité des technologies de l’IA et mettre en œuvre des processus de surveillance continue. Les organisations, lorsqu’elles déploient des systèmes d’IA, doivent trouver un équilibre entre innovation et considérations de sécurité, dans le respect du jugement clinique. Il est important que le déploiement de l’IA se fasse lorsqu’il est démontré qu’il sert les intérêts des patients, sans imposer l’utilisation de l’IA comme condition à l’obtention d’une licence, d’une participation ou d’un remboursement.
- À l’intention des développeurs de technologies : les entreprises technologiques et les développeurs d’IA doivent privilégier les approches de co-conception avec les médecins en activité et garantir la transparence dans le développement, le déploiement et l’utilisation des systèmes. Une collaboration soutenue entre les experts cliniques et techniques tout au long du cycle de développement est indispensable à la création d’outils destinés à améliorer la qualité et l’équité des soins de santé et à soutenir de manière efficace l’activité clinique.
- A l’intention des régulateurs et des décideurs politiques : en concertation avec les associations médicales (et d’autres organisations de professionnels de la santé), élaborer des réglementations fondées sur les connaissances médicales et favoriser la coopération internationale.
- À l’intention des établissements d’enseignement : intégrer la formation à l’IA dans les programmes d’études et soutenir le renforcement des capacités à l’échelle mondiale.
- A l’intention des chercheurs et des innovateurs : favoriser les avancées éthiques, équitables et fondées sur des données probantes dans le domaine de l’IA.
Annexe
IA étroite:
Applications spécifiques à un domaine, limitées à des objectifs cliniques ou administratifs clairement définis.
IA générative:
Modèles, souvent des grands modèles de langage, qui créent un nouveau contenu clinique – comme des ébauches de documentation ou des suggestions de programmes de traitement – à partir de données d’entraînement.
Modèles fondamentaux:
Grands modèles, entraînés de manière continue, qui servent de base à de multiples applications dans le domaine de la santé et nécessitent par conséquent une supervision continue et adaptée au domaine.
Apprentissage automatique:
Sous-ensemble de l’intelligence artificielle dans lequel les algorithmes informatiques améliorent de manière autonome leurs performances dans une tâche spécifique en identifiant des modèles dans les données plutôt qu’en suivant des instructions explicites et préprogrammées.
Relation patient-médecin:
La confiance sera renforcée dans la relation patient-médecin lorsque:
-les médecins discutent en toute transparence du rôle de l’IA dans les soins aux patients ;
-les systèmes d’IA améliorent de manière démontrable la qualité ou les niveaux de sécurité ;
-les patients comprennent clairement comment leurs données sont utilisées et protégées ;
-les médecins accordent plus de temps aux patients.