Declaración de la AMM sobre la Inteligencia artificial y aumentada en la Atención Médica


Adoptada por la 76.ª Asamblea General de la AMM, Oporto, Portugal, octubre de 2025

 

INTRODUCCION

  1. La Asociación Médica Mundial (AMM) reconoce que la inteligencia artificial (IA) está transformando rápidamente todos los sectores, incluido el sanitario. En esta declaración, la AMM reafirma su compromiso con una atención centrada en el paciente y dirigida por el médico, enfatizando el concepto de inteligencia aumentada, un enfoque que destaca el papel de la IA al aumentar la opinión humana, fortaleciéndola en lugar de suplantarla, al tiempo que se reconoce que, en tareas específicas y bien definidas, la IA puede realizarlas de forma independiente, pero siempre bajo la responsabilidad humana. Mediante el aumento, la IA apoya, en lugar de reemplazar, la opinión humana, la empatía y la responsabilidad.
  2. Basándose en las lecciones aprendidas de las primeras implementaciones, la AMM establece principios que maximizan los beneficios de la IA y mitigan sus riesgos, garantizando que su desarrollo, regulación y uso sean coherentes con la ética médica, las normas internacionales de derechos humanos y la confianza del público en la profesión.

DEFINICIONES Y ALCANCE

  1. Para promover la claridad en todas las jurisdicciones al tiempo que se integra la perspectiva de inteligencia aumentada, la AMM utiliza las siguientes definiciones de trabajo en el ecosistema de salud:
  • Inteligencia Artificial (IA): Sistemas informáticos diseñados para realizar tareas que normalmente requieren inteligencia humana, como aprender, resolver problemas, comprender el lenguaje y reconocer patrones.
  • Inteligencia Aumentada: Uso de la inteligencia artificial diseñada para apoyar, no reemplazar, las capacidades humanas en el ámbito sanitario.
  • Médico en el circuito (PITL): una extensión del principio general de «humano en el circuito» mediante el cual un médico con licencia, en lugar de cualquier usuario, debe revisar y conservar la autoridad final sobre todas las entradas generadas por la IA antes de que den forma a la atención clínica. Cuando la atención clínica involucra equipos multidisciplinarios, la implementación de PITL debe garantizar que todos los profesionales autorizados relevantes sean consultados adecuadamente, mientras que el médico conserva la responsabilidad clínica final.
  1. Enfasis en “aumentada”
  • El término señala un enfoque de la IA centrado en el ser humano, que refuerza el rol del médico como quien toma las decisiones finales. En lugar de considerar a la IA como un sustituto, la inteligencia aumentada enmarca estas herramientas como extensiones de la experiencia clínica, diseñadas para apoyar, no reemplazar, la opinión profesional, la empatía y la responsabilidad.
  • Si bien la «IA» se entiende ampliamente como inteligencia artificial, enfatizar la perspectiva aumentada ayuda a garantizar que los sistemas se diseñen, validen, regulen y se les confíen las prioridades éticas correctas.
  • Para la profesión médica, este enfoque también facilita una defensa más eficaz, especialmente al interactuar con legisladores, reguladores y partes interesadas que, por lo general, utilizan el término más amplio «IA». Capacita a los médicos para promover tecnologías que realmente se alinean con los objetivos de una atención ética y centrada en el paciente.
  1. Alcance y audiencia
  • Esta declaración pretende aplicarse a todos los usos clínicos, administrativos, educativos y de investigación de la IA en medicina, incluida la atención clínica y la investigación, donde la IA complementa principalmente la toma de decisiones humanas. Los sistemas de IA en contextos administrativos y educativos deben aplicarse de forma responsable y con la supervisión humana adecuada.
  • Sus principios se dirigen a médicos, otros profesionales de la salud, organizaciones de atención médica, desarrolladores, reguladores, pagadores, instituciones académicas y socios de la industria, cada uno de los cuales comparte la responsabilidad de garantizar que la IA siga siendo una herramienta segura, equitativa, transparente y éticamente gobernada en la prestación de servicios de salud en todo el mundo.

PRINCIPIOS RECTORES DE LA IA EN LA ATENCION MEDICA

  1. Centrarse en el ser humano: El enfoque centrado en el ser humano en la IA prioriza las necesidades, los valores y el bienestar humanos por encima de las capacidades tecnológicas o las métricas de rendimiento. Este principio incluye:
  • Mantener y respetar la dignidad, la autonomía y derechos del paciente mediante un consentimiento significativo para el uso de la IA.
  • Preservar la salud y el bienestar del paciente y la conexión humana como consideracines primordiales.
  • Incorporar la competencia cultural para garantizar que los sistemas de IA respeten los diversos valores de los pacientes, las necesidades clínicas, los idiomas y las creencias sobre la salud.
  1. Bienestar del médico: Se debe proteger el bienestar de los médicos y otros profesionales clínicos, reconociendo que reducir la carga administrativa y evitar una carga cognitiva innecesaria son esenciales no solo para apoyar a los profesionales de la salud, sino también para garantizar la calidad y la seguridad de la atención al paciente.
  2. La IA es una herramienta: La IA debe servir como un medio para respaldar los objetivos de la atención médica, no como un fin en sí misma. A diferencia de las herramientas médicas tradicionales, los sistemas de IA pueden parecer aprender y adaptarse sin una intervención humana continua, lo que hace esencial combinar su uso con una sólida supervisión humana y una gobernanza ética.
  3. Responsabilidad: La integración de la IA no disminuye la responsabilidad del médico por el bienestar y la defensa del paciente. De acuerdo con el principio PITL, los médicos deben seguir ejerciendo su criterio profesional, y la responsabilidad final del diagnóstico, indicación y terapia siempre deben ser del médico. Al mismo tiempo, la creciente prevalencia de estas herramientas exige una responsabilidad claramente distribuida. La responsabilidad debe distribuirse adecuadamente entre todas las partes interesadas, incluidos, entre otros, los desarrolladores, las organizaciones sanitarias, los organismos reguladores, y los investigadores y profesionales clínicos.
  4. Transparencia, explicación y credibilidad:
  • Los sistemas de IA deben diseñarse y desarrollarse de manera que garanticen que sus resultados y recomendaciones puedan ser comprendidos de manera significativa por los usuarios finales previstos (ya sean médicos, otros profesionales de la salud o pacientes) dentro del contexto clínico pertinente. La transparencia va más allá del paradigma de la «caja negra», mientras que la explicación proporciona comprensión de la base de resultados específicos, fomentando así la confianza y permitiendo un uso responsable. Los requisitos de transparencia y la divulgación deben adaptarse a las necesidades de médicos y pacientes sin añadir papeleo ni tareas administrativas adicionales. Garantizar estas cualidades es una responsabilidad compartida entre todas las partes interesadas, incluidos desarrolladores, organizaciones sanitarias, organismos reguladores, investigadores y profesionales clínicos.
  • Deben existir mecanismos para cuestionar significativamente los resultados de la IA en el ámbito sanitario, permitiendo a pacientes y profesionales clínicos, incluidos los médicos cuestionar, revisar o anular las recomendaciones de la IA cuando corresponda. Esta capacidad es esencial para generar confianza clínica, sin la cual los profesionales sanitarios podrían rechazar herramientas valiosas de la IA o depender excesivamente de sistemas opacos.
  • La explicación existe en un espectro, con algunos modelos complejos que funcionan como «cajas negras» donde solo se pueden observar las relaciones de entrada/salida. El nivel de explicación requerido debe ser generalmente proporcional al riesgo clínico implicado y al grado de autonomía otorgado al sistema. En contextos de alto riesgo, como la toma de decisiones de vida o muerte, deben existir salvaguardas y supervisión adicionales cuando no se pueda lograr una explicación completa.
  1. Implementación segura: La implementación segura de la IA en la atención médica requiere una validación en condiciones reales que demuestre su rendimiento constante, eficacia clínica y utilidad antes de su adopción generalizada. Antes de su implementación clínica, los sistemas de IA también deben someterse a rigurosas evaluaciones de impacto ético y de equidad en la salud que sean sensibles al contexto y adaptadas al entorno de la atención médica y la población específicos, con especial atención a los grupos vulnerables y subrepresentados. La implementación debe incluir la monitorización continua del rendimiento, mecanismos de retroalimentación y protocolos de mejora reiterativos para garantizar un beneficio sostenido y una accesibilidad global. Es necesario comprender, anticipar y mitigar y tener debidamente en cuenta los riesgos y las consecuencias perjudiciales, incluidos los sesgos.
  2. Implementación equitativa: Las nuevas y beneficiosas herramientas en la IA para la atención médica deben desarrollarse y utilizarse de forma equitativa con el objetivo de que sean accesibles a nivel global. La implementación equitativa debe, en última instancia, cerrar las brechas en el acceso a la atención médica, el tratamiento y los resultados, y al mismo tiempo ampliar el acceso a la tecnología en distintos centros de atención médica.
  3. Gobernanza de datos: Todas las partes interesadas deben mantener los más altos estándares de recopilación, almacenamiento, procesamiento e intercambio de datos para proteger la privacidad del paciente, y la confianza institucional. Este principio es fundamental, ya que la IA en el ámbito sanitario depende del acceso a los datos. También debe garantizarse la transparencia en torno a la procedencia de los datos (incluido el origen, la diversidad y la calidad de los conjuntos de datos utilizados para entrenar los sistemas de IA) para generar confianza y verificar que los datos representen adecuadamente a los pacientes atendidos.
  4. Impacto ambiental: La implementación efectiva de la IA en la atención médica debe considerar cuidadosamente su impacto ambiental y un fuerte compromiso con la sostenibilidad. La responsabilidad ambiental debe integrarse con la validación clínica para garantizar que las nuevas tecnologías mejoren la atención y minimicen el daño al planeta.

FUNCIONES Y RESPONSABILIDADES DE LOS MEDICOS

  1. Opinión Clínica y Responsabilidad: Como se menciona en el principio PITL, la opinión médica sigue siendo esencial cuando se utiliza la IA en la atención médica, como imperativo ético y necesidad práctica. Los médicos deben mantener la autonomía profesional y la independencia clínica para servir al máximo los intereses de los pacientes, según lo establecido en la Declaración de Seúl de la AMM.
  2. Defensa del Paciente: Los médicos deben salvaguardar la salud, el bienestar y la seguridad del paciente y garantizar que las herramientas de la IA solo se usen de modo que realmente los beneficien. La seguridad del paciente debe mantenerse como una prioridad fundamental, se aplique o no la inteligencia aumentada.
  3. Elaboración de herramientas de la IA: Los médicos deben participar en toda la elaboración e implementación de las tecnologías de la IA en la atención médica. Deben participar en la toma de decisiones sobre la tecnología y su uso desde el principio y estar capacitados para analizar las nuevas innovaciones, incluida la utilidad.
  4. Mantenimiento de competencias: Los médicos deben mantener la experiencia clínica esencial, a la vez que se capacitan para trabajar responsablemente con sistemas de IA. La delegación de tareas a la IA no debe mermar la capacidad humana necesaria para una atención segura y crítica ni para la continuidad cuando los sistemas de IA no están disponibles o no son fiables. Las organizaciones sanitarias deben apoyar esto mediante formación continua, cursos de actualización basados ​​en simulación, mantenimiento periódico de habilidades y procedimientos documentados de conmutación por error que permitan a los profesionales clínicos evaluar críticamente, anular y, cuando sea necesario, realizar tareas esenciales de forma independiente.
  5. Notificación de incidentes: Los médicos deben estar capacitados para informar incidentes y cuestionar los resultados derivados del uso de la IA en la atención médica.

DERECHOS Y COMPROMISO DEL PACIENTE

  1. Si bien los derechos fundamentales de los pacientes están contemplados en las políticas vigentes de la AMM, la IA presenta nuevos riesgos, especialmente debido a su dependencia de los datos, que requieren una atención ética específica.
  2. Consentimiento informado: Dada la dependencia fundamental de los sistemas de la IA de la información de salud del paciente, es crucial contar con garantías adecuadas para el uso de datos. Los principios del consentimiento informado y la transparencia, basado en la Declaración de Lisboa de la AMM, que afirma los derechos de los pacientes a la información y la autodeterminación, debe aplicarse rigurosamente en la atención médica que involucra la IA. Los pacientes deben recibir información comprensible y significativa sobre el papel que desempeña la IA en su atención, mientras que los médicos conservan la responsabilidad de garantizar un uso seguro y adecuado de la IA. En circunstancias donde la comprensión técnica completa resulta impráctica, el consentimiento informado puede extenderse razonablemente a un modelo de «consentimiento para la gobernanza», mediante el cual los pacientes depositan una confianza justificada en los médicos, las instituciones sanitarias y la supervisión regulatoria para defender sus derechos, seguridad y bienestar:
  3. Derechos de Datos: Los pacientes deben ser informados sobre las limitaciones y el potencial de error de los sistemas de IA, así también sobre cómo la supervisión médica ayuda a garantizar su protección. Los pacientes deben conservar el derecho a que sus datos se eliminen de los sistemas de IA cuando sea posible y permitido legalmente y el derecho a comprender cómo contribuyen a su atención médica.
  4. Autonomía del Paciente y Derechos de Explicación: La autonomía del paciente debe preservarse mediante procesos de consentimiento significativos. Los pacientes deben conservar el derecho, cuando sea posible, a rechazar intervenciones mediadas por la IA y a solicitar una evaluación exclusivamente humana. Cuando dicho rechazo no sea posible debido a la integración sistémica de la IA, las salvaguardias deben garantizar que los datos de los pacientes permanezcan anónimos e irreconocibles. Los pacientes deben tener acceso a explicaciones comprensibles y no sesgadas sobre cómo la IA contribuye a la atención médica, adaptadas a sus necesidades y preferencias de información. También deben tener derecho a impugnar las recomendaciones generadas por IA si consideran que han cometido un error y a buscar la reparación adecuada. Esto debe extenderse al uso de IA por parte de las aseguradoras de salud para determinar la atención, el pago y la cobertura del paciente.
  5. Población de pacientes vulnerables: Los grupos de pacientes vulnerables, como aquellos con capacidad reducida para tomar decisiones, no deben verse perjudicados ni dañados a causa del uso de la IA en la atención médica. Las salvaguardias deben incluir la mitigación proactiva de sesgos, el desarrollo inclusivo de conjuntos de datos y procedimientos de consentimiento o gobernanza a medida para proteger a quienes no pueden ejercer plenamente su autonomía. Se debe prestar especial atención a garantizar que los principios de consentimiento informado y derechos sobre los datos se apliquen de manera que no refuercen las desigualdades estructurales ni excluyan a los grupos vulnerables del acceso equitativo a la atención médica.

GOBERNANZA, REGULACION Y RESPONSABILIDAD

  1. Estándares actualizados: La regulación, los estándares y las directrices deben ser lo suficientemente sólidos para salvaguardar la seguridad del paciente y asegurar que las reglas éticas de la profesión médica sean consideradas, y los reguladores deben estar facultados para mantenerse al día con los avances y hacer cumplir la legislación. Las políticas sanitarias de la IA deben estar coordinadas y ser consistentes entre las entidades gubernamentales.
  2. Responsabilidad: Se deben establecer límites claros de responsabilidad legal, incluidos los desarrolladores de la IA, así como a los médicos y las organizaciones de salud. La responsabilidad debe ser compartida y proporcional, reflejando el papel de cada actor en el diseño, la implementación y el uso, en lugar de recaer en un solo actor.
  3. Auditoría continua: Se deben realizar revisiones y auditorías periódicas de los procesos y organismos reguladores relacionados con la IA en la atención médica, incluyendo auditorías de sesgo, revisiones éticas y gobernanza participativa con la colaboración de los médicos.

INTEGRACION CLINICA E IMPLEMENTACION DE LA IA EN SALUD

  1. Evaluación de herramientas y apoyo de gobernanza: Los sistemas de IA implementados en entornos clínicos deben validarse en cuanto a su relevancia clínica, seguridad y eficacia. Se deben implementar actualizaciones periódicas para mantener la seguridad y garantizar que los sistemas puedan interactuar eficazmente con las prácticas clínicas en constante evolución. En entornos de prestación complejos, la adopción de la IA también debe estar respaldada por estructuras de gobernanza adecuadas que alineen a los equipos clínicos, de liderazgo y de tecnología para garantizar una implementación segura y responsable.
  2. Integración del flujo de trabajo: La implementación de herramientas de IA requiere una integración fluida con los flujos de trabajo existentes para mejorar el uso y funcionar como complementos de apoyo en lugar de elementos disruptivos que impidan una prestación de atención eficiente. Se deben establecer mecanismos para el seguimiento de las recomendaciones de la IA y su relación con las decisiones clínicas finales.
  3. Monitoreo posterior a la implementación: Un monitoreo sólido posterior a la implementación es fundamental para garantizar que los sistemas de IA sigan funcionando según lo previsto. Los sistemas de IA pueden desviarse de los parámetros de rendimiento iniciales al encontrar nuevas poblaciones de pacientes no representadas en los datos de entrenamiento, a medida que evolucionan las prácticas clínicas o incluso con las mismas poblaciones en el tiempo. Se debe prestar especial atención al monitoreo de los resultados en poblaciones de pacientes no adecuadamente representadas en los conjuntos de datos de entrenamiento.

IMPLEMENTACION DE LA GOBERNANZA DE DATOS

  1. Datos del paciente: Toda la información que permita la identificación del paciente, utilizada o generada por los sistemas de IA, debe recopilarse, almacenarse, y procesarse en estricta conformidad con la Declaración de Taipéi de la AMM sobre Consideraciones Éticas Relativas a las Bases de Datos de Salud y los Biobancos, como también todas las leyes y reglamentos aplicables. Las medidas de seguridad son obligatorias para preservar la confidencialidad, evitar el acceso no autorizado y mantener la confianza terapéutica que sustenta la relación médico-paciente. Además, el uso de datos de pacientes debe seguir las mismas garantías éticas que se aplican a los datos de los médicos, incluida la limitación de la finalidad, la transparencia y el consentimiento, la protección contra el uso indebido y, cuando sea posible, la anonimización y la minimización de los datos recopilados.
  2. Datos del personal clínico: Los sistemas de IA capturan cada vez más datos detallados sobre los profesionales clínicos (por ejemplo, pulsaciones de teclas, grabaciones de voz, métricas del flujo de trabajo, patrones de prescripción). Esta información puede contribuir a la mejora de la calidad y la seguridad, pero también conlleva el riesgo de vigilancia, uso indebido punitivo o erosión de la autonomía profesional. Por lo tanto:
  • Limitación de la finalidad: Los datos que permitan la identificación del profesional sanitario solo podrán utilizarse para objetivos clínicos, educativos o de mejora de la calidad claramente definidos, que hayan sido comunicados a dichos profesionales y aceptados por ellos.
  • Transparencia y consentimiento: Los médicos deben ser informados con antelación y en términos comprensibles sobre qué datos se recopilan, cómo se analizarán y quién tendrá acceso a ellos. Se requiere el consentimiento explícito para usos que vayan más allá de la atención directa al paciente o la retroalimentación solicitada por el profesional sanitario.
  • Protección contra el uso indebido: Los datos no deben reutilizarse para penalizar al profesional sanitario, establecer cuotas de rendimiento poco realistas ni perjudicar de ningún otro modo la relación médico-paciente. Cualquier uso secundario (por ejemplo, análisis comerciales, supervisión administrativa) requiere una revisión ética independiente y el consentimiento.
  • Anonimato y minimización: Siempre que sea posible, los datos del profesional sanitario no deben ser identificables o agregados, y la recopilación debe limitarse al mínimo necesario para lograr la finalidad establecida.
  1. Gobernanza y Supervisión: Las organizaciones de salud deben establecer mecanismos de supervisión independientes —como, entre otros, personas responsables de la protección de datos, comités de ética y auditorías externas periódicas— para verificar el cumplimiento de las medidas de seguridad, tanto para los datos de pacientes como para los profesionales de la salud. Las infracciones o los usos no autorizados deben dar lugar a una divulgación transparente, medidas correctivas y, cuando corresponda, sanciones. Además, los desarrolladores de sistemas de IA deben implementar y respaldar políticas y controles de ciberseguridad sólidos para proteger la confidencialidad, integridad y disponibilidad de los datos de salud durante todo el ciclo de vida del sistema de IA.

EDUCACION MEDICA Y AUMENTO DE CAPACIDAD

  1. Requisitos de conocimientos sobre IA: Los médicos deben mantener conocimientos adecuados en IA en el contexto de la IA en rápida evolución, incluidos los conocimientos y las habilidades para usar las herramientas de la IA correctamente y la capacidad de comprenderlas y evaluarlas críticamente. La alfabetización en IA debe integrarse sistemáticamente en los planes de estudio de medicina de pregrado para garantizar que todos los médicos adquieran una comprensión fundamental de estas tecnologías. Además, la alfabetización en IA debe reforzarse mediante programas obligatorios de desarrollo profesional continuo, que permitan a los médicos mantenerse al día con las herramientas en evolución y garantizar su uso seguro, ético e informado en la práctica.
  2. Equidad global: Se debe prestar especial atención a reducir las brechas en la educación en IA entre regiones, con especial énfasis en mejorar la capacidad en los países de ingresos bajos y medianos (PIBM). La distribución equitativa de los recursos y oportunidades educativas es esencial para evitar el aumento de las disparidades en la implementación de la IA y garantizar el beneficio global de estos avances tecnológicos.

INVESTIGACION, INNOVACION Y EVALUACION

  1. Estándares de investigación médica: toda investigación médica que involucre la IA, ya sea como herramienta u objeto de estudio debe cumplir con los estándares internacionales aceptados de investigación médica, incluidos, entre otros, las buenas prácticas clínicas y la Declaración de Helsinki de la AMM y la Declaración de Taipei de la AMM.

CONSIDERACIONES GLOBALES Y COLABORACION

  1. Aplicabilidad interjurisdiccional: Las políticas e infraestructuras de la IA deben, en la medida de lo posible, estar alineadas para que sean aplicables en todas las jurisdicciones.
  2. Diversidad en los entornos sanitarios: Se deben buscar soluciones de IA adecuadas para las diversas configuraciones sanitarias, incluidas las de bajos recursos. Esto requiere apoyar innovaciones desarrolladas localmente y sensibles al contexto para garantizar que los sistemas de IA respondan a las necesidades, realidades y limitaciones de recursos locales.
  3. Sensibilidad cultural: Las políticas sobre IA deben respetar a los diversos enfoques culturales, a la vez que garanticen la alineación con los principios éticos fundamentales, como el respeto por la dignidad humana, los derechos y el bienestar.

 

RECOMENDACIONES

  1. Para médicos y asociaciones médicas: Los profesionales médicos y sus organizaciones representativas deben promover la elaboración de programas integrales de conocimientos sobre la IA, participar activamente en las estructuras de gobernanza de la IA, incluida la contribución al desarrollo de mejores prácticas para el uso de IA en medicina, y mantener rigurosos estándares éticos para garantizar la atención médica de calidad en un entorno sanitario optimizado por la IA. También deben considerar la creación de materiales educativos para los pacientes a fin de apoyar la transparencia y la comprensión informada de la IA en la atención médica.
  2. Para centros de salud: Las instituciones de salud deben establecer marcos sólidos de gobernanza para la adopción segura de tecnologías de IA e implementar procesos de monitoreo continuo. Las organizaciones deben equilibrar la innovación con las consideraciones de seguridad y respetar el criterio clínico al implementar sistemas de IA. Es importante destacar que la implementación de la IA debe buscarse cuando se demuestre que beneficia a los pacientes, sin exigir su uso como condición para la licencia, la participación o el reembolso.
  3. Para los creadores de tecnología: Las empresas tecnológicas y los creadores de IA deben priorizar los enfoques de diseño colaborativo con médicos en ejercicio y proporcionar transparencia en la creación, implementación y uso de sistemas. La colaboración sostenida entre expertos clínicos y técnicos a lo largo de todo el ciclo de creación es esencial para elaborar herramientas que mejoren la calidad y la equidad de la atención médica y que apoyen efectivamente la actividad clínica.
  4. Para los reguladores y los responsables de la formulación de políticas: En consulta con las asociaciones médicas (y otras organizaciones de profesionales de la salud), elaborar regulaciones basadas en la opinión de los médicos y fomentar la cooperación internacional.
  5. Para las instituciones educativas: Integrar la formación en IA en los planes de estudio y apoyar el aumento de capacidades globales.
  6. Para investigadores e innovadores: Impulsar avances en IA éticos, equitativos y basados ​​en la evidencia.

 

Apéndice

IA Restringida:
Aplicaciones específicas de un dominio, limitadas a objetivos clínicos o administrativos claramente definidos.

IA Generativa:
Modelos, a menudo modelos de lenguaje extenso, que crean nuevo contenido clínico, como borradores de documentación o sugerencias de planes de tratamiento, basados ​​en datos de entrenamiento.

Modelos Fundamentales:
Modelos amplios, con entrenamiento continuo, que sustentan múltiples aplicaciones sanitarias y, por lo tanto, requieren una supervisión continua específica del dominio.

Aprendizaje automático:
un subconjunto de la inteligencia artificial en el que los algoritmos informáticos mejoran de forma autónoma su rendimiento en una tarea específica al identificar patrones en los datos en lugar de seguir instrucciones explícitas preprogramadas.

Relación médico-paciente:
La confianza se puede aumentar en la relación médico-paciente cuando:

-Los médicos debaten de forma transparente el papel de la IA en la atención al paciente.
-Los sistemas de IA mejoran de forma demostrable los resultados de calidad o seguridad.
-Los pacientes comprenden claramente cómo se utilizan y protegen sus datos y cómo se organiza la gobernanza de los datos.
-A los pacientes se les ofrece más tiempo con su médico.

 

Declaración
AI, Inteligencia artificial, inteligencia aumentada, Salud Digital, tecnología médica

Declaración de Kigali de la AMM sobre el Uso ético de la tecnología médica

Adoptada por la 53a Asamblea General de la AMM, Washington, EE.U...

Declaración sobre la Salud Digital

Adoptada por la 60a Asamblea General, Nueva Delhi, India, octubr...

Declaración de Lisboa de la AMM sobre los Derechos del Paciente

Adoptada por la 34ª Asamblea Médica Mundial, Lisboa, Portugal, s...