Red de Medicamentos
  • Inicio
  • Noticias
  • Artículos de opinión
  • Investigaciones
  • Debates
  • Epidemiología
    Caracterización del brote de dengue autóctono austral más importante del mundo (Bahía Blanca, Argentina, enero-junio de 2024). Estudio transversal.

    Caracterización del brote de dengue autóctono austral más importante del mundo (Bahía Blanca, Argentina, enero-junio de 2024). Estudio transversal.

    Un mapa inflamatorio multiescala: vinculando el estrés individual con la disfunción social

    Un mapa inflamatorio multiescala: vinculando el estrés individual con la disfunción social

    El impacto del aumento de las temperaturas debido al cambio climático en las enfermedades infecciosas

    Mortalidad por enfermedad de Alzheimer entre conductores de taxis y ambulancias: estudio transversal de base poblacional

    Prevención cuaternaria: de la medicina clínica a la medicina social

    Conectando el derecho a la salud y el anti-extractivismo a nivel mundial

    “Ensayos clínicos e intervalos de confianza»

    “Ensayos clínicos e intervalos de confianza»

    OMS: Se pospone la fase final de la campaña de vacunación contra la polio en Gaza mientras se intensifica el conflicto

    OMS: Se pospone la fase final de la campaña de vacunación contra la polio en Gaza mientras se intensifica el conflicto

    Trending Tags

    • Golden Globes
    • Game of Thrones
    • MotoGP 2017
    • eSports
    • Fashion Week
  • Bioética
    • Debates – Bioética
    • Investigaciones Bioética
  • Libros y revistas
    • Reseñas
    • Biblioteca
  • Audiovisuales
    • Charlas / Conferencias
    • Difusiones
  • Eventos
  • Vínculos Básicos Esenciales
  • Prevención cuaternaria
  • Rescatando de la historia
  • Aprendiendo de la(s) pandemia(s)
No Result
View All Result
  • Inicio
  • Noticias
  • Artículos de opinión
  • Investigaciones
  • Debates
  • Epidemiología
    Caracterización del brote de dengue autóctono austral más importante del mundo (Bahía Blanca, Argentina, enero-junio de 2024). Estudio transversal.

    Caracterización del brote de dengue autóctono austral más importante del mundo (Bahía Blanca, Argentina, enero-junio de 2024). Estudio transversal.

    Un mapa inflamatorio multiescala: vinculando el estrés individual con la disfunción social

    Un mapa inflamatorio multiescala: vinculando el estrés individual con la disfunción social

    El impacto del aumento de las temperaturas debido al cambio climático en las enfermedades infecciosas

    Mortalidad por enfermedad de Alzheimer entre conductores de taxis y ambulancias: estudio transversal de base poblacional

    Prevención cuaternaria: de la medicina clínica a la medicina social

    Conectando el derecho a la salud y el anti-extractivismo a nivel mundial

    “Ensayos clínicos e intervalos de confianza»

    “Ensayos clínicos e intervalos de confianza»

    OMS: Se pospone la fase final de la campaña de vacunación contra la polio en Gaza mientras se intensifica el conflicto

    OMS: Se pospone la fase final de la campaña de vacunación contra la polio en Gaza mientras se intensifica el conflicto

    Trending Tags

    • Golden Globes
    • Game of Thrones
    • MotoGP 2017
    • eSports
    • Fashion Week
  • Bioética
    • Debates – Bioética
    • Investigaciones Bioética
  • Libros y revistas
    • Reseñas
    • Biblioteca
  • Audiovisuales
    • Charlas / Conferencias
    • Difusiones
  • Eventos
  • Vínculos Básicos Esenciales
  • Prevención cuaternaria
  • Rescatando de la historia
  • Aprendiendo de la(s) pandemia(s)
No Result
View All Result
Red de Medicamentos
No Result
View All Result
Home Charlas / Conferencias

IA, salud y atención médica hoy y mañana Informe de la Cumbre de JAMA sobre Inteligencia Artificial

Derek C. Angus, doctor en medicina y máster en salud pública - Rohan Khera, doctor en medicina y maestría - Tracy Lieu, doctora en medicina y máster en salud pública

gonzalo by gonzalo
22 octubre, 2025
in Charlas / Conferencias, Debates, Debates - Bioéticas
0
Sanciones económicas impuestas a grandes empresas farmacéuticas por actividades ilegales (2020)
0
SHARES
7
VIEWS
Share on FacebookShare on Twitter
NOTA de la Red: Desde la Red compartimos que es muy importante el problema de la IA en la salud y la atención de la salud, y que conlleva riesgos y beneficios. En general parece que se avecinan más riesgos que beneficios, si no analizamos el tema con profundidad. Si existe el problema de la salud y la atención de la salud con el capitalismo, mucho más parece serlo en lo que Varoufakis llama tecnofeudalismo
Abstracto

Importancia:   La inteligencia artificial (IA) está transformando la salud y la atención sanitaria a una escala sin precedentes. Si bien los beneficios potenciales son enormes, también lo son los riesgos. La Cumbre de JAMA sobre IA debatió cómo desarrollar, evaluar, regular, difundir y supervisar la IA en el ámbito de la salud y la atención sanitaria.

Observaciones   La IA en salud y atención médica es muy amplia e incluye herramientas clínicas (p. ej., alertas de sepsis o software de detección de retinopatía diabética), tecnologías utilizadas por personas con problemas de salud (p. ej., aplicaciones móviles de salud), herramientas utilizadas por los sistemas de atención médica para mejorar las operaciones comerciales (p. ej., gestión del ciclo de ingresos o programación) y herramientas híbridas que respaldan tanto las operaciones comerciales (p. ej., documentación y facturación) como las actividades clínicas (p. ej., sugerir diagnósticos o planes de tratamiento). Muchas herramientas de IA ya están ampliamente adoptadas, especialmente para imágenes médicas, salud móvil, operaciones comerciales de atención médica y funciones híbridas como la prescripción de visitas ambulatorias. Todas estas herramientas pueden tener efectos importantes en la salud (buenos o malos), pero estos efectos a menudo no se cuantifican porque las evaluaciones son extremadamente difíciles o no son necesarias, en parte porque muchas están fuera de la supervisión regulatoria de la Administración de Alimentos y Medicamentos de los EE. UU. Un desafío importante en la evaluación es que los efectos de una herramienta dependen en gran medida de la interfaz humano-computadora, la capacitación del usuario y el entorno en el que se utiliza la herramienta. Numerosos esfuerzos establecen estándares para el uso responsable de la IA, pero la mayoría se centra en la monitorización de la seguridad (p. ej., la detección de alucinaciones en modelos) o el cumplimiento institucional con diversas medidas de proceso, y no abordan la eficacia (es decir, la demostración de mejores resultados). Garantizar que la IA se implemente de forma equitativa y que mejore los resultados sanitarios o, si se mejora la eficiencia de la atención sanitaria, que lo haga de forma segura, requiere avances en cuatro áreas. En primer lugar, se necesita la participación de múltiples partes interesadas a lo largo de todo el ciclo de vida del producto. Este esfuerzo incluiría una mayor colaboración entre los usuarios finales y los desarrolladores en la creación inicial de las herramientas y una mayor colaboración entre los desarrolladores, los organismos reguladores y los sistemas de atención sanitaria en la evaluación de las herramientas a medida que se implementan. En segundo lugar, se deben desarrollar y difundir herramientas de medición para la evaluación y la monitorización. Más allá de las iniciativas propuestas de monitorización y certificación, esto requerirá nuevos métodos y conocimientos especializados que permitan a los sistemas de atención sanitaria realizar o participar en evaluaciones de eficacia rápidas, eficientes y sólidas. La tercera prioridad es la creación de una infraestructura de datos representativa a nivel nacional y un entorno de aprendizaje que respalde la generación de conocimiento generalizable sobre los efectos de las herramientas de IA en la salud en diferentes entornos. En cuarto lugar, se debería promover una estructura de incentivos, utilizando las fuerzas del mercado y las herramientas políticas, para impulsar estos cambios.

Conclusiones y relevancia:   La IA revolucionará todos los aspectos de la salud y la prestación de servicios de salud en los próximos años. Dados los numerosos problemas de larga data en la atención médica, esta disrupción representa una oportunidad increíble. Sin embargo, la probabilidad de que esta disrupción mejore la salud para todos dependerá en gran medida de la creación de un ecosistema capaz de generar conocimiento rápido, eficiente, sólido y generalizable sobre las consecuencias de estas herramientas en la salud.

El alcance, la escala y la velocidad con la que la inteligencia artificial (IA) transformará la salud y la atención médica son asombrosos. 1 – 4 La IA está cambiando cómo y cuándo las personas buscan atención y cómo los médicos interactúan con los pacientes, establecen diagnósticos e implementan y monitorean los tratamientos. De hecho, existe un entusiasmo considerable de que la IA, especialmente dados los avances recientes ( Recuadro ), podría abordar desafíos de larga data en el acceso, el costo y la calidad de la prestación de atención médica. 1 , 4 Sin embargo, el camino óptimo para el desarrollo y la difusión de la IA sigue sin estar claro. A diferencia de los medicamentos o los dispositivos médicos más tradicionales, hay poco consenso o estructura para garantizar una evaluación, regulación, implementación y monitoreo sólidos, seguros, transparentes y estandarizados de las nuevas herramientas y tecnologías de IA. 3 , 5 – 7 Algunos desafíos son de larga data para la tecnología de la información de salud digital en su conjunto, aunque más proféticos con el auge de la IA, mientras que otros son específicos de la IA.

Caja.

La naturaleza amplia y el uso de la inteligencia artificial (IA)

  • La IA es un término amplio; durante décadas, consistió en representaciones de conocimiento basadas en reglas (software que codificaba enunciados lógicos como «si X, entonces Y») y modelos de predicción (redes neuronales artificiales), que ofrecían resultados similares a los del software informático tradicional y los modelos estadísticos. Sin embargo, con los avances en la potencia computacional y la disponibilidad de conjuntos de datos más grandes y complejos en las últimas dos décadas, la IA evolucionó rápidamente. Los tres avances siguientes ayudan a diferenciarla de las tecnologías digitales anteriores:

  • Aprendizaje profundo: desarrollo de redes neuronales más profundas y complejas capaces de interpretar grandes conjuntos de datos complejos para abordar tareas específicas pero complicadas (por ejemplo, visión artificial).

  • IA generativa: una extensión del aprendizaje profundo que utiliza los llamados modelos de lenguaje y base grandes capaces de generar contenido nuevo para abordar solicitudes de tareas mucho más amplias (por ejemplo, ChatGPT o Gemini).

  • IA agentica: una extensión del aprendizaje profundo y la IA generativa capaz de tomar decisiones autónomas (por ejemplo, el software de piloto automático de Tesla para la conducción autónoma).

  • Este artículo se centra en las nuevas herramientas de IA que utilizan los profesionales sanitarios, los sistemas de salud y las personas con problemas de salud. Las nuevas tecnologías de IA, ampliamente utilizadas en la sociedad, también pueden influir en la salud. Algunos ejemplos son:

  • Las herramientas de IA implementadas en las ciencias de la vida (por ejemplo, herramientas para mejorar el descubrimiento de fármacos, mejorar la realización de ensayos aleatorios o interrogar datos de atención médica) podrían mejorar el descubrimiento biomédico.

  • Las herramientas de IA implementadas para abordar factores sociales (por ejemplo, herramientas para mejorar la asequibilidad de la vivienda o la seguridad alimentaria) podrían alterar la salud en el futuro.

  • Las herramientas de IA utilizadas ampliamente en la comunicación e interacción social (por ejemplo, algoritmos implementados en plataformas de redes sociales) podrían afectar la salud mental, difundir información (o desinformación) sobre la salud y la atención médica e influir en aspectos del comportamiento de búsqueda de atención, como las actitudes sobre la vacunación.

  • El uso de trucos generales de eficiencia por parte de científicos biomédicos y profesionales de la salud, como el uso de ChatGPT para redactar informes biomédicos o Gemini para búsquedas en Internet, podría afectar la forma en que se resume, distribuye y utiliza la información médica.

 

Para garantizar que la innovación en IA se fomente y se incorpore adecuadamente en la prestación de servicios de salud, se requiere una alineación sobre cómo abordar estos desafíos entre los desarrolladores de IA, los sistemas y profesionales de la salud, los pagadores, los reguladores y los pacientes. 4 , 5 , 7 Una Cumbre de JAMA convocó a múltiples partes interesadas para revisar el estado actual de la IA en la salud y la atención médica, centrándose en la mejor manera de evaluar, regular y monitorear las herramientas y tecnologías de IA y las implicaciones para la infraestructura y la fuerza laboral de la atención médica. La IA puede influir en la salud y la atención médica de muchas maneras ( Recuadro ), pero limitamos la discusión a las herramientas y tecnologías utilizadas por los médicos, los pacientes y las personas con problemas de salud o bienestar, y los sistemas de atención médica ( Tabla 1 ). Aunque la IA es un término amplio que puede incluir tecnologías más antiguas similares a las de las aplicaciones tradicionales de soporte de decisiones estadísticas y basadas en computadora, la discusión se limitó a avances más recientes, como los modelos de aprendizaje automático que utilizan métodos de conjunto, aprendizaje profundo, IA generativa e IA agentica ( Recuadro ). 8 Usamos el término herramienta de IA para representar cualquier herramienta, tecnología, dispositivo o aplicación que contenga dicha IA.

 

Tabla 1. Categorías de herramientas de inteligencia artificial (IA) que influyen directamente en la salud y la prestación de servicios de salud

 

Ver en grandeDescargar
Categorías de herramientas de inteligencia artificial (IA) que influyen directamente en la salud y la prestación de servicios de salud(se abre en una nueva pestaña)
Clínico Directo al consumidor Operaciones comerciales Híbrido
Descripción Herramientas de IA utilizadas por un médico para respaldar decisiones de diagnóstico o tratamiento Herramientas de IA utilizadas por una persona con problemas de salud o bienestar, sin interactuar necesariamente con ningún sistema de atención médica o profesional. Herramientas de IA utilizadas por un sistema o profesional de la salud para optimizar aspectos de la prestación de servicios de salud. Herramientas de IA que sirven para múltiples propósitos (por ejemplo, operaciones clínicas y comerciales)
Oportunidad Mejorar los resultados de los pacientes mediante:

Mejor acceso a la atención, precisión diagnóstica y cumplimiento de las pautas de mejores prácticas

Atención más personalizada

Mejorar la salud de los pacientes y de la población mediante:

Mejora de la vigilancia y la gestión de las enfermedades

Ayudar a las personas a adoptar estilos de vida saludables y estrategias de prevención.

Acceso más rápido, más personalizado y/o menos costoso a la atención

Mejorar la prestación de servicios de salud mediante:

Automatización de procesos que requieren mucha mano de obra

Reducción de la carga administrativa

Reducción de residuos

Mejora de la generación de ingresos

Mejorar la prestación de servicios de salud mediante:

Reducción de la carga administrativa para los profesionales sanitarios

Ayudar a los profesionales de la salud a ejecutar tareas de atención

Ayudar a los pacientes a navegar por las opciones de prestación de atención médica

Ejemplos Software de IA para la detección autónoma de la retinopatía diabética

Software integrado en máquina de ecografía cardíaca portátil que proporciona diagnóstico automatizado

Algoritmo basado en EHR que genera alertas de sepsis con indicaciones de tratamiento

Aplicación para teléfonos inteligentes que diagnostica y trata afecciones de la piel.

Chatbot que ofrece apoyo en salud mental

Algoritmo que utiliza datos del biosensor del smartwatch para detectar caídas o arritmias

Algoritmo que utiliza datos de EHR para optimizar la codificación para la facturación

Software para optimizar la gestión de la cadena de suministro

Software para optimizar la programación de pacientes y personal

IA ambiental que transcribe conversaciones entre pacientes y médicos para generar notas, facturas y planes de tratamiento.

Modelo de lenguaje grande que responde a mensajes seguros del paciente

Navegador de pacientes basado en la web que ayuda a programar citas según las inquietudes del paciente.

Tendencias actuales Numerosas evaluaciones publicadas

Esfuerzos considerables para proporcionar supervisión regulatoria

Alta adopción en imágenes médicas

Alta disponibilidad pero adopción variable de herramientas EHR integradas

Baja adopción fuera de las imágenes y la historia clínica electrónica con preocupaciones sobre la confianza, la eficacia, la seguridad y los costos de implementación

Gran cantidad de aplicaciones y descargas

Hay pocos datos sobre los efectos en la salud y algunas preocupaciones sobre la seguridad y la eficacia.

Supervisión regulatoria muy limitada, especialmente en lo que respecta a los efectos sobre la salud

El modelo de negocio óptimo no está claro

Poca integración entre productos o con la prestación de servicios de salud

Mercado en rápido crecimiento, con amplia adopción por parte de los sistemas de atención médica.

Evaluación muy limitada de los efectos sobre la salud

Supervisión regulatoria limitada

Preocupaciones expresadas por los médicos sobre los efectos adversos en los pacientes

Mercado en rápido crecimiento, con amplio interés y adopción por parte de los sistemas de atención sanitaria.

Evaluación muy limitada de los efectos sobre la salud

Supervisión regulatoria limitada

Preocupaciones expresadas por los médicos sobre los efectos adversos en los pacientes

 

Vídeo: Lo que piensan los expertos sobre el futuro de la IA
Todo el mundo habla de la IA, pero ¿realmente cambiará la medicina? Este vídeo presenta entrevistas con líderes en el campo de la IA sobre posibilidades, conceptos erróneos comunes y qué esperar en los próximos años.

 

Herramientas de IA en salud y atención médica

 

Herramientas clínicas

 

La mayoría de las herramientas de IA en la literatura médica caen dentro de la categoría de herramientas clínicas (es decir, herramientas que apoyan directamente las actividades clínicas de los profesionales de la salud). Los ejemplos incluyen software de IA para la detección automatizada de la retinopatía diabética, software de IA integrado en un dispositivo de ecocardiografía portátil para proporcionar un diagnóstico automatizado o un algoritmo de aprendizaje automático que escanea el registro de salud electrónico (EHR) para proporcionar alertas de sepsis y recomendaciones de tratamiento. 9 – 19 Muchas de estas herramientas requieren la autorización de la Administración de Alimentos y Medicamentos de los EE. UU. (FDA) como dispositivos médicos, y más de 1200 han sido autorizadas, la mayoría de las cuales están en imágenes médicas. 7 , 20 La IA ha transformado las imágenes médicas, aumentando la interpretación de las imágenes y cambiando drásticamente la forma en que trabajan los radiólogos y patólogos, con la adopción de algún tipo de IA por parte del 90% de los sistemas de atención médica de los EE. UU. 1 , 21 – 23 Las herramientas de soporte de decisiones clínicas basadas en IA integradas en el EHR también están ampliamente disponibles, en parte porque algunas han estado fuera de la supervisión de la FDA y porque el costo para un sistema de atención médica de tener la herramienta activada puede percibirse como modesto. 23 A pesar del buen acceso a estas herramientas de IA nativas de EHR, persiste la preocupación entre los médicos y los sistemas de atención médica con respecto a su precisión, valor y utilidad. 23 , 24

 

Más allá de las aplicaciones de imágenes médicas y de la historia clínica electrónica (HCE), la difusión de las herramientas de IA clínica ha sido más lenta. La principal barrera probablemente sea que los sistemas de salud responsables de adquirir estas herramientas no creen que ofrezcan suficiente valor. Los costos, no solo de licenciar una herramienta, sino también de garantizar una capacitación, infraestructura digital, mantenimiento y monitoreo adecuados, pueden ser considerables. 23 , 25 , 26 No hay reembolso para la mayoría del uso de herramientas de IA e, incluso en casos selectos cuando las aseguradoras ofrecen reembolso, este no compensa los costos totales. 27 También puede haber escepticismo sobre si los supuestos beneficios se materializarán en la práctica. Las preocupaciones sobre el sesgo algorítmico, el sesgo de automatización (favorecer las sugerencias de los sistemas automatizados mientras se pasa por alto información contradictoria ), la falta de generalización y la confianza y el respaldo insuficientes de los médicos y los pacientes pueden frenar aún más el entusiasmo de los sistemas de salud. 23 , 24 , 28-32

 

Herramientas de venta directa al consumidor (DTC)

 

Existe un entusiasmo considerable entre el público por las herramientas de IA DTC (es decir, herramientas utilizadas por pacientes o personas con inquietudes sobre la salud o el bienestar). 33 – 35 Los ejemplos incluyen una aplicación que accede a la cámara de un teléfono inteligente para ayudar a una persona a autodiagnosticarse una afección dermatológica, un chatbot que ofrece apoyo en materia de salud mental y un algoritmo que utiliza datos de biosensores de un reloj inteligente para detectar caídas o arritmias. 36 – 39 Actualmente, existen más de 350 000 aplicaciones de salud móvil, con IA frecuentemente incorporada en el software. 35 , 40 Tres de cada 10 adultos en todo el mundo han utilizado una aplicación de salud móvil, y el mercado ya supera los 70 000 millones de dólares anuales. 35 Aunque algunos productos, como los que monitorean las arritmias, están regulados por la FDA, las empresas a menudo pueden etiquetar las herramientas DTC como productos de bienestar general de bajo riesgo y pueden evitar los requisitos regulatorios o de informes. 33 , 41 , 42 La mayoría de estas herramientas no se conectan con la empresa de prestación de servicios de salud, lo que limita la capacidad de los profesionales de la salud para acceder a los datos y revisar o coordinar recomendaciones. Las herramientas que sí interactúan con los profesionales de la salud requieren una inversión inicial considerable para garantizar que los datos se integren adecuadamente. Algunas aseguradoras de salud han fomentado el uso de aplicaciones de bienestar DTC mediante cobertura de suscripción o incentivos de recompensa, pero la mayoría de los usos no se reembolsan. 43-45 Otras barreras incluyen la falta de evidencia de alta calidad sobre los beneficios para la salud; las preocupaciones sobre la confianza, la usabilidad y la privacidad; la integración (o no) con los sistemas de atención médica; y la incertidumbre sobre el modelo de negocio adecuado. 46 , 47 Sin embargo, a medida que se superan o eluden estas barreras, estas herramientas, al eludir gran parte de la infraestructura existente de la atención médica tradicional, pueden representar una innovación verdaderamente disruptiva. 48

 

Herramientas para operaciones comerciales en el sector de la salud

 

Los sistemas de atención médica están adquiriendo rápidamente herramientas de IA para aumentar la eficiencia del sistema y los márgenes operativos. 2 , 49 , 50 Los ejemplos incluyen software de IA para optimizar la capacidad de camas, la gestión del ciclo de ingresos, la programación de pacientes y personal, la cadena de suministro y los requisitos de informes. 2 , 49-57 Un ejemplo popular es el uso de IA por parte de los sistemas de atención médica para generar solicitudes de autorización previa y, quizás no sea sorprendente que las aseguradoras estén adoptando de manera similar herramientas de IA para evaluar esas solicitudes. 58-60 El uso de IA para mejorar las operaciones comerciales ya está arraigado en muchas industrias. 61 Sin embargo, las consecuencias para los pacientes cuando las organizaciones de prestación de servicios de atención médica adoptan estas herramientas no se comprenden bien. Por ejemplo, si un sistema de atención médica implementa software de IA para optimizar la programación de quirófanos, podría haber grandes efectos (buenos o malos) en los costos de personal y en el acceso a intervenciones quirúrgicas urgentes. Aunque los cambios en el acceso pueden afectar los informes de calidad de los hospitales, es posible que no se detecte la atribución de estos cambios a la herramienta porque su uso, al igual que otras estrategias operativas de atención médica, no requiere ninguna evaluación ni revisión regulatoria.

 

Herramientas híbridas

 

Muchas herramientas de IA respaldan tanto las operaciones comerciales como algunos aspectos de la atención clínica o la experiencia del paciente. Por ejemplo, los llamados escribas de IA que escuchan las conversaciones entre pacientes y médicos ayudan en las operaciones generando notas y facturas (lo que reduce la carga de documentación) al mismo tiempo que brindan apoyo clínico, como ofrecer posibles diagnósticos o recomendaciones de tratamiento para su verificación. De manera similar, una herramienta de navegación de pacientes con IA basada en la web puede atraer a más pacientes a un sistema de atención médica, al tiempo que proporciona una mejor dirección a los profesionales de la salud adecuados, generando ingresos para el sistema y mejorando el acceso de los pacientes. Estas herramientas están siendo adoptadas muy rápidamente por los sistemas de atención médica. 2 , 23 Los escribas de IA en particular, aunque inicialmente se asociaron con resultados mixtos, parecen bien recibidos por pacientes y médicos, especialmente cuando se integran con el EHR. 62 – 65 Cada conversación entre pacientes y médicos en los EE. UU. pronto podría estar acompañada por un agente de IA interactivo en vivo

 

Leer la transcripción

Derek Angus, MD, MPH, se une al editor en jefe de IA de JAMA+, Roy Perlis, MD, MSc, para analizar una comunicación especial de JAMA Summit: Inteligencia artificial.

 

Desafíos para la evaluación de herramientas de IA

 

En teoría, dada la importancia de los efectos potenciales de las herramientas de IA en los resultados de salud de los pacientes (así como en los costos de atención médica y la fuerza laboral), se deben realizar evaluaciones metodológicamente rigurosas para generar una base de evidencia sólida para informar su difusión (es decir, producción de conocimiento generalizable sobre las condiciones bajo las cuales se logran efectos particulares). 66 , 67 En la práctica, a pesar de la amplia aceptación de que las herramientas de IA pueden tener grandes efectos en la salud, existe un debate considerable sobre qué herramientas requieren evaluación, cómo se deben realizar las evaluaciones y quién es responsable.

 

¿Qué herramientas de IA requieren una evaluación de sus efectos sobre la salud?

 

La evaluación de las herramientas de IA clínica en publicaciones revisadas por pares parece tener un amplio respaldo. Se requiere evaluación para muchas autorizaciones de la FDA, como el software de novo como vía para dispositivos médicos, y los ejemplos de consecuencias adversas cuando las herramientas de IA se difundieron sin evaluaciones previas revisadas por pares, como las altas tasas de casos perdidos y falsas alarmas por un sistema de alerta de sepsis, provocaron llamados para evaluaciones obligatorias antes de su uso generalizado. 68 , 69 Existen múltiples evaluaciones de las herramientas DTC y, aunque algunas mostraron beneficios, otras plantearon inquietudes de seguridad, como consejos que eran perjudiciales o contrarios a las pautas y una falta de apoyo adecuado durante las crisis de salud mental, lo que provocó demandas de que estas herramientas también se evaluaran de forma rutinaria. 34 , 70 Sin embargo, las herramientas DTC evaluadas hasta la fecha son una fracción minúscula del mercado, y los hallazgos negativos no parecen haber obstaculizado el crecimiento del mercado.

 

Existen opiniones firmes, pero pocas evaluaciones revisadas por pares, con respecto a los efectos en la salud de las herramientas de operaciones comerciales. Por ejemplo, muchos médicos estadounidenses creen que el uso de herramientas de IA por parte de las aseguradoras para denegar la autorización previa está teniendo consecuencias negativas generalizadas para los pacientes, pero ningún estudio ha examinado si el uso de herramientas de IA ha afectado las tasas de denegación y de qué manera. 60 , 71 , 72 No es sorprendente que las aseguradoras defiendan el uso de dichas herramientas. 73 Aunque las evaluaciones revisadas por pares de las herramientas de operaciones comerciales son poco frecuentes, los testimonios de clientes y los casos de uso, a menudo con afirmaciones combinadas sobre la eficiencia del sistema y la calidad de la atención médica, se utilizan rutinariamente para comercializar estos productos. 74 , 75 Las herramientas de operaciones comerciales para las que se encuentran disponibles evaluaciones publicadas son aquellas con una función híbrida, como los escribas de IA, aunque la evaluación se centra principalmente en la satisfacción del paciente y el médico, y en el flujo de trabajo del médico, en lugar de en los efectos sobre la calidad de la atención médica y los resultados del paciente . 62-65

 

Muchas partes interesadas creen que todas estas herramientas de IA afectan la salud, pero el impulso para la evaluación revisada por pares de las posibles consecuencias para la salud, y la probabilidad de que sus hallazgos influyan en su adopción, parece ser mayor en las herramientas más cercanas a los profesionales clínicos. La falta de evaluación de los efectos en la salud de las herramientas de operaciones empresariales no es exclusiva de la IA, sino que es consistente con la de todas las estrategias organizacionales de atención médica, a pesar de los llamados al cambio . 76-78

 

¿Cómo deben realizarse las evaluaciones?

 

Existen considerables desafíos metodológicos para la generación de conocimiento transferible sobre las consecuencias para la salud de las herramientas de IA en la salud y la atención médica, especialmente cómo definir la intervención y el contexto, identificar el mecanismo de acción, capturar resultados relevantes e inferir causalidad.

 

Descripción de la imagen no disponible.(se abre en una nueva pestaña)

 

Definición de la intervención y el contexto

 

Para ser generalizable, cualquier evaluación debe describir cuál es la intervención real y en qué contexto se evalúa. Con una herramienta de IA, la intervención es tanto el software de IA como su paquete de entrega: la interfaz humano-computadora y la capacitación que la acompaña. Una interfaz humano-computadora deficiente o la falta de capacitación podrían disminuir considerablemente la efectividad de la herramienta. El contexto incluye tanto la tarea que el usuario está abordando como el entorno. Algunas herramientas son bastante específicas de la tarea (p. ej., una alerta de sepsis), pero para las herramientas de IA generativas o agenciales capaces de ayudar en muchas tareas, definir exactamente qué tareas se están abordando en una evaluación particular puede ser un desafío. Incluso cuando la tarea es limitada, el rendimiento de una herramienta puede variar considerablemente según el entorno. 79 Por ejemplo, la efectividad de una alerta de sepsis puede depender del lugar de implementación (departamento de emergencias vs. sala de hospital; hospital comunitario vs. hospital docente), cómo se incorpora al flujo de trabajo y muchas otras actividades y prioridades de apoyo y competencia en el lugar de trabajo. 80 , 81 La intervención y el contexto de las herramientas DTC también pueden ser muy difíciles de definir, dada la amplia gama potencial de características relevantes del usuario (p. ej., alfabetización digital), las opciones de personalización del software y, especialmente para la IA generativa y agente, la amplitud de las tareas. Definir la aplicación y el contexto de los casos de uso para las herramientas de operaciones comerciales de forma generalizable es igualmente difícil.

 

Muchos de estos desafíos son bien conocidos en la evaluación de cualquier servicio de salud complejo o intervención de prestación, y existen enfoques bien aceptados en la investigación de servicios de salud y la ciencia de la implementación para abordarlos. Sin embargo, la ciencia de la prestación de servicios de IA presenta problemas relativamente singulares. 82 Por ejemplo, existen estrategias para incorporar en una evaluación cómo la curva de aprendizaje de un usuario influye en el efecto de una intervención compleja, pero estas estrategias suelen asumir que la herramienta es estática. Con algunas herramientas de IA, existe la complejidad añadida de que la propia herramienta también puede estar aprendiendo (con la mejora o degradación del rendimiento predictivo), lo que a su vez puede cambiar la confianza del usuario.

 

Identificación del mecanismo de acción

 

La generalización se ve facilitada por saber no solo si una intervención funcionó, sino también cómo. En el caso de la IA, la evaluación del funcionamiento de una intervención puede considerarse en tres capas concéntricas. La capa interna es la interpretabilidad de la herramienta, una descripción del modelo matemático que impulsa los procesos de toma de decisiones de la herramienta. Sin embargo, los modelos de IA de aprendizaje profundo, generativos y agentes son tan complejos que las descripciones de su estructura matemática subyacente pueden ser difíciles de interpretar y proporcionar una visión limitada de su probable rendimiento clínico. La capa intermedia es la explicabilidad, donde las decisiones de salida del modelo en diversos entornos (entradas) se utilizan para proporcionar una imagen del comportamiento de la herramienta. La explicabilidad facilita la transparencia cuando la estructura matemática subyacente es difícil de interpretar, pero puede ser difícil saber si el rendimiento del modelo se explica adecuadamente en todas las situaciones razonables que podría encontrar. 83

 

La explicabilidad suele explorarse a posteriori en los conjuntos de datos existentes, pero la precisión de un modelo de IA cuando se aplica retrospectivamente no es necesariamente indicativa de cómo las decisiones de atención se verán influenciadas por la herramienta en la práctica. 84 Por lo tanto, la capa exterior es una evaluación prospectiva de cómo funciona la herramienta como una intervención real en entornos del mundo real. 85 Idealmente, esta capa evaluaría en qué medida el rendimiento de la herramienta depende de las demás características de la intervención (la interfaz humano-computadora y la capacitación del usuario) y del contexto en el que se implementa la herramienta. Para la IA con amplia aplicabilidad, como las herramientas de IA generativa y agencial, la evaluación exhaustiva de su rendimiento en el mundo real es particularmente desalentadora.

 

Captura de resultados

 

En el caso de las herramientas utilizadas en los sistemas de atención médica (clínicas, operaciones comerciales de atención médica y herramientas de IA híbridas), las consecuencias para la salud se pueden capturar utilizando datos de HCE y enfoques estándar de recopilación de datos de investigación clínica. La experiencia del usuario también puede ser importante y se puede capturar utilizando enfoques estándar de métodos mixtos. El problema no es cómo capturar los resultados relevantes, sino que estos enfoques requieren mucho tiempo y son costosos, pudiendo superar el costo inicial de desarrollar la herramienta. Este problema plantea una doble amenaza: o bien se disuadirá a los investigadores de realizar cualquier evaluación o bien estas serán limitadas, pudiendo omitir resultados clave o restringirse a entornos más factibles (p. ej., un centro médico académico), comprometiendo así la generalización. En el caso de las herramientas DTC, capturar sus efectos en los resultados de salud ha añadido complejidad, especialmente cuando la intención es mitigar eventos raros en individuos que, por lo demás, estarían bien. Por ejemplo, para determinar si una herramienta de IA que utiliza datos de frecuencia cardíaca de un reloj inteligente podría identificar la fibrilación auricular, los investigadores tuvieron que inscribir a más de 400 000 personas y proporcionar un sistema de múltiples capas que incluía un servicio de telesalud a nivel nacional, una evaluación independiente de médicos y mecanismos de derivación a los propios médicos de las personas. 86

 

Inferir causalidad

 

En última instancia, el objetivo es comprender el efecto de una herramienta de IA, no simplemente si su uso está asociado con, pero no es la causa de, un resultado particular. El diseño estándar para la inferencia causal en el cuidado de la salud es el ensayo clínico aleatorizado (ECA). Sin embargo, pocas herramientas de IA han sido evaluadas por ECA. 80 , 87 – 91 Los ECA suelen ser costosos, requieren mucho tiempo y se centran en 1 o 2 intervenciones en 1 entorno clínico. Para las herramientas de IA, los diseños de ECA utilizados más comúnmente en la investigación de servicios de salud y la ciencia de la implementación (por ejemplo, diseños de clúster o cuña escalonada con componentes cualitativos integrados) a menudo pueden ser más aplicables. 92 Independientemente de la elección del diseño, si una herramienta de IA se evaluara en todos los casos de uso razonables, cada herramienta podría requerir múltiples ECA. Dado el ritmo al que se desarrollan las herramientas de IA, confiar en los ECA, al menos como se realizan actualmente, como el enfoque predeterminado parece bastante poco práctico. Los diseños de ECA más nuevos, como los ensayos de plataforma y los ensayos integrados en el EHR, pueden permitir ECA más rápidos y económicos. 93 – 100 Cabe destacar que muchas industrias no relacionadas con la atención médica, incluida la industria de seguros, han implementado sistemas para realizar pruebas A/B aleatorias rápidas para evaluar sus herramientas comerciales, especialmente las tecnologías digitales. 66 , 101 – 104 Por el contrario, los sistemas de atención médica rara vez utilizan pruebas A/B aleatorias para evaluar las operaciones comerciales, posiblemente debido a una aversión percibida a la experimentación o creencias de que los datos aleatorios son innecesarios, inútiles o demasiado difíciles de adquirir. 66 , 78 , 105

 

El enfoque alternativo consiste en utilizar datos observacionales. Por ejemplo, el estudio sobre relojes inteligentes descrito anteriormente utilizó un estudio de cohorte de un solo grupo para caracterizar adecuadamente las características de rendimiento de la herramienta de IA. 86 Al comparar los resultados clínicos de cohortes de personas atendidas con y sin una herramienta de IA, existen numerosos enfoques cuasiexperimentales para facilitar la inferencia causal a partir de datos observacionales, si bien con la salvedad de que a menudo requieren la recopilación de datos adicionales (p. ej., información detallada sobre la variación en el entorno en el que se utiliza la herramienta para permitir la identificación de posibles variables instrumentales) y una amplia experiencia estadística. 92 , 106

 

¿Quién es responsable?

 

Incluso si hubiera un acuerdo sobre la necesidad y el enfoque para una evaluación de los efectos en la salud de una herramienta de IA, no está claro quién es responsable. Para las herramientas que requieren la revisión de la FDA, la evaluación inicial recae en el desarrollador. Sin embargo, la evaluación no incluye necesariamente la evaluación de los efectos en la salud en el mundo real. 107 Para las herramientas exentas de la aprobación de la FDA, los desarrolladores probablemente realizarían evaluaciones acordes con sus afirmaciones. Por ejemplo, un desarrollador de herramientas DTC puede evaluar la lealtad del suscriptor, mientras que un desarrollador de una herramienta de gestión del ciclo de ingresos puede desear demostrar que su herramienta mejora los ingresos. 108 , 109 Sin embargo, en ninguno de los casos el desarrollador evaluará necesariamente las consecuencias para la salud de su herramienta. Las organizaciones de prestación de servicios de salud pueden estar motivadas a realizar sus propias evaluaciones, pero muchas pueden no tener los fondos o la experiencia para realizar evaluaciones exhaustivas. 7 , 110-115 Los gobiernos pueden proporcionar subvenciones para financiar algunas evaluaciones, pero dicha financiación está lejos de ser integral. Los pacientes y las comunidades son partes interesadas que no son responsables de la evaluación, pero cuyas perspectivas son cruciales. Sin embargo, sus perspectivas no se incluyen de forma rutinaria. 116 , 117

 

Desafíos para la regulación de las herramientas de IA

 

Las herramientas de IA para la salud y la atención médica deben estar sujetas a una estructura de gobernanza que proteja a las personas y garantice que las herramientas logren sus beneficios potenciales. Para otras intervenciones de atención médica, la supervisión regulatoria es una parte importante de esa gobernanza, asegurando a la sociedad y a los mercados que una intervención es creíble. Sin embargo, Estados Unidos no cuenta con un marco regulatorio integral y adecuado para el propósito de la IA en la salud y la atención médica. Las razones incluyen la naturaleza diversa y de rápida evolución de la tecnología de IA, las numerosas agencias con jurisdicción sobre diferentes tipos y aspectos de IA, y la falta de marcos regulatorios específicamente diseñados para IA dentro de estas agencias. 41 El desarrollo de medicamentos y dispositivos médicos tradicionales también se beneficia de la armonización internacional de las normas regulatorias. 7 Aunque existen esfuerzos para armonizar las normas para la IA, existen importantes diferencias internacionales. Por ejemplo, las administraciones de Biden y Trump han reducido la carga regulatoria, mientras que la Unión Europea ha promulgado un marco integral para una mayor supervisión regulatoria. 41 , 118 , 119

 

En los EE. UU., la FDA regula cualquier herramienta de IA clasificada como un dispositivo médico (es decir, una tecnología utilizada para diagnosticar, tratar, mitigar, curar o prevenir una enfermedad o afección), independientemente de si la utiliza un médico o un consumidor. 7 La FDA aplica un enfoque basado en el riesgo y específico de la función para proporcionar la garantía menos onerosa de seguridad y eficacia. Este enfoque incluye determinar en qué tipos de dispositivos centrarse y qué nivel de evidencia se requiere para la comercialización. Aunque la agencia ha revisado los dispositivos habilitados para IA durante muchos años, su alcance está limitado por los recursos y la ley del Congreso. 41 Por ejemplo, la Ley de Curas del Siglo XXI excluye el software (incluido el software de IA) de la definición de dispositivo médico si su función es proporcionar apoyo administrativo (por ejemplo, programación y facturación), apoyo general al bienestar, algunos tipos de apoyo a la toma de decisiones clínicas y una serie de funciones de EHR y gestión de datos. 7 , 120 Como tal, muchas de las herramientas de IA analizadas aquí están exentas de la regulación de la FDA. 120 Incluso en el caso de las herramientas sobre las que la FDA sí tiene autoridad, como se señaló anteriormente, la autorización no necesariamente exige la demostración de mejores resultados clínicos. 107 En particular, las herramientas de IA generativas y agentes pueden ser capaces de realizar tantas tareas como para desafiar seriamente el marco tradicional de uso previsto para la regulación de dispositivos. 3 , 41 Más bien, se parecen más a los profesionales de la salud, lo que plantea la idea de que algún día los estados podrían otorgar licencias a los agentes de IA como médicos digitales.

 

Las herramientas de IA basadas en HCE que no cumplen con la definición de dispositivo médico están bajo la supervisión del Subsecretario de Política Tecnológica/Oficina del Coordinador Nacional de Tecnología de la Información Sanitaria, que ofrece certificación voluntaria para sistemas de tecnología de la información sanitaria, incluidas las plataformas de HCE, basándose en la demostración de la transparencia, la gestión de riesgos, la fiabilidad y la imparcialidad del producto. 121 De igual manera, algunas herramientas de IA clínica de laboratorio que no cumplen con la definición de dispositivo médico pueden utilizarse a través del programa de enmiendas para la mejora de los laboratorios clínicos de los Centros de Servicios de Medicare y Medicaid (CMS). 122 El uso de algunas herramientas de operaciones comerciales, como el software de autorización previa, también está sujeto a las directrices de los CMS, pero solo cuando lo utilizan entidades sujetas a la regulación de los CMS. 123 Las herramientas de bienestar general DTC están bajo la supervisión de la Comisión Federal de Comercio (FTC), cuyo enfoque se centra en los derechos de privacidad, la seguridad de la información personal y la protección contra la publicidad engañosa y las prácticas injustas o engañosas. 42 En parte para subsanar las deficiencias en la supervisión federal, existen numerosos esfuerzos de regulación y certificación por parte de los gobiernos estatales y las sociedades médicas profesionales. 41

 

Desafíos para el uso responsable (implementación y monitoreo) de herramientas de IA

 

Las características de las herramientas de IA que son difíciles de evaluar y regular también lo son para su implementación y monitoreo. Por ejemplo, para las herramientas utilizadas en los sistemas de atención médica, la alta dependencia de su efectividad en la capacitación y el contexto del usuario significa que los sistemas de atención médica requieren una infraestructura y recursos considerables para garantizar que los usuarios estén capacitados adecuadamente y que la herramienta se utilice en el entorno óptimo. 26 , 110 , 112 Debido a que la herramienta puede estar sujeta a poca evaluación y regulación previa, también pueden faltar pautas sobre cómo garantizar un uso óptimo. 7 Incluso si previamente se demostró que es beneficiosa, es incierto si la herramienta es realmente beneficiosa en un entorno particular o continúa siendo beneficiosa con el tiempo. 7 , 41 , 107 , 110 Sin embargo, sin un tamaño de muestra, infraestructura, experiencia y recursos adecuados, un sistema de atención médica no podrá determinar si su uso de la herramienta es beneficioso y, por lo tanto, cuándo es mejor adoptarla o desadoptarla. En el caso de las herramientas DTC que están fuera de la supervisión de la FDA, pero bajo la jurisdicción de la FTC, los tipos de prácticas que la FTC supervisa son mucho más específicos que el conjunto completo de problemas que pueden surgir de la implementación de la IA y amenazan los intereses de los pacientes y los médicos. Otros componentes de una implementación adecuada son la necesidad de demostrar que el uso de una herramienta es justo y centrado en el paciente (por ejemplo, no es financieramente tóxico), pero demostrar que se cumplen estos criterios no es sencillo. 124-126 El excomisionado de la FDA , Robert Califf, resumió recientemente el problema, afirmando: «He buscado por todas partes y no creo que haya un solo sistema de salud en Estados Unidos capaz de validar un algoritmo de IA implementado en un sistema de atención clínica». 25

 

Soluciones potenciales

 

Todas las partes interesadas coinciden en que la IA en la salud y la atención sanitaria debe ser justa, apropiada, válida, eficaz y segura. 5 , 24 , 113 , 119 , 121 , 127-140 Sin embargo, crear un entorno que promueva la innovación y la difusión de acuerdo con estos principios será extremadamente difícil. Tres grandes problemas dominan el panorama. En primer lugar, la vía lineal tradicional para las intervenciones en el cuidado de la salud, compuesta por pasos discretos desde el desarrollo y la evaluación, pasando por la autorización regulatoria hasta la difusión monitoreada, cada uno gestionado por partes interesadas específicas, no se ajusta fácilmente a la IA porque las herramientas son muy amplias y flexibles, evolucionan rápidamente y son difíciles de evaluar por completo hasta que se incorporan a la práctica. Muchas herramientas entrarán en la práctica con una evaluación limitada, posiblemente sin revisión regulatoria y, a menos que se adopten nuevos enfoques, se monitorearán solo para el cumplimiento y la seguridad del proceso, no para la eficacia. En segundo lugar, con los métodos y la infraestructura actuales, cualquier intento de imponer enfoques integrales de evaluación, implementación y monitoreo probablemente sería prohibitivamente costoso. En tercer lugar, hay muchas partes interesadas, sin una estructura general de incentivos o rendición de cuentas. Para abordar estas cuestiones será necesario avanzar en cuatro áreas ( Cuadro 2 ).

 

Tabla 2. Estrategias para mejorar el desarrollo y la difusión de herramientas de inteligencia artificial (IA) en la salud y la atención sanitaria

 

Ver en grandeDescargar
Estrategias para mejorar el desarrollo y la difusión de herramientas de inteligencia artificial (IA) en la salud y la atención sanitaria(se abre en una nueva pestaña)
Estrategia Razón fundamental Ejemplos de implementación
Involucrar a todas las partes interesadas en la gestión total del ciclo de vida del producto La ruta secuencial tradicional desde el desarrollo hasta la evaluación, la aprobación regulatoria (si es necesario) y la difusión con monitoreo (si es necesario), con cada paso supervisado por diferentes partes interesadas, no es adecuada para las herramientas de IA.

En particular, no es posible realizar una evaluación completa de las consecuencias para la salud hasta que se difunda la herramienta.

Una mayor participación de todas las partes interesadas relevantes en cada fase del ciclo de vida de una herramienta puede aumentar el desarrollo, la difusión y el impacto en la salud.

• Involucrar a los pacientes y médicos en el diseño y desarrollo

• Asociar a los desarrolladores con los sistemas de atención médica en las evaluaciones de implementación y mitigación de seguridad.

• Involucrar a los reguladores, los sistemas de atención de la salud y los desarrolladores en un plan de monitoreo colaborativo, incluida la determinación de la necesidad de capturar las consecuencias para la salud.

Desarrollar e implementar las herramientas de medición adecuadas para la evaluación, regulación y seguimiento Sin nuevos métodos, cualquier esfuerzo por aumentar la supervisión y la garantía probablemente será engorroso, costoso y potencialmente ineficaz.

En particular, no existen buenas herramientas para evaluar de manera rápida y eficiente las consecuencias para la salud de las herramientas de IA en todos los entornos y casos de uso relevantes.

• Integrar e implementar los enfoques de seguridad y cumplimiento propuestos (por ejemplo, colaboración entre la Comisión Conjunta y la CHAI)

• Desarrollar y promulgar métodos novedosos para facilitar evaluaciones rápidas, eficientes y sólidas de las consecuencias para la salud.

• Adoptar normas para evaluar las consecuencias para la salud (no sólo la seguridad) durante el despliegue

Construya la infraestructura de datos y el entorno de aprendizaje adecuados Sin una mejor infraestructura de datos y un entorno de aprendizaje, cualquier esfuerzo por aumentar la supervisión y la garantía probablemente será engorroso, costoso y potencialmente ineficaz.

En particular:

La recopilación, el acceso y la interoperabilidad deficientes de datos obstaculizan la capacidad de construir e interrogar de manera rápida y eficiente datos relevantes y representativos a nivel nacional sobre el uso y los efectos de las herramientas de IA.

Las instituciones capaces de implementar y evaluar de manera sólida pueden ser poco representativas de muchos entornos importantes

• Crear un entorno de pruebas de datos de atención médica retrospectivos y representativos a nivel nacional

• Aprenda del programa Sentinel de la FDA y de las iniciativas de aprendizaje del sistema de salud para respaldar la conservación de datos actualizados periódicamente sobre la implementación de herramientas dentro de una cohorte representativa a nivel nacional de sistemas de atención médica.

• Crear eventualmente una plataforma federada capaz de realizar evaluaciones prospectivas rápidas capaces de realizar una inferencia causal robusta.

• Brindar capacitación y recursos para que los sistemas de atención médica realicen o participen en evaluaciones de las consecuencias para la salud de las herramientas de IA.

Crear la estructura de incentivos adecuada Los incentivos actuales no están bien alineados entre las diferentes partes interesadas, lo que potencialmente obstaculiza el progreso.

Las fuerzas del mercado por sí solas pueden no garantizar el desarrollo y la difusión óptimos de las herramientas de IA

Las iniciativas estratégicas enumeradas anteriormente pueden requerir incentivos específicos

• Fondos federales (por ejemplo, similares a los proporcionados por HITECH) para incentivar a los sistemas de atención médica a adoptar estándares de interoperabilidad de datos.

• Financiación federal de investigación para el desarrollo de nuevos métodos

 

Involucrar a las partes interesadas en la gestión total del ciclo de vida del producto

 

El primer paso, respaldado por múltiples agencias gubernamentales y organizaciones no gubernamentales, es reconocer la necesidad de una gestión holística, continua, de múltiples partes interesadas y basada en equipos de las herramientas de IA a lo largo de todo su ciclo de vida, desde el desarrollo hasta la implementación. 7 , 26, 121, 135-138, 141-144 Por ejemplo , una mayor participación de los pacientes y los médicos con los desarrolladores en las fases de diseño y desarrollo de una herramienta de IA puede mejorar su transparencia y confiabilidad. 26 , 116 , 142 , 144 De manera similar, los desarrolladores pueden ayudar a los sistemas de atención médica con la implementación, el monitoreo y la solución de problemas como las alucinaciones de los modelos. 26 , 142 Y la capacidad de los reguladores para tranquilizar al público sobre la seguridad y la eficacia de las herramientas de IA requiere un compromiso colaborativo tanto con los desarrolladores como con los sistemas de atención médica. 7 , 120 , 143 Estas asociaciones entre múltiples partes interesadas van más allá de las relaciones tradicionales entre vendedor-cliente o desarrollador-regulador, pero serán clave para una gestión exitosa del ciclo de vida total del producto.

 

Desarrollar e implementar herramientas adecuadas de evaluación y seguimiento

 

Hay muchas normas propuestas y procesos de certificación para herramientas de IA. 145 Por ejemplo, la calidad de una evaluación podría juzgarse utilizando las directrices APPRAISE-AI, CONSORT-AI, DECIDE-AI, SPIRIT-AI o TRIPOD+AI; el diseño de una herramienta, su uso previsto y su rendimiento podrían informarse y etiquetarse, de forma similar a una etiqueta nutricional de la FDA, con una tarjeta modelo, y su uso en el mundo real podría evaluarse localmente por un sistema de atención médica, que a su vez podría certificarse como preparado para IA . 110 , 112 , 128 , 135 , 136 , 146-153 Los enfoques adoptados por los sistemas de atención médica individuales también podrían servir como recursos para otros sistemas. 110 , 112 Juntos, estos enfoques de evaluación y seguimiento podrían proporcionar la denominada algorítmicovigilancia , similar a la farmacovigilancia. 154 Sin embargo, falta evidencia sobre hasta qué punto estas diversas iniciativas son prácticas, sostenibles, adecuadamente accesibles, capaces de ofrecer las garantías que pretenden, o suficientemente integrales, pero no innecesariamente redundantes. Ponerlas a prueba, perfeccionarlas e integrarlas en un paquete integral sería un avance significativo. Un paso en este sentido es la colaboración de la Comisión Conjunta con la Coalición para la IA en Salud (CHAI) para desarrollar e implementar un proceso de certificación para el uso responsable de la IA en los sistemas de atención médica. 155

 

Dicho esto, los estándares de monitoreo propuestos hasta ahora se enfocan en la seguridad y el cumplimiento del proceso. 110 , 135 , 136 , 153 , 155 , 156 Ninguno aborda cómo se determinará la efectividad (es decir, mejores resultados clínicos) en diferentes entornos y con el tiempo. Efectivamente, existe una suposición tácita de que probar la efectividad es innecesario o está suficientemente demostrado por pruebas previas a la comercialización (y se mantendrá asumiendo que el uso de una herramienta sigue siendo seguro). Aquí, sería útil establecer estándares y brindar capacitación y recursos para que los sistemas de atención médica realicen o participen en evaluaciones de los efectos causales de una herramienta de IA durante su uso (por ejemplo, uso rutinario de diseños de cuña escalonada por lotes aleatorios o series de tiempo interrumpidas no aleatorias). Este enfoque podría extenderse a las herramientas de operaciones comerciales (por ejemplo, establecer estándares y brindar capacitación y recursos para un mayor uso de las pruebas A/B). También se requerirán métodos novedosos para ayudar a los aspectos logísticos y analíticos de estas evaluaciones de inferencia causal, especialmente para herramientas DTC y herramientas basadas en IA generativa o agentiva. Estos métodos de evaluación pueden depender en gran medida de la IA. 106 , 157

 

Construir la infraestructura de datos y el entorno de aprendizaje adecuados

 

La generación de información eficiente, rápida, robusta y generalizable sobre la seguridad y la eficacia de las herramientas de IA requiere una inversión significativa en infraestructura de datos y capacidad analítica. 158 , 159 Algunas preguntas pueden abordarse dentro de un solo sistema de atención médica, pero incluso los sistemas de atención médica grandes y con buenos recursos, con su propia experiencia analítica y especializada en implementación, pueden tener dificultades para realizar análisis rutinarios rápidos pero robustos. Además, muchas evaluaciones, especialmente si tienen como objetivo garantizar que las herramientas de IA son seguras y eficaces en diversos entornos y poblaciones, requerirán datos de múltiples sistemas de atención médica o datos que vinculen las aplicaciones DTC con la atención médica. Organizaciones como CHAI proponen la creación de conjuntos de datos retrospectivos de los sistemas de atención médica asociados. 135 Dichos conjuntos de datos podrían seleccionarse y hacerse accesibles a los desarrolladores como un entorno limitado para el desarrollo de herramientas de IA y la exploración del rendimiento del modelo en diferentes poblaciones y entornos. Sin embargo, la evaluación del uso en el mundo real requiere que se compartan datos sobre el uso de una herramienta, lo que requiere un mecanismo para obtener actualizaciones periódicas de datos e incluir muchos elementos de datos no solo sobre los pacientes y el entorno, sino también sobre el uso de la herramienta y los flujos de trabajo clínicos. CHAI anunció recientemente su intención de expandirse en esta dirección, aunque la gestión de actualizaciones frecuentes de datos con información nueva, posiblemente exclusiva, sobre herramientas específicas será muy difícil. 160 Un sistema de este tipo podría imitar iniciativas de farmacovigilancia como la iniciativa Sentinel, apoyada por la FDA, aunque con información más completa sobre el uso de la herramienta. 136 , 157 , 161 Si bien Sentinel ha tenido éxito, requirió un esfuerzo considerable para garantizar la calidad, la interoperabilidad y el intercambio de datos. 162

 

Fundamentalmente, cualquier evaluación prospectiva de herramientas de IA, especialmente las que involucran aleatorización, requeriría una colaboración aún más sofisticada e integrada entre los sistemas de atención médica con acceso a datos en tiempo real o casi real. Algunos sistemas de atención médica individuales han creado los datos y la capacidad analítica necesarios para funcionar como un sistema de salud de aprendizaje. 163 En este caso, dicho sistema sería efectivamente una colaboración multicéntrica de sistemas de salud de aprendizaje. Desde un punto de vista práctico, un enfoque de datos federados puede funcionar mejor, donde los datos del sistema de atención médica permanecen en su lugar, reduciendo algunas cargas logísticas y contractuales. Sin embargo, existen muchos desafíos financieros, contractuales y operativos para la creación de dicha colaboración. 158 Dicho esto, si tiene éxito y asumiendo que la colaboración sea representativa de la amplitud de las poblaciones de pacientes y los entornos clínicos observados a nivel nacional, no solo informaría el uso responsable de las herramientas de IA a lo largo de todo su ciclo de vida, sino que también podría respaldar la evaluación de otras intervenciones de atención médica y soluciones de interoperabilidad de datos. 66 , 164 – 166 Una iniciativa de este tipo requeriría apoyo federal, pero se alinea bien con las prioridades del Departamento de Salud y Servicios Humanos. 167 – 170

 

Cree la estructura de incentivos adecuada

 

Toda la motivación para implementar, adoptar y monitorear herramientas de IA para la salud y la atención médica requiere incentivos adecuados para que las partes interesadas relevantes participen. Si se deja como un mercado subregulado, no está claro si se desarrollarán las herramientas correctas, si las herramientas se adoptarán de una manera que maximice sus efectos beneficiosos para la salud y minimice el riesgo, y si sus efectos se medirán adecuadamente. También es posible que las fuerzas del mercado proporcionen incentivos perversos, como la adopción de herramientas que maximizan las ganancias de los desarrolladores o los márgenes operativos del sistema de salud, mientras que inadvertidamente comprometen la calidad de la atención médica o los resultados de salud. 171 Donde hay poca regulación federal, los estados pueden promulgar un mosaico de políticas heterogéneas, lo que hace que el cumplimiento sea demasiado oneroso para los desarrolladores y, por lo tanto, sofoca accidentalmente la inversión. 41 Por lo tanto, parece necesario desarrollar legislación, regulación y diseños de mercado que alineen los incentivos para la participación adecuada de múltiples partes interesadas.

 

Algunas prioridades pueden lograrse a través del mercado. Por ejemplo, el deseo de involucrar a pacientes y médicos en el codiseño de herramientas de IA puede lograrse espontáneamente si los desarrolladores anticipan que las personas y los sistemas de salud estarán más dispuestos a comprar dichas herramientas. Otras prioridades pueden ser más difíciles de lograr sin palancas políticas específicas. Por ejemplo, los sistemas de atención médica enfrentan costos considerables para mantener la infraestructura digital y la experiencia técnica requerida para garantizar que cumplen con los estándares de uso responsable o para colaborar en iniciativas de aprendizaje federado. Si bien algunos sistemas de atención médica pueden realizar las inversiones necesarias en respuesta a las fuerzas del mercado, como la oportunidad de fomentar asociaciones comerciales con desarrolladores u obtener ventaja sobre la competencia, una inversión más uniforme por parte de todos los sistemas puede requerir palancas gubernamentales más fuertes, como incentivos financieros o requisitos regulatorios. Un modelo potencial es la Ley de Tecnología de la Información de Salud para la Salud Económica y Clínica: aunque persisten numerosos desafíos con la información de salud digital, es notable que una inversión federal relativamente modesta de $35 mil millones llevó a la adopción de EHR por más del 97% de los sistemas de atención médica en una década. 167 , 172 También podrían requerirse fondos federales de investigación para desarrollar métodos de evaluación robustos y eficientes para herramientas de IA en entornos reales, fomentando la colaboración entre desarrolladores, expertos en investigación e implementación de servicios de salud y sistemas de atención médica. Las fuerzas del mercado de la atención médica a menudo no logran brindar una atención adecuada a las poblaciones vulnerables sin la intervención del gobierno, y lo mismo probablemente ocurrirá con el uso responsable de la IA en entornos de bajos recursos. También es probable que una mayor transparencia con respecto a los efectos en la salud de las herramientas de DTC o de operaciones comerciales requiera una mayor regulación.

 

Implicaciones para el personal sanitario

 

El impacto de la IA en la fuerza laboral de atención médica será de amplio alcance. Los médicos pueden estar entusiasmados con los beneficios potenciales, preocuparse por el desplazamiento laboral y disfrutar o resistirse a los requisitos para mejorar su alfabetización en IA. También pueden tener preocupaciones existenciales como la falta de alineación de la ética, los objetivos y los principios humanos y de la IA. Aunque su comodidad con la IA está aumentando, los médicos estadounidenses culpan a la falta de supervisión regulatoria como la razón principal de su falta de confianza y adopción de herramientas de operaciones comerciales tanto clínicas como de atención médica. 72 Los sindicatos de trabajadores de la salud también están planteando preocupaciones sobre la IA insegura y poco regulada. 140 La composición de la fuerza laboral también puede necesitar cambiar, agregando más expertos en el desarrollo, la implementación y la evaluación de herramientas de IA. 173 , 174 Y, por supuesto, las herramientas de IA tienen el potencial de aumentar la cantidad de médicos que trabajan, aunque con advertencias clave.

 

En primer lugar, las herramientas de IA pueden cambiar qué profesional de la salud realiza cada tarea. Por ejemplo, un ecocardiógrafo portátil con interpretación basada en IA mejora las habilidades del técnico de ultrasonido, eliminando potencialmente la necesidad de la interpretación por parte de un cardiólogo o radiólogo. 10 El beneficio es un mejor acceso para los pacientes al ayudar a cerrar las brechas en la atención, especialmente en entornos desatendidos. Sin embargo, estas herramientas podrían generar fricción entre los grupos de profesionales de la salud, por ejemplo, al cuestionar el alcance de las regulaciones de la práctica. También pueden cambiar las habilidades requeridas de los diferentes profesionales de la salud, como la alfabetización en IA. Para anticipar y gestionar estos cambios, los sistemas de salud deben pensar más allá de capacitar a un profesional de la salud en el uso de una herramienta de IA en particular y, en su lugar, replantear las estructuras organizativas, la composición de la fuerza laboral, la distribución de habilidades y la rendición de cuentas en todos los niveles jerárquicos. Por supuesto, el ejemplo más extremo sería cuando una herramienta DTC elimina por completo la necesidad de que una persona busque atención profesional. Este potencial variará considerablemente según el problema de salud y, por lo tanto, afectará a las especialidades de manera muy diferente, pero dicha disrupción parece inevitable.

 

En segundo lugar, más allá del aprendizaje enfocado en el uso de cualquier herramienta en particular, es necesario incluir una comprensión fundamental de la IA para los profesionales de la salud, tanto en la capacitación como en la educación continua. 175 – 178 Aunque muchas herramientas clínicas pueden proporcionar información que un profesional de la salud puede usar sin comprender la tecnología subyacente (p. ej., tomografía computarizada o secuenciación del genoma completo), las herramientas de IA no solo proporcionan información, sino que también contribuyen al juicio en condiciones de incertidumbre. Por lo tanto, los profesionales de la salud deben comprender mejor las fortalezas y debilidades de su propia toma de decisiones y las susceptibilidades y consecuencias no deseadas al compartir tareas de juicio con una herramienta de IA. Estos requisitos de aprendizaje también se aplican a los administradores de atención médica que utilizan herramientas de IA para operaciones comerciales.

 

En tercer lugar, las nuevas tecnologías suelen estar primero disponibles y ser adoptadas por personas y organizaciones con mayores recursos. Para que las herramientas de IA se desarrollen y difundan de forma justa y equitativa, y no profundicen la brecha digital, cualquier iniciativa de educación y reorganización debe incluir a los sectores de la atención sanitaria responsables de los grupos más vulnerables. Por supuesto, las iniciativas para garantizar un acceso equitativo a la IA también deben ser conscientes de los riesgos de implementar una herramienta con posibles consecuencias adversas en entornos con escasa capacidad para detectarlas.

 

En cuarto lugar, muchas herramientas de IA tienen como objetivo reducir la carga administrativa de los profesionales de la salud (p. ej., documentación de registros médicos o apelaciones de autorización previa) bajo la premisa de que esta carga contribuye al agotamiento, la baja moral y el estrés. Sin embargo, esta línea de razonamiento puede tener fallas. En primer lugar, el agotamiento, la baja moral y el estrés son problemas complejos; es mucho pedir que una herramienta de IA los solucione. 179 En segundo lugar, si se liberan de las tareas administrativas, se puede pedir a los médicos que vean más pacientes, lo que también podría causar agotamiento. En tercer lugar, centrarse en herramientas para automatizar tareas como la autorización previa potencialmente pierde la oportunidad más grande de repensar por completo el propósito y el valor de tales tareas.

 

En quinto lugar, dado que el desarrollo y la difusión óptimos de herramientas de IA requieren una integración mucho mayor con la atención médica que la que requiere el desarrollo de tecnologías tradicionales, los profesionales sanitarios deberán comprender que participan en el ciclo continuo de aprendizaje, mejora y evaluación de estos productos. Si bien los profesionales sanitarios utilizan medicamentos y dispositivos tradicionales fuera de indicación, el grado de incertidumbre sobre los beneficios y los perjuicios de una herramienta de IA puede ser considerablemente mayor. Mientras los profesionales sanitarios sepan que tienen voz en este esfuerzo, sus contribuciones para mejorar el rendimiento de las herramientas de IA podrían ser una fuente de satisfacción laboral.

 

Consideraciones adicionales

 

Aunque no se analizan en detalle aquí, importantes cuestiones éticas y legales afectarán la adopción de la IA en el ámbito de la salud y la atención sanitaria. Un tema importante son los derechos, la privacidad y la propiedad de los datos. Los datos de salud y atención sanitaria son un combustible esencial para las herramientas de IA. Si bien se puede determinar el origen de estos datos, no está claro quién posee o debería poseerlos, especialmente cuando se agregan y transforman, ni qué derechos de privacidad y uso se extienden o deberían extenderse a quién. 180 La Ley de Portabilidad y Responsabilidad del Seguro Médico y la ley de propiedad intelectual de EE. UU. ofrecen cierta orientación sobre los derechos de privacidad, las obligaciones de seguridad, los secretos comerciales y la propiedad de las herramientas desarrolladas a partir de datos, pero son menos claras sobre la propiedad de los datos subyacentes y no protegen contra la aparición de mercados oscuros, no reflejan todas las consideraciones éticas ni se alinean plenamente con la legislación estatal o internacional, como la Ley de IA y el Reglamento General de Protección de Datos de la UE . 180-187

 

Una segunda cuestión es cómo proporcionar una supervisión ética de la IA a medida que se implementa. 188 Un argumento es que las decisiones de los sistemas de atención médica para implementar herramientas de IA son parte de las operaciones de atención clínica. 189 , 190 Cualquier evaluación del éxito o no de la implementación es una mejora de la calidad, no una investigación, y está exenta de la supervisión ética requerida para la investigación con sujetos humanos. 191 El argumento alternativo es que la implementación de herramientas de IA se implementa en condiciones de incertidumbre, y el objetivo de cualquier evaluación es generar conocimiento que beneficiaría a futuros pacientes. 192 Por lo tanto, dichas evaluaciones son investigación, incluso si también son una mejora de la calidad, y deben caer dentro del ámbito de la junta de revisión institucional local y los principios de la Regla Común. 66 , 193 Actualmente, se dan ambos enfoques, lo que refleja el debate más amplio sobre la mejor manera de proporcionar una supervisión ética de los sistemas de salud en aprendizaje. 66 , 194 – 196 Un aspecto adicional de este problema es que, independientemente de qué organismo proporcione la supervisión (una junta de revisión institucional u otro), la competencia requerida para supervisar la implementación ética de la IA puede faltar si no se cuenta con la infraestructura, los recursos y la capacitación adecuados. 110 , 112 , 197

 

Finalmente, hasta ahora el uso de herramientas de IA ha sido en gran medida voluntario. Sin embargo, a medida que sus beneficios se vuelven más establecidos, el no uso de una herramienta de IA puede considerarse poco ético o una violación de la atención estándar. Por lo tanto, un sistema o profesional de la salud puede ser responsable en una demanda por mala praxis por no usar IA. 198 , 199 Al mismo tiempo, si un demandante demanda por un resultado adverso cuando se proporcionó atención en la que estuvo involucrada una herramienta de IA, surge la pregunta de si la responsabilidad recae en el profesional de la salud, el sistema de atención médica o el desarrollador de la herramienta. Aunque la jurisprudencia relevante actualmente es limitada, los desarrolladores, los sistemas de atención médica y los profesionales de la atención médica tendrán que adoptar estrategias para gestionar su riesgo de responsabilidad. 139 , 200 Estos ejemplos son solo algunos de los muchos problemas nuevos que deberán abordarse a medida que la IA se incorpore más en la salud y la atención médica.

 

Conclusiones

 

La IA revolucionará enormemente la salud y la prestación de servicios de salud en los próximos años. Los enfoques tradicionales para evaluar, regular y supervisar las nuevas intervenciones sanitarias están siendo llevados al límite, especialmente con la IA generativa y agente, y sobre todo porque los efectos de estas herramientas no pueden comprenderse plenamente hasta su aplicación práctica. No obstante, muchas herramientas ya se están adoptando rápidamente, en parte porque abordan importantes dificultades para los usuarios finales. Dados los numerosos problemas de larga data en la atención sanitaria, esta disrupción representa una oportunidad increíble. No obstante, la probabilidad de que esta disrupción mejore la salud de todos dependerá en gran medida de la creación de un ecosistema capaz de generar conocimiento rápido, eficiente, sólido y generalizable sobre las consecuencias de estas herramientas en la salud.

 

Información del artículo

Aceptado para publicación: 5 de septiembre de 2025.

Publicado en línea: 13 de octubre de 2025. doi:10.1001/jama.2025.18490

Autor correspondiente: Derek C. Angus, MD, MPH, Medicina de cuidados críticos, UPMC, 3550 Terrace St, 614 Scaife Hall, Pittsburgh, PA 15261 ( angusdc@upmc.edu ).

Divulgaciones de conflicto de intereses:El Dr. Khera informó haber recibido subvenciones de los Institutos Nacionales de Salud (NIH; 1R01HL167858, 1R01AG089981 y 5K23HL153775), Bristol Myers Squibb, BridgeBio y Novo Nordisk, y haber sido cofundador académico de Ensight-AI y Evidence2Health fuera del trabajo presentado. El Dr. V. Liu informó haber recibido subvenciones de los NIH durante la realización del estudio. El Dr. Ahmad informó haber recibido apoyo no financiero de Pfizer, subvenciones de Atman Health, Tempus y Abiomed, y honorarios personales de AstraZeneca y Alnylam Pharmaceuticals fuera del trabajo presentado. El Dr. Bhavani informó haber recibido subvenciones de los NIH y Kaiser Permanente fuera del trabajo presentado. El Dr. Cohen informó haber recibido apoyo parcial de una subvención de la Fundación Novo Nordisk para un Programa Internacional de Derecho e Innovación en Biociencias Colaborativas Científicamente Independiente (programa Inter-CeBIL n.º NNF23SA0087056); recibir subvenciones de Novo Nordisk Foundation (NNF23SA0087056) durante la realización del estudio, ejercer como presidente del consejo asesor de ética de Illumina, miembro del Consejo de Bioética de Bayer, asesor de bioética de Bexorg y asesor de World Class Health y Manhattan Neuroscience; recibir compensación por hablar en eventos organizados por Philips con el Washington Post y Doctors Company; y ser contratado como experto en privacidad de la salud, atención de afirmación de género y demandas de tecnología reproductiva. El Dr. Embi informó tener una patente para el Sistema de Monitoreo y Operaciones de Algoritmovigilancia Vanderbilt con licencia para VigilAI, Inc. El Dr. Ferryman informó recibir honorarios personales de Merck KGaA y All of Us Research Program fuera del trabajo presentado. El Dr. Gross informó recibir subvenciones de Yosemite a Johns Hopkins durante la realización del estudio; ser fundador/CEO de de-bi, co. fuera del trabajo presentado; y tener una patente para la aplicación No. 19/220,825 y PCT/US25/31199 pendiente a través de de-bi, co. que es ampliamente relevante para la transparencia de los sistemas de salud y la propiedad de los datos. El Dr. Howell informó estar empleado por Google y poseer acciones en Alphabet fuera del trabajo presentado y tener una patente relacionada con la comprensión del sonido usando aprendizaje profundo licenciada a Google (EP3762942B1). El Dr. Johnson informó haber recibido subvenciones de NIH durante la realización del estudio. El Dr. X. Liu informó ser empleado de Microsoft AI y anteriormente se desempeñó como científico de la salud en Apple y recibió honorarios de consultoría de Hardian Health y Conceivable Life Sciences; y actualmente se desempeña como miembro de la junta del Comité Directivo de Airlock de MHRA. El Dr. McGlynn informó haber recibido gastos de viaje a la cumbre de la Fundación Gordon y Betty Moore y haber sido empleado de Kaiser Permanente durante la realización del estudio. El Dr. Mello informó haber recibido honorarios personales de AVIA y Augmedix, y subvenciones de Stanford Health Care, Patient-Centered Outcomes Research Institute y Stanford Impact Labs fuera del trabajo presentado y del empleo conyugal con Cisco Systems, Inc.El Dr. Perlis declaró haber recibido honorarios personales de Genomind, Circular Genomics y Alkermes fuera del trabajo presentado. El Dr. Ross declaró haber recibido subvenciones de la Administración de Alimentos y Medicamentos (FDA), Johnson & Johnson, el Consorcio de Innovación en Dispositivos Médicos, AHRQ, el Instituto Nacional del Corazón, los Pulmones y la Sangre de los NIH y Arnold Ventures fuera del trabajo presentado y haber actuado como testigo experto a petición de los abogados del relator, el bufete Greene Law Firm, en una demanda qui tam por presuntas violaciones de la Ley de Reclamaciones Falsas y la Ley Antisoborno contra Biogen Inc., que se resolvió en septiembre de 2022. El Dr. Saria declaró haber actuado como director ejecutivo y miembro de la junta directiva de Bayesian Health, miembro de la junta directiva de la Coalición de IA en Salud, asesor de Century Health, miembro de la junta asesora de Duality Tech y haber recibido subvenciones de la Fundación Gordon y Betty Moore, el Centro de Excelencia de la FDA y el Centro de los NIH fuera del trabajo presentado. El Dr. Schwamm declaró tener una patente US2024031761 pendiente para un clasificador de accidentes cerebrovasculares con IA y actuar como asesor de contenido no remunerado sobre salud digital para el consejo editorial de Stroke y como miembro voluntario de un comité asesor de hospitales clientes para Abridge, una empresa de documentación clínica con IA ambiental, en nombre de Yale New Haven Health System. El Dr. Seymour declaró haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia a demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona directrices para el uso responsable de la inteligencia artificial en el cuidado de la salud y actuar como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró haber recibido honorarios personales de Google por su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró haber recibido subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró haber recibido honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation fuera del trabajo presentado; y por su participación en el consejo asesor de Health AI Partnership. El Dr. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio y honorarios por ponencias de Cook Medical fuera del trabajo presentado. El Dr. Wiens declaró haber recibido honorarios por viajes de Kaiser Permanente durante la realización del estudio. No se informó de ninguna otra declaración.Consorcio de Innovación en Dispositivos Médicos, AHRQ, NIH/Instituto Nacional del Corazón, los Pulmones y la Sangre, y Arnold Ventures fuera del trabajo presentado y sirviendo como testigo experto a solicitud de los abogados del relator, el bufete de abogados Greene, en una demanda qui tam que alega violaciones de la Ley de Reclamaciones Falsas y el Estatuto Antisoborno contra Biogen Inc. que se resolvió en septiembre de 2022. El Dr. Saria informó haber actuado como director ejecutivo y miembro de la junta de Bayesian Health, haber sido miembro de la junta de la Coalición de IA en Salud, haber sido asesor de Century Health, haber sido miembro de la junta asesora de Duality Tech y haber recibido subvenciones de la Fundación Gordon y Betty Moore, el Centro de Excelencia de la FDA y el Centro NIH fuera del trabajo presentado. El Dr. Schwamm declaró tener una patente US2024031761 pendiente para un clasificador de accidentes cerebrovasculares con IA y actuar como asesor de contenido no remunerado sobre salud digital para el consejo editorial de Stroke y como miembro voluntario de un comité asesor de hospitales clientes para Abridge, una empresa de documentación clínica con IA ambiental, en nombre de Yale New Haven Health System. El Dr. Seymour declaró haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia a demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona directrices para el uso responsable de la inteligencia artificial en el cuidado de la salud y actuar como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró haber recibido honorarios personales de Google por su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró haber recibido subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró haber recibido honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation fuera del trabajo presentado; y por su participación en el consejo asesor de Health AI Partnership. El Dr. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio y honorarios por ponencias de Cook Medical fuera del trabajo presentado. El Dr. Wiens declaró haber recibido honorarios por viajes de Kaiser Permanente durante la realización del estudio. No se informó de ninguna otra declaración.Consorcio de Innovación en Dispositivos Médicos, AHRQ, NIH/Instituto Nacional del Corazón, los Pulmones y la Sangre, y Arnold Ventures fuera del trabajo presentado y sirviendo como testigo experto a solicitud de los abogados del relator, el bufete de abogados Greene, en una demanda qui tam que alega violaciones de la Ley de Reclamaciones Falsas y el Estatuto Antisoborno contra Biogen Inc. que se resolvió en septiembre de 2022. El Dr. Saria informó haber actuado como director ejecutivo y miembro de la junta de Bayesian Health, haber sido miembro de la junta de la Coalición de IA en Salud, haber sido asesor de Century Health, haber sido miembro de la junta asesora de Duality Tech y haber recibido subvenciones de la Fundación Gordon y Betty Moore, el Centro de Excelencia de la FDA y el Centro NIH fuera del trabajo presentado. El Dr. Schwamm declaró tener una patente US2024031761 pendiente para un clasificador de accidentes cerebrovasculares con IA y actuar como asesor de contenido no remunerado sobre salud digital para el consejo editorial de Stroke y como miembro voluntario de un comité asesor de hospitales clientes para Abridge, una empresa de documentación clínica con IA ambiental, en nombre de Yale New Haven Health System. El Dr. Seymour declaró haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia a demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona directrices para el uso responsable de la inteligencia artificial en el cuidado de la salud y actuar como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró haber recibido honorarios personales de Google por su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró haber recibido subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró haber recibido honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation fuera del trabajo presentado; y por su participación en el consejo asesor de Health AI Partnership. El Dr. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio y honorarios por ponencias de Cook Medical fuera del trabajo presentado. El Dr. Wiens declaró haber recibido honorarios por viajes de Kaiser Permanente durante la realización del estudio. No se informó de ninguna otra declaración.El Dr. Saria informó haber actuado como director ejecutivo y miembro de la junta directiva de Bayesian Health, haber actuado como miembro de la junta directiva de la Coalition of Health AI, haber actuado como asesor de Century Health, haber actuado como miembro de la junta asesora de Duality Tech y haber recibido subvenciones de Gordon and Betty Moore Foundation, el Centro de Excelencia de la FDA y el Centro de los NIH fuera del trabajo presentado. El Dr. Schwamm informó tener una patente pendiente para US2024031761 para un clasificador de accidentes cerebrovasculares habilitado con IA y haber actuado como asesor de contenido no remunerado sobre salud digital para el consejo editorial de Stroke y como miembro voluntario de un comité asesor de un hospital cliente para Abridge, una empresa de documentación clínica de IA ambiental, en nombre de Yale New Haven Health System. El Dr. Seymour informó haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia a demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona directrices para el uso responsable de la inteligencia artificial en el cuidado de la salud y que actúa como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró recibir honorarios personales de Google a través de su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró recibir subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró recibir honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation fuera del trabajo presentado; y formar parte del consejo asesor de Health AI Partnership. La Dra. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio, así como honorarios por conferencias de Cook Medical fuera del trabajo presentado. El Dr. Wiens declaró haber recibido gastos de viaje de Kaiser Permanente durante la realización del estudio. No se declaró ninguna otra declaración.El Dr. Saria informó haber actuado como director ejecutivo y miembro de la junta directiva de Bayesian Health, haber actuado como miembro de la junta directiva de la Coalition of Health AI, haber actuado como asesor de Century Health, haber actuado como miembro de la junta asesora de Duality Tech y haber recibido subvenciones de Gordon and Betty Moore Foundation, el Centro de Excelencia de la FDA y el Centro de los NIH fuera del trabajo presentado. El Dr. Schwamm informó tener una patente pendiente para US2024031761 para un clasificador de accidentes cerebrovasculares habilitado con IA y haber actuado como asesor de contenido no remunerado sobre salud digital para el consejo editorial de Stroke y como miembro voluntario de un comité asesor de un hospital cliente para Abridge, una empresa de documentación clínica de IA ambiental, en nombre de Yale New Haven Health System. El Dr. Seymour informó haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia a demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona directrices para el uso responsable de la inteligencia artificial en el cuidado de la salud y que actúa como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró recibir honorarios personales de Google a través de su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró recibir subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró recibir honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation fuera del trabajo presentado; y formar parte del consejo asesor de Health AI Partnership. La Dra. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio, así como honorarios por conferencias de Cook Medical fuera del trabajo presentado. El Dr. Wiens declaró haber recibido gastos de viaje de Kaiser Permanente durante la realización del estudio. No se declaró ninguna otra declaración.El Dr. Seymour declaró haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia bajo demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona pautas para el uso responsable de la inteligencia artificial en el cuidado de la salud y se desempeña como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró haber recibido honorarios personales de Google a través de su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró haber recibido subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró haber recibido honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation, además de participar en el trabajo presentado; y haber formado parte del consejo asesor de Health AI Partnership. El Dr. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio, así como honorarios por conferencias de Cook Medical, además de haber participado en el trabajo presentado. El Dr. Wiens declaró haber recibido gastos de viaje de Kaiser Permanente durante la realización del estudio. No se declaró ninguna otra declaración.El Dr. Seymour declaró haber recibido subvenciones de los NIH durante la realización del estudio y honorarios personales de Octapharma, Beckman Coulter y Edwards LifeSciences fuera del trabajo presentado. El Dr. N. Shah declaró ser cofundador de Prealize Health (una empresa de análisis predictivo), así como de Atropos Health (una empresa de generación de evidencia bajo demanda) y formar parte de la junta directiva de la Coalición para la IA en el Cuidado de la Salud (CHAI), una organización de creación de consenso que proporciona pautas para el uso responsable de la inteligencia artificial en el cuidado de la salud y se desempeña como asesor de Opala, Curai Health, JnJ Innovative Medicines y AbbVie Pharmaceuticals. El Dr. Singh declaró haber recibido honorarios personales de Google a través de su participación en el Panel Asesor de Salud del Consumidor de Google y como consultor remunerado durante la realización del estudio. El Dr. Spector-Bagdady declaró haber recibido subvenciones del Centro Nacional para el Avance de las Ciencias Traslacionales y la Fundación Greenwall durante la realización del estudio. El Dr. Wang declaró haber recibido honorarios personales de Kaiser Permanente, Health AI Partnership, SCAN Foundation, Emerson Collective y Gordon and Betty Moore Foundation, además de participar en el trabajo presentado; y haber formado parte del consejo asesor de Health AI Partnership. El Dr. Wawira Gichoya declaró haber recibido subvenciones de los NIH, Clarity y LUNIT durante la realización del estudio, así como honorarios por conferencias de Cook Medical, además de haber participado en el trabajo presentado. El Dr. Wiens declaró haber recibido gastos de viaje de Kaiser Permanente durante la realización del estudio. No se declaró ninguna otra declaración.

Información del grupo: Los participantes de la Cumbre JAMA sobre IA aparecen en el Suplemento .

Descargo de responsabilidad: Los Dres. Angus, Khera, Lieu, Perlis, Ross, Seymour y Bibbins-Domingo son editores de JAMA y JAMA Network, pero no participaron en ninguna de las decisiones sobre la revisión del manuscrito o su aceptación.

Descargo de responsabilidad: La Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) participó en la Cumbre de IA de JAMA los días 15 y 16 de octubre de 2024. Sin embargo, el contenido de este artículo representa las opiniones de los autores y no necesariamente representa las opiniones oficiales ni constituye un respaldo de la FDA, el Departamento de Salud y Servicios Humanos ni del gobierno de los Estados Unidos. Las opiniones, conclusiones e interpretaciones contenidas en este artículo no constituyen una guía, una postura ni requisitos legalmente vinculantes de la FDA sobre este asunto.

Contribuciones adicionales: Dedicamos este trabajo a la memoria de Atul Butte, un gigante en el campo cuyo asesoramiento en la planificación de esta Cumbre JAMA fue invaluable.

 

Referencias

1.

Rajpurkar P, Chen E, Banerjee O, Topol EJ. IA en salud y medicina.   Nat Med . 2022;28(1):31-38. doi: 10.1038/s41591-021-01614-0PubMedGoogle AcadémicoReferencia cruzada

2.

Agencia Canadiense de Medicamentos y Tecnologías de la Salud. Lista de vigilancia 2025: Inteligencia artificial en tecnologías sanitarias . Agencia Canadiense de Medicamentos y Tecnologías de la Salud; 2025.

3.

Wachter RM, Brynjolfsson E. ¿Cumplirá la inteligencia artificial generativa su promesa en la atención médica?   JAMA . 2024;331(1):65-69. doi: 10.1001/jama.2023.25054
ArtículoPubMedGoogle AcadémicoReferencia cruzada

4.

Alowais SA, Alghamdi SS, Alsuhebany N, et al. Revolucionando la atención médica: el papel de la inteligencia artificial en la práctica clínica.   BMC Med Educ . 2023;23(1):689. doi: 10.1186/s12909-023-04698-zPubMedGoogle AcadémicoReferencia cruzada

5.

Ratwani RM, Classen D, Longhurst C. La imperiosa necesidad de una responsabilidad compartida en la supervisión de la IA: lecciones de la certificación de TI en salud.   JAMA . 2024;332(10):787-788. doi: 10.1001/jama.2024.12630
ArtículoPubMedGoogle AcadémicoReferencia cruzada

6.

Wiens J, Saria S, Sendak M, et al. No hacer daño: una hoja de ruta para el aprendizaje automático responsable en la atención médica.   Nat Med . 2019;25(9):1337-1340. doi: 10.1038/s41591-019-0548-6PubMedGoogle AcadémicoReferencia cruzada

7.

Warraich HJ, Tazbaz T, Califf RM. Perspectiva de la FDA sobre la regulación de la inteligencia artificial en la atención médica y la biomedicina.   JAMA . 2025;333(3):241-247. doi: 10.1001/jama.2024.21451
ArtículoPubMedGoogle AcadémicoReferencia cruzada

8.

Howell MD, Corrado GS, DeSalvo KB. Tres épocas de la inteligencia artificial en la atención médica.   JAMA . 2024;331(3):242-244. doi: 10.1001/jama.2023.25057
ArtículoPubMedGoogle AcadémicoReferencia cruzada

9.

Gulshan V, Peng L, Coram M, et al. Desarrollo y validación de un algoritmo de aprendizaje profundo para la detección de retinopatía diabética en fotografías de fondo de ojo.   JAMA . 2016;316(22):2402-2410. doi: 10.1001/jama.2016.17216
ArtículoPubMedGoogle AcadémicoReferencia cruzada

10.

Holste G, Oikonomou EK, Tokodi M, Kovács A, Wang Z, Khera R. Interpretación completa de ecocardiografías con IA y aprendizaje profundo multitarea.   JAMA . 2025;334(4):306-318. doi: 10.1001/jama.2025.8731
ArtículoPubMedGoogle AcadémicoReferencia cruzada

11.

Kamran F, Tjandra D, Heiler A, et al. Evaluación de modelos de predicción de sepsis antes del inicio del tratamiento.   NEJM . 2024;1(3):AIoa2300032. doi: 10.1056/AIoa2300032.Google Académico.Referencia cruzada

12.

Wong A, Otles E, Donnelly JP, et al. Validación externa de un modelo patentado de predicción de sepsis ampliamente implementado en pacientes hospitalizados.   JAMA Intern Med . 2021;181(8):1065-1070. doi: 10.1001/jamainternmed.2021.2626
ArtículoPubMedGoogle AcadémicoReferencia cruzada

13.

Alyoubi WL, Shalash WM, Abulkhair MF. Detección de retinopatía diabética mediante técnicas de aprendizaje profundo: una revisión.   Inform Med Unlocked . 2020;20:100377. doi: 10.1016/j.imu.2020.100377.Google Académico.Referencia cruzada

14.

Soh CH, Wright L, Baumann A, et al.; investigadores de AGILE-Echo en Tasmania, Nueva Gales del Sur Occidental, Victoria del Norte, Australia Occidental, Queensland Occidental y el Territorio del Norte (Australia). Uso de ecocardiografía guiada por inteligencia artificial para detectar disfunción cardíaca y valvulopatía en zonas rurales y remotas: fundamento y diseño del ensayo AGILE-Echo.   Am Heart J. 2024;277:11-19. doi: 10.1016/j.ahj.2024.08.004PubMedGoogle AcadémicoReferencia cruzada

15.

Boussina A, Shashikumar SP, Malhotra A, et al. Impacto de un modelo de predicción de sepsis con aprendizaje profundo en la calidad de la atención y la supervivencia.   NPJ Digit Med . 2024;7(1):14. doi: 10.1038/s41746-023-00986-6PubMedGoogle AcadémicoReferencia cruzada

dieciséis.

Arabi YM, Alsaawi A, Alzahrani M, et al.; Grupo de Ensayos SCREEN y Grupo Saudí de Ensayos de Cuidados Críticos. Detección electrónica de sepsis en pacientes ingresados ​​en salas de hospitalización: un ensayo aleatorizado por conglomerados escalonado.   JAMA . 2025;333(9):763-773. doi: 10.1001/jama.2024.25982
ArtículoPubMedGoogle AcadémicoReferencia cruzada

17.

Bhavani SV, Holder A, Miltz D, et al. Ensayo de reanimación de precisión con cristaloides en sepsis (PRECISE): protocolo de ensayo.   JAMA Netw Open . 2024;7(9):e2434197-e2434197. doi: 10.1001/jamanetworkopen.2024.34197
ArtículoPubMedGoogle AcadémicoReferencia cruzada

18.

Henry KE, Hager DN, Pronovost PJ, Saria S. Una puntuación de alerta temprana en tiempo real (TREWScore) dirigida al choque séptico.   Sci Transl Med . 2015;7(299):299ra122. doi: 10.1126/scitranslmed.aab3719PubMedGoogle AcadémicoReferencia cruzada

19.

Adams R, Henry KE, Sridharan A, et al. Estudio prospectivo multicéntrico sobre la evolución de los pacientes tras la implementación del sistema de alerta temprana para sepsis basado en aprendizaje automático TREWS.   Nat Med . 2022;28(7):1455-1460. doi: 10.1038/s41591-022-01894-0PubMedGoogle AcadémicoReferencia cruzada

20.

Administración de Alimentos y Medicamentos de EE. UU. (FDA). Inteligencia artificial en software como dispositivo médico. 25 de marzo de 2025. Consultado el 30 de septiembre de 2025. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-software-medical-device

21.

Shafi S, Parwani AV. Inteligencia artificial en patología diagnóstica.   Diagnóstico Patológico . 2023;18(1):109. doi: 10.1186/s13000-023-01375-zPubMedGoogle AcadémicoReferencia cruzada

22.

Rajpurkar P, Lungren MP. Estado actual y futuro de la interpretación de imágenes médicas mediante IA.   N Engl J Med . 2023;388(21):1981-1990. doi: 10.1056/NEJMra2301725PubMedGoogle AcadémicoReferencia cruzada

23.

Poon EG, Lemak CH, Rojas JC, Guptill J, Classen D. Adopción de inteligencia artificial en la atención médica: encuesta sobre prioridades, éxitos y desafíos del sistema de salud.   J Am Med Inform Assoc . 2025;32(7):1093-1100. doi: 10.1093/jamia/ocaf065PubMedGoogle AcadémicoReferencia cruzada

24.

Asociación Médica Estadounidense. Investigación de la AMA sobre inteligencia aumentada: Percepción de los médicos sobre el uso de la IA en la atención médica: motivaciones, oportunidades, riesgos y casos de uso: cambios de 2023 a 2024. Publicado en febrero de 2025. Consultado el 23 de septiembre de 2025. https://www.ama-assn.org/system/files/physician-ai-sentiment-report.pdf

25.

Tahir D. La IA en la atención médica, diseñada para ahorrar dinero, resulta requerir una gran cantidad de personal costoso. CBS News . 23 de diciembre de 2024. Consultado el 27 de junio de 2025. https://www.cbsnews.com/news/health-care-ai-cost-humans/

26.

Esmaeilzadeh P. Desafíos y estrategias para la implementación a gran escala de la inteligencia artificial (IA) en las prácticas sanitarias: una perspectiva para las organizaciones sanitarias.   Artif Intell Med . 2024;151:102861. doi: 10.1016/j.artmed.2024.102861PubMedGoogle AcadémicoReferencia cruzada

27.

Parikh RB, Helmchen LA. Financiamiento de la inteligencia artificial en medicina.   NPJ Digit Med . 2022;5(1):63. doi: 10.1038/s41746-022-00609-6PubMedGoogle AcadémicoReferencia cruzada

28.

Krishnamoorthy M, Sjoding MW, Wiens J. Uso no autorizado de modelos de inteligencia artificial en la atención médica.   Nat Med . 2024;30(6):1525-1527. doi: 10.1038/s41591-024-02870-6PubMedGoogle AcadémicoReferencia cruzada

29.

Khanijahani A, Iezadi S, Dudley S, Goettler M, Kroetsch P, Wise J. Características organizacionales, profesionales y de los pacientes asociadas con la adopción de inteligencia artificial en la atención médica: una revisión sistemática.   Health Policy Technol . 2022;11(1):100602. doi: 10.1016/j.hlpt.2022.100602Google AcadémicoReferencia cruzada

30.

Jabbour S, Fouhey D, Shepard S, et al. Medición del impacto de la IA en el diagnóstico de pacientes hospitalizados: un estudio de encuesta de viñetas clínicas aleatorizadas.   JAMA . 2023;330(23):2275-2284. doi: 10.1001/jama.2023.22295
ArtículoPubMedGoogle AcadémicoReferencia cruzada

31.

Khera R, Simon MA, Ross JS. Sesgo de automatización e IA asistida: riesgo de daño derivado del apoyo a la toma de decisiones clínicas basado en IA.   JAMA . 2023;330(23):2255-2257. doi: 10.1001/jama.2023.22557
ArtículoPubMedGoogle AcadémicoReferencia cruzada

32.

Biro JM, Handley JL, Malcolm McCurry J, et al. Oportunidades y riesgos de la inteligencia artificial en la mensajería del portal de pacientes en atención primaria.   NPJ Digit Med . 2025;8(1):222. doi: 10.1038/s41746-025-01586-2PubMedGoogle AcadémicoReferencia cruzada

33.

Mandl KD. Cómo la IA podría transformar la atención médica: el auge de los modelos de atención directa al consumidor.   JAMA . 2025;333(19):1667-1669. doi: 10.1001/jama.2025.0946
ArtículoPubMedGoogle AcadémicoReferencia cruzada

34.

De Freitas J, Cohen IG. Los riesgos para la salud de las aplicaciones de bienestar basadas en IA generativa.   Nat Med . 2024;30(5):1269-1275. doi: 10.1038/s41591-024-02943-6PubMedGoogle AcadémicoReferencia cruzada

35.

Grand View Research. Informe de análisis del tamaño, la cuota y las tendencias del mercado de mHealth (2024-2030). Consultado el 27 de junio de 2025. https://www.grandviewresearch.com/industry-analysis/mhealth-market

36.

Wongvibulsin S, Yan MJ, Pahalyants V, Murphy W, Daneshjou R, Rotemberg V. Estado actual de las aplicaciones móviles dermatológicas con inteligencia artificial.   JAMA Dermatol . 2024;160(6):646-650. doi: 10.1001/jamadermatol.2024.0468
ArtículoPubMedGoogle AcadémicoReferencia cruzada

37.

Haque MDR, Rubya S. Una visión general de las aplicaciones móviles de salud mental basadas en chatbots: perspectivas a partir de la descripción de la aplicación y las reseñas de los usuarios.   JMIR Mhealth Uhealth . 2023;11(1):e44838. doi: 10.2196/44838PubMedGoogle AcadémicoReferencia cruzada

38.

Triantafyllidis A, Kondylakis H, Katehakis D, et al. Intervenciones con relojes inteligentes en la atención médica: una revisión sistemática de la literatura.   Int J Med Inform . 2024;190:105560. doi: 10.1016/j.ijmedinf.2024.105560PubMedGoogle AcadémicoReferencia cruzada

39.

Reeder B, David A. Salud al alcance de la mano: una revisión sistemática de los usos de los relojes inteligentes para la salud y el bienestar.   J Biomed Inform . 2016;63:269-276. doi: 10.1016/j.jbi.2016.09.001PubMedGoogle AcadémicoReferencia cruzada

40.

Wells C, Spry C.  Panorama de las aplicaciones para teléfonos inteligentes: CADTH Horizon Scan . Agencia Canadiense de Medicamentos y Tecnologías en Salud; 2022.

41.

Mello MM, Cohen IG. Regulación de la inteligencia artificial en la salud y la atención sanitaria.   JAMA . 2025;333(20):1769-1770. doi: 10.1001/jama.2025.3308
ArtículoPubMedGoogle AcadémicoReferencia cruzada

42.

Simon DA, Shachar C, Cohen IG. Desviándose entre productos de bienestar general y dispositivos regulados: estrategias e implicaciones.   J Law Biosci . 2022;9(2):lsac015. doi: 10.1093/jlb/lsac015PubMedGoogle AcadémicoReferencia cruzada

43.

Abu Dabrh AM, Reddy K, Beech BM, Moore M. Servicios de coaching de salud y bienestar: argumentos a favor del reembolso.   Am J Lifestyle Med . 2024;19(6):800-813. doi: 10.1177/15598276241266784PubMedGoogle AcadémicoReferencia cruzada

44.

Gordon WJ, Landman A, Zhang H, Bates DW. Más allá de la validación: la incorporación de aplicaciones de salud a la práctica clínica.   NPJ Digit Med . 2020;3(1):14. doi: 10.1038/s41746-019-0212-zPubMedGoogle AcadémicoReferencia cruzada

45.

Powell AC, Bowman MB, Harbin HT. Reembolso de aplicaciones para salud mental: hallazgos de entrevistas.   JMIR Ment Health . 2019;6(8):e14724. doi: 10.2196/14724PubMedGoogle AcadémicoReferencia cruzada

46.

He X, Zheng X, Ding H. Barreras existentes y futuras recomendaciones de diseño para aplicaciones de inteligencia artificial para atención médica directa al consumidor: análisis de alcance.   J Med Internet Res . 2023;25:e50342. doi: 10.2196/50342.PubMedGoogle AcadémicoReferencia cruzada

47.

Giebel GD, Speckemeier C, Abels C, et al. Problemas y barreras relacionados con el uso de aplicaciones de salud digital: análisis exploratorio.   J Med Internet Res . 2023;25:e43808. doi: 10.2196/43808PubMedGoogle AcadémicoReferencia cruzada

48.

Bower JL, Christensen CM. Tecnologías disruptivas: Aprovechando la ola.   Harv Bus Rev. 1995;73(1):43-53.Google Académico

49.

Adner R, Weinstein J. GenAI podría transformar el funcionamiento de la atención médica. Harvard Business Review . 27 de noviembre de 2023. Consultado el 23 de septiembre de 2025. https://hbr.org/2023/11/genai-could-transform-how-health-care-works

50.

Chen M, Decary M.  Inteligencia artificial en la atención médica: una guía esencial para líderes de la salud . Sage Publications; 2020:10-18.

51.

Boussina A, Krishnamoorthy R, Quintero K, et al. Modelos de lenguaje amplios para una elaboración más eficiente de informes de medidas de calidad hospitalaria.   NEJM AI . 2024;1(11):AIcs2400420. doi: 10.1056/aics2400420PubMedGoogle AcadémicoReferencia cruzada

52.

Mahmoudian Y, Nemati A, Safaei AS. Un enfoque de pronóstico para la planificación de la capacidad de camas hospitalarias mediante aprendizaje automático y aprendizaje profundo, con aplicación en hospitales públicos.   Healthc Anal (NY) . 2023;4:100245. doi: 10.1016/j.health.2023.100245Google AcadémicoReferencia cruzada

53.

Jalil MS, Mehedy MTJ, Saeed M, Snigdha EZ, Khan N. Optimización de la gestión del ciclo de ingresos en el sector sanitario: Soluciones de IA y TI para la automatización de procesos empresariales.   The American Journal of Engineering and Technology.  2025;7(03):141-162. doi: 10.37547/tajet/Volume07Issue03-14Google AcadémicoReferencia cruzada

54.

Knight DR, Aakre CA, Anstine CV, et al. Inteligencia artificial para la programación de citas de pacientes en el ámbito sanitario real: una revisión metanarrativa.   Health Policy Technol . 2023;12(4):100824. doi: 10.1016/j.hlpt.2023.100824Google AcadémicoReferencia cruzada

55.

O’Callahan K, Sitters S, Petersen M. «Tú decides»: mejora de la programación del personal de radiología con autoprogramación generada por IA en un departamento de imágenes médicas.   Radiografía (Londres) . 2024;30(3):862-868. doi: 10.1016/j.radi.2024.03.014PubMedGoogle AcadémicoReferencia cruzada

56.

Deveci M. Uso efectivo de la inteligencia artificial en la resiliencia de la cadena de suministro de atención médica mediante un modelo de toma de decisiones difusa.   Soft Comput . Publicado en línea el 17 de julio de 2023. doi: 10.1007/s00500-023-08906-2Google Académico.Referencia cruzada

57.

Khan FS, Masum AA, Adam J, Karim MR, Afrin S. IA en la gestión de la cadena de suministro sanitaria: mejora de la eficiencia y reducción de costes con análisis predictivo.   J Comput Sci Technol Stud . Publicado en línea el 17 de noviembre de 2024. doi: 10.32996/jcsts.2024.6.5.8Google AcadémicoReferencia cruzada

58.

Busis NA, Khokhar B, Callaghan BC. Optimización de la autorización previa para mejorar la atención.   JAMA Neurol . 2024;81(1):5-6. doi: 10.1001/jamaneurol.2023.4324
ArtículoPubMedGoogle AcadémicoReferencia cruzada

59.

Anand S. Automatización de decisiones de autorización previa mediante aprendizaje automático y datos de reclamaciones de salud.   Int J Artif Intel, Data Sci, Machine Learning . 2022;3(3):35-44. doi: 10.63282/3050-9262.IJAIDSML-V3I3P104Google AcadémicoReferencia cruzada

60.

Shachar C, Killelea A, Gerke S.  IA y autorización previa de seguros médicos: Los reguladores deben intensificar la supervisión . Health Affairs Forefront; 2024.

61.

Bharadiya JP, Thomas RK, Ahmed F. El auge de la inteligencia artificial en los negocios y la industria.   J Eng Res Rep . 2023;25(3):85-103. doi: 10.9734/jerr/2023/v25i3893Google AcadémicoReferencia cruzada

62.

Liu TL, Hetherington TC, Dharod A, et al. ¿Mejora la documentación clínica basada en IA la eficiencia del profesional clínico? Un estudio longitudinal.   NEJM AI . 2024;1(12):AIoa2400659. doi: 10.1056/AIoa2400659Google AcadémicoReferencia cruzada

63.

Tierney AA, Gayre G, Hoberman B, et al. Escritores de inteligencia artificial ambiental para aliviar la carga de la documentación clínica.   NEJM Catalyst . 2024;5(3)23.0404. doi: 10.1093/jamia/ocae295PubMedGoogle AcadémicoReferencia cruzada

64.

Cao DY, Silkey JR, Decker MC, Wanat KA. Escribas digitales basados ​​en inteligencia artificial en la documentación clínica: estudio piloto que evalúa el impacto en el flujo de trabajo de los dermatólogos y las experiencias con los pacientes.   JAAD Int . 2024;15:149-151. doi: 10.1016/j.jdin.2024.02.009PubMedGoogle AcadémicoReferencia cruzada

65.

Tierney AA, Gayre G, Hoberman B, et al. Escribas de inteligencia artificial ambiental: Aprendizajes tras un año y más de 2,5 millones de usos.   NEJM Catalys t. 2025;6(5):CAT.25.0040. doi: 10.1056/CAT.25.0040Google AcadémicoReferencia cruzada

66.

Angus DC, Huang AJ, Lewis RJ, et al.; Participantes de la Cumbre de JAMA sobre Ensayos Clínicos. La integración de los ensayos clínicos en la práctica médica: cómo reparar una casa dividida.   JAMA . 2024;332(2):153-162. doi: 10.1001/jama.2024.4088
ArtículoPubMedGoogle AcadémicoReferencia cruzada

67.

Jackson GP, ​​Shortliffe EH. Comprensión de la evidencia de la inteligencia artificial en la atención médica.   BMJ Qual Saf . 2025;34(7):421-424. doi: 10.1136/bmjqs-2025-018559PubMedGoogle AcadémicoReferencia cruzada

68.

Habib AR, Lin AL, Grant RW. El modelo de sepsis épica se queda corto: la importancia de la validación externa.   JAMA Intern Med . 2021;181(8):1040-1041. doi: 10.1001/jamainternmed.2021.3333
ArtículoPubMedGoogle AcadémicoReferencia cruzada

69.

Kwong JCC, Nickel GC, Wang SCY, Kvedar JC. Integración de la inteligencia artificial en los sistemas de salud: más que un simple algoritmo.   NPJ Digit Med . 2024;7(1):52. doi: 10.1038/s41746-024-01066-zPubMedGoogle AcadémicoReferencia cruzada

70.

Grundy Q. Una revisión de la calidad y el impacto de las aplicaciones móviles de salud.   Ann Rev Public Health . 2022;43:117-134. doi: 10.1146/annurev-publhealth-052020-103738PubMedGoogle AcadémicoReferencia cruzada

71.

Lubell J. Cómo la IA está provocando más denegaciones de autorizaciones previas. AMA News Wire . 10 de marzo de 2025. Consultado el 26 de septiembre de 2025. https://www.ama-assn.org/practice-management/prior-authorization/how-ai-leading-more-prior-authorization-denials

72.

Asociación Médica Estadounidense. Encuesta de la AMA a médicos sobre autorización previa de 2024. Consultado el 27 de junio de 2025. https://www.ama-assn.org/system/files/prior-authorization-survey.pdf

73.

Pearce K. Blue Cross Blue Shield de Massachusetts utiliza inteligencia artificial para acelerar el tiempo de revisión, automatizar las autorizaciones y eliminar los costos administrativos. PRNewswire. 12 de octubre de 2022. Consultado el 27 de junio de 2025. https://newsroom.bluecrossma.com/2022-10-12-BLUE-CROSS-BLUE-SHIELD-OF-MASSACHUSETTS-USES-ARTIFICIAL-INTELLIGENCE-TO-SPEED-REVIEW-TIME,-AUTOMATE-AUTHORIZATIONS-ELIMINATE-ADMINISTRATIVE-COSTS

74.

Palantir. Palantir para hospitales. Consultado el 27 de junio de 2025. https://www.palantir.com/offerings/palantir-for-hospitals/

75.

Soluciones de Datos DataBricks. Casos prácticos: Explore nuestros casos prácticos para descubrir cómo potenciamos las organizaciones de salud y ciencias de la vida con soluciones de IA basadas en datos. Consultado el 27 de junio de 2025. https://dnamic.ai/data-case-studies/

76.

Olsen LM, Nabel EG, McGinnis JM, McClellan MB. Medicina basada en la evidencia y la naturaleza cambiante de la atención médica: Resumen de la Reunión Anual del IOM de 2007. National Academies Press; 2008.

77.

McGinnis JM, Olsen L, Goolsby WA, Grossmann C.  Ingeniería de un sistema de salud que aprende: Una mirada al futuro: Resumen del taller . National Academies Press; 2011.

78.

Finkelstein A, Taubman S. Política sanitaria. Evaluaciones aleatorias para mejorar la atención sanitaria.   Science . 2015;347(6223):720-722. doi: 10.1126/science.aaa2362PubMedGoogle AcadémicoReferencia cruzada

79.

Cao J, Zhang X, Shahinian V, et al. Generalización de un modelo de predicción de lesión renal aguda en distintos sistemas de salud.   Nat Mach Intell . 2022;4(12):1121-1129. doi: 10.1038/s42256-022-00563-8PubMedGoogle AcadémicoReferencia cruzada

80.

Angus DC. ¿Son útiles las alertas de sepsis?   JAMA . 2025;333(9):759-760. doi: 10.1001/jama.2024.25818
ArtículoPubMedGoogle AcadémicoReferencia cruzada

81.

Wong A, Cao J, Lyons PG, et al. Cuantificación de las alertas del modelo de sepsis en 24 hospitales estadounidenses antes y durante la pandemia de COVID-19.   JAMA Netw Open . 2021;4(11):e2135286-e2135286. doi: 10.1001/jamanetworkopen.2021.35286
ArtículoPubMedGoogle AcadémicoReferencia cruzada

82.

Li RC, Asch SM, Shah NH. Desarrollo de una ciencia de entrega para inteligencia artificial en la atención médica.   NPJ Digit Med . 2020;3(1):107. doi: 10.1038/s41746-020-00318-yPubMedGoogle AcadémicoReferencia cruzada

83.

Shah NH, Milstein A, Bagley SC. Haciendo que los modelos de aprendizaje automático sean clínicamente útiles.   JAMA . 2019;322(14):1351-1352. doi: 10.1001/jama.2019.10306
ArtículoPubMedGoogle AcadémicoReferencia cruzada

84.

Ghassemi M, Oakden-Rayner L, Beam AL. La falsa esperanza de los enfoques actuales para la inteligencia artificial explicable en la atención médica.   Lancet Digit Health . 2021;3(11):e745-e750. doi: 10.1016/S2589-7500(21)00208-9PubMedGoogle AcadémicoReferencia cruzada

85.

He B, Kwan AC, Cho JH, et al. Ensayo aleatorizado y ciego de evaluación de la función cardíaca con ecografista versus IA.   Nature . 2023;616(7957):520-524. doi: 10.1038/s41586-023-05947-3.PubMed.Google AcadémicoReferencia cruzada

86.

Perez MV, Mahaffey KW, Hedlin H, et al.; Investigadores del Apple Heart Study. Evaluación a gran escala de un reloj inteligente para identificar la fibrilación auricular.   N Engl J Med . 2019;381(20):1909-1917. doi: 10.1056/NEJMoa1901183PubMedGoogle AcadémicoReferencia cruzada

87.

Han R, Acosta JN, Shakeri Z, Ioannidis JPA, Topol EJ, Rajpurkar P. Ensayos controlados aleatorizados que evalúan la inteligencia artificial en la práctica clínica: una revisión exploratoria.   Lancet Digit Health . 2024;6(5):e367-e373. doi: 10.1016/S2589-7500(24)00047-5.PubMed.Google AcadémicoReferencia cruzada

88.

Topol EJ. Acogiendo con satisfacción las nuevas directrices para la investigación clínica en IA.   Nat Med . 2020;26(9):1318-1320. doi: 10.1038/s41591-020-1042-xPubMedGoogle AcadémicoReferencia cruzada

89.

Martindale APL, Llewellyn CD, de Visser RO, et al. Concordancia de ensayos controlados aleatorizados para intervenciones de inteligencia artificial con las directrices de informes CONSORT-AI.   Nat Commun . 2024;15(1):1619. doi: 10.1038/s41467-024-45355-3PubMedGoogle AcadémicoReferencia cruzada

90.

Angus DC. Ensayos clínicos aleatorizados de inteligencia artificial.   JAMA . 2020;323(11):1043-1045. doi: 10.1001/jama.2020.1039
ArtículoPubMedGoogle AcadémicoReferencia cruzada

91.

Wu E, Wu K, Daneshjou R, Ouyang D, Ho DE, Zou J. Cómo se evalúan los dispositivos médicos de IA: limitaciones y recomendaciones a partir de un análisis de las aprobaciones de la FDA.   Nat Med . 2021;27(4):582-584. doi: 10.1038/s41591-021-01312-xPubMedGoogle AcadémicoReferencia cruzada

92.

Curran GM, Landes SJ, McBain SA, et al. Reflexiones sobre 10 años de estudios híbridos de efectividad e implementación.   Front Health Serv . 2022;2:1053496. doi: 10.3389/frhs.2022.1053496PubMedGoogle AcadémicoReferencia cruzada

93.

Angus DC, Alexander BM, Berry S, et al.; Coalición de Ensayos de Plataformas Adaptativas. Ensayos de plataformas adaptativas: definición, diseño, realización y consideraciones para la presentación de informes.   Nat Rev Drug Discov . 2019;18(10):797-807. doi: 10.1038/s41573-019-0034-3PubMedGoogle AcadémicoReferencia cruzada

94.

Berry SM, Connor JT, Lewis RJ. El ensayo de plataforma: una estrategia eficiente para evaluar múltiples tratamientos.   JAMA . 2015;313(16):1619-1620. doi: 10.1001/jama.2015.2316
ArtículoPubMedGoogle AcadémicoReferencia cruzada

95.

Park JW, Liu MC, Yee D, et al.; Investigadores de I-SPY 2. Aleatorización adaptativa de neratinib en cáncer de mama temprano.   N Engl J Med . 2016;375(1):11-22. doi: 10.1056/NEJMoa1513750PubMedGoogle AcadémicoReferencia cruzada

96.

Huang DT, McVerry BJ, Horvat C, et al.; Grupo REMAP-COVID de UPMC, en representación de los investigadores de REMAP-CAP. Implementación del ensayo clínico aleatorizado, integrado y adaptativo multifactorial para la COVID-19 (REMAP-COVID) en un sistema de salud estadounidense: lecciones aprendidas y recomendaciones.   Trials . 2021;22(1):100. doi: 10.1186/s13063-020-04997-6PubMedGoogle AcadémicoReferencia cruzada

97.

McCreary EK, Bariola JR, Minnier TE, et al. Eficacia comparativa de los anticuerpos monoclonales contra la COVID-19: un ensayo clínico aleatorizado en un sistema de salud en aprendizaje.   Contemp Clin Trials . 2022;119:106822. doi: 10.1016/j.cct.2022.106822 .PubMedGoogle AcadémicoReferencia cruzada

98.

Huang DT, McCreary EK, Bariola JR, et al. El ensayo UPMC OPTIMISE-C19 (Optimización del tratamiento y el impacto de los anticuerpos monoclonales mediante la evaluación de la COVID-19): resumen estructurado del protocolo de estudio para un ensayo abierto, pragmático y comparativo de eficacia en una plataforma con aleatorización adaptativa a la respuesta.   Ensayos . 2021;22(1):363. doi: 10.1186/s13063-021-05316-3PubMedGoogle AcadémicoReferencia cruzada

99.

Goldhaber NH, Jacobs MB, Laurent LC, et al. Integración de la investigación clínica en los flujos de trabajo de los registros médicos electrónicos para apoyar un sistema de salud en aprendizaje.   JAMIA Open . 2024;7(2):ooae023. doi: 10.1093/jamiaopen/ooae023PubMedGoogle AcadémicoReferencia cruzada

100.

Horwitz LI, Kuznetsova M, Jones SA. Creación de un sistema de salud de aprendizaje mediante pruebas aleatorias de ciclo rápido.   N Engl J Med . 2019;381(12):1175-1179. doi: 10.1056/NEJMsb1900856PubMedGoogle AcadémicoReferencia cruzada

101.

Gallo A. Un repaso sobre las pruebas A/B. Harvard Business Review . 28 de junio de 2017. Consultado el 21 de enero de 2024. https://hbr.org/2017/06/a-refresher-on-ab-testing

102.

Sawant N, Namballa CB, Sadagopan N, Nassif H. Bandidos multiarmados contextuales para marketing causal.  arXiv . Preimpresión publicada el 2 de octubre de 2018. doi:10.48550/arXiv.1810.01859

103.

Kohavi R, Thomke S. El sorprendente poder de los experimentos en línea.   Harv Bus Rev. 2017;95(5):74-82.Google Académico

104.

Solomon J. Pruebas A/B en la industria aseguradora: qué están haciendo las principales empresas. Kameleoon . Consultado el 29 de junio de 2025. https://www.kameleoon.com/blog/ab-testing-insurance-industry#:~:text=A/B

105.

Meyer MN, Heck PR, Holtzman GS, et al. Objeción a experimentos que comparan dos políticas o tratamientos inobjetables.   Proc Natl Acad Sci USA . 2019;116(22):10723-10728. doi: 10.1073/pnas.1820701116PubMedGoogle AcadémicoReferencia cruzada

106.

Dahabreh IJ, Bibbins-Domingo K. Inferencia causal sobre los efectos de las intervenciones a partir de estudios observacionales en revistas médicas.   JAMA . 2024;331(21):1845-1853. doi: 10.1001/jama.2024.7741
ArtículoPubMedGoogle AcadémicoReferencia cruzada

107.

Muralidharan V, Adewale BA, Huang CJ, et al. Una revisión exploratoria de las lagunas en la información sobre dispositivos médicos de IA aprobados por la FDA.   NPJ Digit Med . 2024;7(1):273. doi: 10.1038/s41746-024-01270-xPubMedGoogle AcadémicoReferencia cruzada

108.

Azad-Khaneghah P, Neubauer N, Miguel Cruz A, Liu L. Escalas de valoración de usabilidad y calidad de aplicaciones móviles de salud: una revisión sistemática.   Disabil Rehabil Assist Technol . 2021;16(7):712-721. doi: 10.1080/17483107.2019.1701103PubMedGoogle AcadémicoReferencia cruzada

109.

Pennington R.  Inteligencia artificial (IA) y su oportunidad en la gestión del ciclo de ingresos de las organizaciones sanitarias . RCM; 2023.

110.

Callahan A, McElfresh D, Banda JM, et al. Con base en FURM: un marco para evaluar modelos de IA justos, útiles y fiables en sistemas de atención médica.   NEJM Catalyst . 2024;5(10):CAT.24.0131. doi: 10.1056/CAT.24.0131.Google Académico.Referencia cruzada

111.

Longhurst CA, Singh K, Chopra A, Atreja A, Brownstein JS. Un llamado a los centros científicos de implementación de inteligencia artificial para evaluar la efectividad clínica.   NEJM . 2024;1(8):AIp2400223. doi: 10.1056/AIp2400223.Google Académico.Referencia cruzada

112.

Bedoya AD, Economou-Zavlanos NJ, Goldstein BA, et al. Un marco para la supervisión y el despliegue local de modelos de predicción seguros y de alta calidad.   J Am Med Inform Assoc . 2022;29(9):1631-1636. doi: 10.1093/jamia/ocac078PubMedGoogle AcadémicoReferencia cruzada

113.

Reddy S, Rogers W, Makinen VP, et al. Marco de evaluación para guiar la implementación de sistemas de IA en entornos sanitarios.   BMJ Health Care Inform . 2021;28(1):e100444. doi: 10.1136/bmjhci-2021-100444PubMedGoogle AcadémicoReferencia cruzada

114.

Goldstein J, Weitzman D, Lemerond M, Jones A. Determinantes para la adopción escalable de IA autónoma en la detección de la enfermedad ocular diabética en diversos tipos de práctica: mejores prácticas clave aprendidas mediante la recopilación de datos del mundo real.   Front Digit Health . 2023;5:1004130. doi: 10.3389/fdgth.2023.1004130PubMed.Google AcadémicoReferencia cruzada

115.

Castro M, Bishop D, Weitzman D, Ramirez R. Mejora de la detección de la enfermedad ocular diabética mediante la implementación de inteligencia artificial autónoma en un centro de salud con certificación federal.   Diabetes . 2024;73(suppl 1). doi: 10.2337/db24-57-ORGoogle AcadémicoReferencia cruzada

116.

Winter PD, Carusi A. Transparencia (des)preocupante: inteligencia artificial (IA) para aplicaciones clínicas.   Med Humanit . 2023;49(1):17-26. doi: 10.1136/medhum-2021-012318PubMedGoogle AcadémicoReferencia cruzada

117.

Adus S, Macklin J, Pinto A. Explorando las perspectivas de los pacientes sobre cómo pueden y deben participar en el desarrollo de aplicaciones de inteligencia artificial (IA) en la atención médica.   BMC Health Serv Res . 2023;23(1):1163. doi: 10.1186/s12913-023-10098-2PubMedGoogle AcadémicoReferencia cruzada

118.

Edwards L. La Ley de IA de la UE: resumen de su importancia y alcance.   Artif Intell . 2021;1:25.Google Académico.

119.

Parlamento Europeo. Ley de IA de la UE: primer reglamento sobre inteligencia artificial. Consultado el 29 de junio de 2025. https://www-europarl-europa-eu.pitt.idm.oclc.org/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

120.

Administración de Alimentos y Medicamentos de EE. UU. (FDA). Inteligencia artificial y aprendizaje automático en software como dispositivo médico. Consultado el 27 de junio de 2025. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device

121.

Departamento de Salud y Servicios Humanos de EE. UU. Datos de salud, tecnología e interoperabilidad: actualizaciones del programa de certificación, transparencia de algoritmos e intercambio de información (HTI-1), norma final. Consultado el 27 de junio de 2025. https://www.federalregister.gov/documents/2024/01/09/2023-28857/health-data-technology-and-interoperability-certification-program-updates-algorithm-transparency-and

122.

Zhang DY, Venkat A, Khasawneh H, Sali R, Zhang V, Pei Z. Implementación de patología digital e inteligencia artificial en la práctica patológica rutinaria.   Lab Invest . 2024;104(9):102111. doi: 10.1016/j.labinv.2024.102111PubMedGoogle AcadémicoReferencia cruzada

123.

C. Moundas.  CMS finaliza los nuevos requisitos de autorización previa electrónica para pagadores y proveedores. Mondaq Business Briefing . NA-NA; 2024.

124.

Khera R, Butte AJ, Berkwits M, et al. IA en medicina: El enfoque de JAMA en resultados clínicos, atención centrada en el paciente, calidad y equidad.   JAMA . 2023;330(9):818-820. doi: 10.1001/jama.2023.15481
ArtículoPubMedGoogle AcadémicoReferencia cruzada

125.

Eaneff S, Obermeyer Z, Butte AJ. Argumentos a favor de la gestión algorítmica de las tecnologías de inteligencia artificial y aprendizaje automático.   JAMA . 2020;324(14):1397-1398. doi: 10.1001/jama.2020.9371
ArtículoPubMedGoogle AcadémicoReferencia cruzada

126.

Jain SS, Mello MM, Shah NH. Evitar la toxicidad financiera para los pacientes derivada del uso de IA por parte de los médicos.   N Engl J Med . 2024;391(13):1171-1173. doi: 10.1056/NEJMp2406135PubMedGoogle AcadémicoReferencia cruzada

127.

Youssef A, Pencina M, Thakur A, Zhu T, Clifton D, Shah NH. La validación externa de los modelos de IA en salud debería sustituirse por una validación local recurrente.   Nat Med . 2023;29(11):2686-2687. doi: 10.1038/s41591-023-02540-zPubMedGoogle AcadémicoReferencia cruzada

128.

Hernandez-Boussard T, Bozkurt S, Ioannidis JPA, Shah NH. MINIMAR (información mínima para informes de IA médica): desarrollo de estándares de informes para inteligencia artificial en la atención médica.   J Am Med Inform Assoc . 2020;27(12):2011-2015. doi: 10.1093/jamia/ocaa088PubMedGoogle AcadémicoReferencia cruzada

129.

You JG, Hernandez-Boussard T, Pfeffer MA, Landman A, Mishuris RG. Marco basado en ensayos clínicos para la implementación y el despliegue de aplicaciones de inteligencia artificial en el mundo real.   NPJ Digit Med . 2025;8(1):107. doi: 10.1038/s41746-025-01506-4PubMedGoogle AcadémicoReferencia cruzada

130.

Organización Mundial de la Salud.  Ética y gobernanza de la inteligencia artificial para la salud . Organización Mundial de la Salud; 2021.

131.

Labkoff S, Oladimeji B, Kannry J, et al. Hacia un futuro responsable: recomendaciones para el apoyo a la toma de decisiones clínicas mediante IA.   J Am Med Inform Assoc . 2024;31(11):2730-2739. doi: 10.1093/jamia/ocae209PubMedGoogle AcadémicoReferencia cruzada

132.

Li F, Ruijs N, Lu Y. Ética e IA: una revisión sistemática sobre las preocupaciones éticas y las estrategias relacionadas con el diseño con IA en la atención médica.   AI . 2022;4(1):28-53. doi: 10.3390/ai4010003Google AcadémicoReferencia cruzada

133.

Garba-Sani Z, Farinacci-Roberts C, Essien A, Yracheta JM.  ACCESS AI: Un nuevo marco para promover la equidad sanitaria en la IA de la atención médica . Health Affairs Forefront; 2024.

134.

Dankwa-Mullan I, Scheufele EL, Matheny ME, et al. Un marco propuesto para integrar la equidad en salud y la justicia racial en el ciclo de desarrollo de la inteligencia artificial.   J Health Care Poor Underserved . 2021;32(2):300-317. doi: 10.1353/hpu.2021.0065Google AcadémicoReferencia cruzada

135.

Shah NH, Halamka JD, Saria S, et al. Una red nacional de laboratorios de aseguramiento de la IA en salud.   JAMA . 2024;331(3):245-249. doi: 10.1016/j.2024. 10.1001/jama.2023.26930
ArtículoPubMedGoogle AcadémicoReferencia cruzada

136.

Embí PJ, Rhew DC, Peterson ED, Pencina MJ. Lanzamiento de la red de IA confiable y responsable (TRAIN): un consorcio para facilitar la adopción segura y eficaz de la IA.   JAMA . 2025;333(17):1481-1482. doi: 10.1001/jama.2025.1331
ArtículoPubMedGoogle AcadémicoReferencia cruzada

137.

Matheny M, Israni ST, Ahmed M, Whicher D.  Inteligencia artificial en la atención médica: La esperanza, la exageración, la promesa, el peligro . Academia Nacional de Medicina; 2019:10. doi: 10.17226/27111

138.

IA en Salud. La alianza de IA en Salud es una colaboración multisectorial. Consultado el 29 de junio de 2025. https://healthaipartnership.org/about-ai-health-partnership

139.

Matheny ME, Goldsack JC, Saria S, et al. Inteligencia artificial en salud y atención sanitaria: prioridades de acción.   Health Aff (Millwood) . 2025;44(2):163-170. doi: 10.1377/hlthaff.2024.01003PubMedGoogle AcadémicoReferencia cruzada

140.

Enfermeras Unidas. Una encuesta de Enfermeras Unidas revela que la tecnología de IA degrada y socava la seguridad del paciente. Consultado el 29 de junio de 2025. https://www.nationalnursesunited.org/press/national-nurses-united-survey-finds-ai-technology-undermines-patient-safety

141.

Ng MY, Kapur S, Blizinsky KD, Hernandez-Boussard T. El ciclo de vida de la IA: un enfoque holístico para crear una IA ética para las decisiones de salud.   Nat Med . 2022;28(11):2247-2249. doi: 10.1038/s41591-022-01993-yPubMedGoogle AcadémicoReferencia cruzada

142.

Sidebottom R, Lyburn I, Brady M, Vinnicombe S. Reparto justo: desarrollo y aprovechamiento de la IA en la atención médica con estructuras mutuamente beneficiosas y alianzas de desarrollo.   Br J Cancer . 2021;125(9):1181-1184. doi: 10.1038/s41416-021-01454-2PubMedGoogle AcadémicoReferencia cruzada

143.

Administración de Alimentos y Medicamentos de EE. UU. (FDA). Consideraciones sobre el ciclo de vida total del producto para dispositivos con IA generativa. Consultado el 29 de junio de 2025. https://www.fda.gov/media/182871/download

144.

Hernandez-Boussard T, Lee AY, Stoyanovich J, Biven L. Promoción de la transparencia en la IA para la investigación biomédica y conductual.   Nat Med . 2025;31(6):1733-1734. doi: 10.1038/s41591-025-03680-0PubMedGoogle AcadémicoReferencia cruzada

145.

Lu JH, Callahan A, Patel BS, et al. Evaluación de la adherencia a las directrices de notificación mediante modelos de predicción clínica de uso común de un único proveedor: una revisión sistemática.   JAMA Netw Open . 2022;5(8):e2227779. doi: 10.1001/jamanetworkopen.2022.27779
ArtículoPubMedGoogle AcadémicoReferencia cruzada

146.

Kwong JCC, Khondker A, Lajkosz K, et al. Herramienta APPRAISE-AI para la evaluación cuantitativa de estudios de IA para el apoyo a la toma de decisiones clínicas.   JAMA Netw Open . 2023;6(9):e2335377. doi: 10.1016/j.2023. 10.1001/jamanetworkopen.2023.35377
ArtículoPubMedGoogle AcadémicoReferencia cruzada

147.

Liu X, Cruz Rivera S, Moher D, Calvert MJ, Denniston AK; Grupo de Trabajo SPIRIT-AI y CONSORT-AI. Directrices para la elaboración de informes de ensayos clínicos sobre intervenciones con inteligencia artificial: la extensión CONSORT-AI.   Lancet Digit Health . 2020;2(10):e537-e548. doi: 10.1016/S2589-7500(20)30218-1PubMed.Google AcadémicoReferencia cruzada

148.

Vasey B, Nagendran M, Campbell B, et al. Guía de informes para la evaluación clínica en fase temprana de sistemas de apoyo a la toma de decisiones basados ​​en inteligencia artificial: DECIDE-AI.   BMJ . 2022;377(5):924-933. doi: 10.1038/s41591-022-01772-9.Google Académico.Referencia cruzada

149.

Cruz Rivera S, Liu X, Chan AW, Denniston AK, Calvert MJ; Grupo de Trabajo SPIRIT-AI y CONSORT-AI. Directrices para protocolos de ensayos clínicos para intervenciones con inteligencia artificial: la extensión SPIRIT-AI.   Lancet Digit Health . 2020;2(10):e549-e560. doi: 10.1016/S2589-7500(20)30219-3PubMed.Google AcadémicoReferencia cruzada

150.

Collins GS, Moons KGM, Dhiman P, et al. Declaración TRIPOD+AI: guía actualizada para la presentación de informes sobre modelos de predicción clínica que utilizan métodos de regresión o aprendizaje automático.   BMJ . 2024;385:e078378. doi: 10.1136/bmj-2023-078378.PubMedGoogle AcadémicoReferencia cruzada

151.

Mitchell M, Wu S, Zaldivar A, et al. Tarjetas modelo para informes modelo. Presentado en: Actas de la Conferencia sobre Equidad, Rendición de Cuentas y Transparencia; 2019; Atlanta, GA. doi: 10.1145/3287560.3287596

152.

Stoyanovich J, Howe B. Etiquetas nutricionales para datos y modelos.   Q Bull Comput Soc IEEE Tech Comm Data Eng . 2019;42(3).Google Académico

153.

Fox A. Epic lidera un nuevo esfuerzo para democratizar la validación de la IA en salud. 28 de mayo de 2024. Consultado el 29 de junio de 2025. https://www.healthcareitnews.com/news/epic-leads-new-effort-democratize-health-ai-validation

154.

Embi PJ. Algoritmovigilancia: métodos avanzados para analizar y monitorear la atención médica basada en inteligencia artificial para lograr efectividad y equidad.   JAMA Netw Open . 2021;4(4):e214622-e214622. doi: 10.1001/jamanetworkopen.2021.4622
ArtículoPubMedGoogle AcadémicoReferencia cruzada

155.

La Comisión Conjunta. La Comisión Conjunta y la Coalición para la IA en Salud unen fuerzas para ampliar el uso responsable de la IA y brindar una mejor atención médica. 11 de junio de 2025. Consultado el 29 de junio de 2025. https://www.jointcommission.org/resources/news-and-multimedia/news/2025/06/the-joint-commission-and-coalition-for-health-ai-join-forces/

156.

Fleisher LA, Economou-Zavlanos NJ. La inteligencia artificial puede regularse mediante los procedimientos e infraestructuras actuales de seguridad del paciente en los hospitales.   JAMA Health Forum . 2024;5(6):e241369-e241369. doi: 10.1001/jamahealthforum.2024.1369
ArtículoPubMedGoogle AcadémicoReferencia cruzada

157.

Desai RJ, Matheny ME, Johnson K, et al. Ampliación del alcance del sistema Sentinel de la FDA: una hoja de ruta para la integración de datos de historiales médicos electrónicos en un marco de análisis causal.   NPJ Digit Med . 2021;4(1):170. doi: 10.1038/s41746-021-00542-0PubMedGoogle AcadémicoReferencia cruzada

158.

Mandl KD, Gottlieb D, Mandel JC. La integración de la IA en la atención médica requiere un ecosistema de datos digitales interoperable.   Nat Med . 2024;30(3):631-634. doi: 10.1038/s41591-023-02783-wPubMedGoogle AcadémicoReferencia cruzada

159.

Shah NH, Entwistle D, Pfeffer MA. Creación y adopción de grandes modelos lingüísticos en medicina.   JAMA . 2023;330(9):866-869. doi: 10.1001/jama.2023.14217
ArtículoPubMedGoogle AcadémicoReferencia cruzada

160.

Beavins E. CHAI se embarca en el monitoreo posterior a la implementación de IA mientras la supervisión de la FDA se retrasa. Consultado el 15 de julio de 2025. https://www.fiercehealthcare.com/ai-and-machine-learning/chai-embarks-post-deployment-monitoring-ai

161.

Platt R, Brown JS, Robb M, et al. La Iniciativa Centinela de la FDA: un recurso nacional en evolución.   N Engl J Med . 2018;379(22):2091-2093. doi: 10.1056/NEJMp1809643PubMedGoogle AcadémicoReferencia cruzada

162.

Brown JS, Maro JC, Nguyen M, Ball R. Uso y mejora de redes de datos distribuidos para generar evidencia práctica: el caso de resultados reales en el sistema Sentinel de la Administración de Alimentos y Medicamentos (FDA).   J Am Med Inform Assoc . 2020;27(5):793-797. doi: 10.1093/jamia/ocaa028PubMedGoogle AcadémicoReferencia cruzada

163.

El-Kareh R, Brenner DA, Longhurst CA. Desarrollo de un sistema de salud de aprendizaje altamente confiable.   Learn Health Syst . 2022;7(3):e10351. doi: 10.1002/lrh2.10351PubMedGoogle AcadémicoReferencia cruzada

164.

McDonald PL, Foley TJ, Verheij R, et al. Datos para el conocimiento y la mejora: creando un sistema de salud que aprende.   BMJ . 2024;384:e076175. doi: 10.1136/bmj-2023-076175.PubMedGoogle AcadémicoReferencia cruzada

165.

Franklin JB, Marra C, Abebe KZ, et al.; Participantes de la Cumbre de JAMA sobre Ensayos Clínicos. Modernización de la infraestructura de datos para la investigación clínica para satisfacer la creciente demanda de evidencia.   JAMA . 2024;332(16):1378-1385. doi: 10.1001/jama.2024.0268
ArtículoPubMedGoogle AcadémicoReferencia cruzada

166.

Weeks WB, Spelhaug J, Weinstein JN, Ferres JML. Reduciendo la brecha rural-urbana: un plan de implementación para aprovechar la tecnología y la inteligencia artificial para mejorar la salud y los resultados económicos en las zonas rurales de Estados Unidos.   J Rural Health . 2024;40(4):762-765. doi: 10.1111/jrh.12836PubMedGoogle AcadémicoReferencia cruzada

167.

Abbasi AB, Layden J, Gordon W, et al. Un enfoque unificado para el intercambio de datos de salud: un informe del Departamento de Salud y Servicios Humanos de EE. UU.   JAMA . 2025;333(12):1074-1079. doi: 10.1001/jama.2025.0068
ArtículoPubMedGoogle AcadémicoReferencia cruzada

168.

Collins FS, Schwetz TA, Tabak LA, Lander ES. ARPA-H: acelerando los avances biomédicos.   Ciencia . 2021;373(6551):165-167. doi: 10.1126/science.abj8547PubMedGoogle AcadémicoReferencia cruzada

169.

ARPA. ARPA-H anuncia la selección de sedes mediante el lanzamiento de una red nacional de innovación en salud. Septiembre de 2023. Consultado el 29 de junio de 2025. https://arpa-h.gov/news-and-events/arpa-h-launches-nationwide-health-innovation-network

170.

ARPA. PRECISE-AI: evaluación del rendimiento y la fiabilidad para modificaciones continuas y usabilidad de la inteligencia artificial. Consultado el 29 de junio de 2025. https://arpa-h.gov/explore-funding/programs/precise-ai

171.

Mandl KD. Fuerzas comerciales invisibles podrían socavar el apoyo a la toma de decisiones mediante inteligencia artificial.   NEJM . 2025;2(3):AIp2400922. doi: 10.1056/AIp2400922.Google Académico.Referencia cruzada

172.

Halamka JD, Tripathi M. La era de la alta tecnología en retrospectiva.   N Engl J Med . 2017;377(10):907-909. doi: 10.1056/NEJMp1709851PubMedGoogle AcadémicoReferencia cruzada

173.

Car J, Topol EJ. Promoción de una maestría en salud digital.   JAMA . 2025;333(9):753-754. doi: 10.1001/jama.2024.27365
ArtículoPubMedGoogle AcadémicoReferencia cruzada

174.

Petersson L, Larsson I, Nygren JM, et al. Desafíos para la implementación de la inteligencia artificial en la atención médica: un estudio cualitativo de entrevistas con líderes sanitarios en Suecia.   BMC Health Serv Res . 2022;22(1):850. doi: 10.1186/s12913-022-08215-8PubMedGoogle AcadémicoReferencia cruzada

175.

Ötleş E, James CA, Lomis KD, Woolliscroft JO. La enseñanza de la inteligencia artificial como herramienta fundamental en la medicina.   Cell Rep Med . 2022;3(12):100824. doi: 10.1016/j.xcrm.2022.100824PubMedGoogle AcadémicoReferencia cruzada

176.

Russell RG, Lovett Novak L, Patel M, et al. Competencias para el uso de herramientas basadas en inteligencia artificial por profesionales de la salud.   Acad Med . 2023;98(3):348-356. doi: 10.1097/ACM.0000000000004963PubMedGoogle AcadémicoReferencia cruzada

177.

Triola MM, Rodman A. Integración de la inteligencia artificial generativa en la educación médica: currículo, políticas y estrategias de gobernanza.   Acad Med . 2024;10:1097.PubMedGoogle Académico

178.

Car J, Ong QC, Erlikh Fox T, et al.; Digital Health Systems Collaborative. El marco de competencias de salud digital en la educación médica: una declaración de consenso internacional basada en un estudio Delphi.   JAMA Netw Open . 2025;8(1):e2453131-e2453131. doi: 10.1001/jamanetworkopen.2024.53131
ArtículoPubMedGoogle AcadémicoReferencia cruzada

179.

Sinskey JL, Margolis RD, Vinson AE. El complejo problema del bienestar médico.   Anesthesiol Clin . 2022;40(2):213-223. doi: 10.1016/j.anclin.2022.01.001PubMedGoogle AcadémicoReferencia cruzada

180.

Shachar C, Cadario R, Cohen IG, Morewedge CK. La HIPAA es una herramienta incomprendida e inadecuada para la protección de datos médicos.   Nat Med . 2023;29(8):1900-1902. doi: 10.1038/s41591-023-02355-yPubMedGoogle AcadémicoReferencia cruzada

181.

Liddell K, Simon DA, Lucassen A. Propiedad de los datos del paciente: ¿quién es el dueño de su salud?   J Law Biosci . 2021;8(2):lsab023. doi: 10.1093/jlb/lsab023PubMedGoogle AcadémicoReferencia cruzada

182.

Mikk KA, Sleeper HA, Topol EJ. El camino hacia la propiedad de los datos de los pacientes y una mejor salud.   JAMA . 2017;318(15):1433-1434. doi: 10.1001/jama.2017.12145
ArtículoPubMedGoogle AcadémicoReferencia cruzada

183.

Subsecretario de Política Tecnológica. HIPAA versus leyes estatales. Consultado el 29 de junio de 2025. https://www.healthit.gov/topic/hipaa-versus-state-laws

184.

Vest JR. Geografía de la actividad de las organizaciones de información sanitaria comunitaria en Estados Unidos: implicaciones para la eficacia del intercambio de información sanitaria.   Health Care Manage Rev. 2017;42(2):132-141. doi: 10.1097/HMR.0000000000000103PubMedGoogle AcadémicoReferencia cruzada

185.

Mandl KD, Perakslis ED. HIPAA y la filtración de datos de HCE anónimos.   N Engl J Med . 2021;384(23):2171-2173. doi: 10.1056/NEJMp2102616PubMedGoogle AcadémicoReferencia cruzada

186.

Cassel C, Bindman A. Riesgo, beneficio y equidad en el mundo de los macrodatos.   JAMA . 2019;322(2):105-106. doi: 10.1001/jama.2019.9523
ArtículoPubMedGoogle AcadémicoReferencia cruzada

187.

Parlamento Europeo. ¿Qué es el RGPD, la nueva ley de protección de datos de la UE? Consultado el 29 de junio de 2025. https://gdpr.eu/what-is-gdpr/

188.

Mello MM, Shah NH, Char DS. Orden ejecutiva del presidente Biden sobre inteligencia artificial: implicaciones para las organizaciones de atención médica.   JAMA . 2024;331(1):17-18. doi: 10.1001/jama.2023.25051
ArtículoPubMedGoogle AcadémicoReferencia cruzada

189.

Smith M, Sattler A, Hong G, Lin S. Del código a la práctica: Implementación de inteligencia artificial mediante métodos de mejora de la calidad.   J Gen Intern Med . 2021;36(4):1061-1066. doi: 10.1007/s11606-020-06394-wPubMedGoogle AcadémicoReferencia cruzada

190.

Feng J, Phillips RV, Malenica I, et al. Mejora de la calidad de la inteligencia artificial clínica: hacia la monitorización y actualización continua de algoritmos de IA en la atención médica.   NPJ Digit Med . 2022;5(1):66. doi: 10.1038/s41746-022-00611-yPubMedGoogle AcadémicoReferencia cruzada

191.

Whicher D, Kass N, Saghai Y, Faden R, Tunis S, Pronovost P. Perspectivas de profesionales de la mejora de la calidad e investigadores de la efectividad comparativa sobre la ética, los comités de ética institucional y la supervisión.   J Empir Res Hum Res Ethics . 2015;10(2):132-144. doi: 10.1177/1556264615571558PubMedGoogle AcadémicoReferencia cruzada

192.

Faden RR, Kass NE, Goodman SN, Pronovost P, Tunis S, Beauchamp TL. Un marco ético para un sistema de atención médica con aprendizaje: una desviación de la ética de la investigación y la ética clínica tradicionales.   Hastings Cent Rep . 2013; (N.º de especificación): S16-S27. doi: 10.1002/hast.134PubMedGoogle AcadémicoReferencia cruzada

193.

Kass NE, Faden RR, Angus DC, Morain SR. Lograr que la supervisión ética de todos los ensayos clínicos sea adecuada para su propósito.   JAMA . 2025;333(1):75-80. doi: 10.1001/jama.2024.0269
ArtículoPubMedGoogle AcadémicoReferencia cruzada

194.

Kass NE, Faden RR. Ética y aprendizaje en la atención sanitaria: los roles esenciales de la participación, la transparencia y la rendición de cuentas.   Learn Health Syst . 2018;2(4):e10066. doi: 10.1002/lrh2.10066PubMedGoogle AcadémicoReferencia cruzada

195.

Spector-Bagdady K, Jagsi R. Big data, ética y regulaciones: Implicaciones para el consentimiento en el sistema de salud en aprendizaje.   Med Phys . 2018;45(10):e845-e847. doi: 10.1002/mp.12707PubMedGoogle AcadémicoReferencia cruzada

196.

Lantos JD. La regulación de la investigación clínica: ¿qué tiene que ver el amor con esto?   Learn Health Syst . 2017;2(1):e10048. doi: 10.1002/lrh2.10048PubMedGoogle AcadémicoReferencia cruzada

197.

Johnson KB, Horn IB, Horvitz E. En busca de la equidad con inteligencia artificial en la atención médica.   JAMA Health Forum . 2025;6(1):e245031. doi: 10.1016/j.2025. 10.1001/jamahealthforum.2024.5031
ArtículoPubMedGoogle AcadémicoReferencia cruzada

198.

Price WN II, Gerke S, Cohen IG. Posible responsabilidad de los médicos que utilizan inteligencia artificial.   JAMA . 2019;322(18):1765-1766. doi: 10.1001/jama.2019.15064
ArtículoPubMedGoogle AcadémicoReferencia cruzada

199.

Mello MM, Guha N. Comprensión del riesgo de responsabilidad civil derivado del uso de herramientas de inteligencia artificial en la atención médica.   N Engl J Med . 2024;390(3):271-278. doi: 10.1056/NEJMhle2308901PubMedGoogle AcadémicoReferencia cruzada

200.

Mello MM, Guha N. Comprensión del riesgo de responsabilidad civil derivado del uso de herramientas de inteligencia artificial en la atención médica.   N Engl J Med . 2024;390(3):271-278. doi: 10.1056/NEJMhle2308901PubMedGoogle AcadémicoReferencia cruzada
Para acceder a la publicación, original, en cliquear aquí
Previous Post

FERNANDO LA MATA; Medicamentos, salud y sistemas sanitarios. SIAPINDUSTRIA25

Next Post

De la FDA a la MHRA: ¿Se puede contratar a los reguladores de medicamentos?

gonzalo

gonzalo

Next Post
El impacto del aumento de las temperaturas debido al cambio climático en las enfermedades infecciosas

De la FDA a la MHRA: ¿Se puede contratar a los reguladores de medicamentos?

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Stay Connected test

  • 23.9k Followers
  • 99 Subscribers
  • Trending
  • Comments
  • Latest
Los CDC eliminan las referencias de género y equidad en el material de salud pública

Los CDC eliminan las referencias de género y equidad en el material de salud pública

9 febrero, 2025
Geopolítica y resistencias: ¿qué determinación social y qué salud en qué mundo?

Geopolítica y resistencias: ¿qué determinación social y qué salud en qué mundo?

9 diciembre, 2024

VIDEO «Salud socioambiental y la ética de la diversidad» Damián Verzeñassi (VER VIDEO)

18 junio, 2025
Esto es algo de lo que debemos hacer para reformar nuestro disfuncional sistema de salud.

Esto es algo de lo que debemos hacer para reformar nuestro disfuncional sistema de salud.

1 enero, 2025

¡Hola mundo!

1
¿Qué podemos esperar del sueño de los monstruos?

¿Qué podemos esperar del sueño de los monstruos?

1

The Legend of Zelda: Breath of the Wild gameplay on the Nintendo Switch

0

Shadow Tactics: Blades of the Shogun Review

0
La FDA expone cientos de medicamentos aprobados sin pruebas de que funcionen

La FDA expone cientos de medicamentos aprobados sin pruebas de que funcionen

22 octubre, 2025
El impacto del aumento de las temperaturas debido al cambio climático en las enfermedades infecciosas

De la FDA a la MHRA: ¿Se puede contratar a los reguladores de medicamentos?

22 octubre, 2025
Sanciones económicas impuestas a grandes empresas farmacéuticas por actividades ilegales (2020)

IA, salud y atención médica hoy y mañana Informe de la Cumbre de JAMA sobre Inteligencia Artificial

22 octubre, 2025
FERNANDO LA MATA; Medicamentos, salud y sistemas sanitarios. SIAPINDUSTRIA25

FERNANDO LA MATA; Medicamentos, salud y sistemas sanitarios. SIAPINDUSTRIA25

11 octubre, 2025

Recent News

La FDA expone cientos de medicamentos aprobados sin pruebas de que funcionen

La FDA expone cientos de medicamentos aprobados sin pruebas de que funcionen

22 octubre, 2025
El impacto del aumento de las temperaturas debido al cambio climático en las enfermedades infecciosas

De la FDA a la MHRA: ¿Se puede contratar a los reguladores de medicamentos?

22 octubre, 2025
Sanciones económicas impuestas a grandes empresas farmacéuticas por actividades ilegales (2020)

IA, salud y atención médica hoy y mañana Informe de la Cumbre de JAMA sobre Inteligencia Artificial

22 octubre, 2025
FERNANDO LA MATA; Medicamentos, salud y sistemas sanitarios. SIAPINDUSTRIA25

FERNANDO LA MATA; Medicamentos, salud y sistemas sanitarios. SIAPINDUSTRIA25

11 octubre, 2025
  • Quienes somos
  • Difusiones
  • Eventos

No Result
View All Result