Inteligencia Artificial y responsabilidad médica: cuando un robot "diagnostica"

La inteligencia artificial transforma la medicina, pero abre dilemas éticos y jurídicos sobre la responsabilidad médica y la seguridad del paciente.

Dos médicos analizan resultados médicos en una pantalla digital con inteligencia artificial, representando el uso de tecnología avanzada en salud.
IA y médicos hasta dónde llega la responsabilidad en salud

El avance de la inteligencia artificial (IA) en distintas áreas de la vida cotidiana no pasa inadvertido para el mundo de la salud. La incorporación de esta tecnología está generando una transformación profunda y de alcance todavía impredecible.
Especialidades médicas como la oftalmología, el diagnóstico por imágenes, la cardiología e incluso la oncología ya utilizan software que agilizan los tiempos y mejoran la precisión de los diagnósticos clínicos.

Pero esta revolución tecnológica también plantea un gran interrogante: ¿se puede confiar plenamente en los diagnósticos realizados por inteligencia artificial? La pregunta no es menor, porque el uso de estas herramientas impacta directamente sobre la responsabilidad médica, un principio ético y legal que debe mantenerse firme. Lo que está en juego no es otra cosa que la salud del paciente.

IA y médicos: hasta dónde llega la responsabilidad en salud
Los desafíos de la innovación médica

El desafío de la responsabilidad médica en la era de la IA

Desde el punto de vista médico-legal y deontológico, la inteligencia artificial plantea desafíos éticos y jurídicos inéditos, tanto para los profesionales de la salud como para las instituciones médicas.

La pregunta inevitable es: ¿qué ocurre cuando una de estas herramientas falla? ¿Podría la inteligencia artificial reemplazar realmente a un médico o a cualquier profesional sanitario? Por ahora, estamos lejos de eso. De hecho, podría decirse que la inteligencia artificial sin la supervisión rigurosa de un médico deja de ser verdaderamente inteligente. Una paradoja que sintetiza la esencia del debate.

Qué sabemos hasta ahora

La jurisprudencia sobre inteligencia artificial aplicada a la salud aún es limitada, y gran parte de la evidencia proviene de estudios internacionales. Uno de los más relevantes fue realizado por Michelle M. Mello y Neal Guha de la Stanford School of Medicine, quienes revisaron más de 800 expedientes judiciales en los que se discutieron posibles escenarios de responsabilidad médica vinculados al uso de IA en la práctica clínica.

Aunque se trata de casos de Estados Unidos, los hallazgos sirven como referencia para países como Argentina, donde la tecnología avanza más rápido que los marcos regulatorios.

Los tribunales estadounidenses han analizado numerosos casos en los que los sistemas informáticos destinados al “triage” (triaje, en español, y significa clasificación de urgencias) presentaron fallas, provocando daños directos al paciente. Un error en la clasificación —por ejemplo, un cuadro grave interpretado como leve— puede tener consecuencias fatales.

¿Cómo puede un médico justificar ante un juez que el daño se debió al uso predominante de una herramienta automatizada?

En el caso Lowe v. Cerner, se admitieron reclamos por errores de programación que llevaron a administrar dosis inadecuadas de medicamentos. En Sampson v. HeartWise Health Systems Corporation, un software ignoró antecedentes clínicos y la omisión derivó en la muerte del paciente. En este litigio, los jueces consideraron que los médicos debieron mantener una actitud crítica y ejercer su propio criterio profesional, en lugar de aceptar ciegamente la recomendación del sistema.

Pareja de médicos analizan resultados en una pantalla digital con inteligencia artificial, representando el uso de tecnología
Inteligencia artificial médica: los desafíos de la tecnología en salud

Otros fallos abordaron problemas de mantenimiento o actualizaciones defectuosas, que también pueden poner en riesgo la seguridad del paciente. En todos los casos, las figuras clásicas de impericia, imprudencia y negligencia aparecen en el centro del análisis judicial.

En este contexto, la defensa médica se debilita cuando no logra demostrar de forma precisa cuál fue el error y cómo influyó en el diagnóstico. Alegar que “el software funcionaba mal” resulta insuficiente ante cualquier tribunal. Por eso, los profesionales deben documentar cuidadosamente cómo llegan a un diagnóstico, qué protocolos aplican y en qué guías clínicas se basan.

El rol de la regulación del uso de AI en medicina en Argentina

En nuestro país, la Administración Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT) regula el uso de cualquier software médico, incluyendo los basados en inteligencia artificial, bajo las disposiciones 2318/02, 2198/99 y 9688/19.
Toda herramienta de IA utilizada en entornos clínicos debe cumplir requisitos de registro, validación y trazabilidad que garanticen su seguridad y eficacia.

La supervisión médica es obligatoria: la IA solo puede funcionar como herramienta de apoyo y nunca reemplaza la responsabilidad profesional del médico.

Médico con dudas sobre el uso de inteligencia artificial en su profesion
El uso de inteligencia artificial en medicina plantea nuevos desafíos éticos, legales y clínicos para médicos y pacientes.

Los dilemas éticos y médico-legales

La incorporación de inteligencia artificial ofrece beneficios innegables, pero también introduce nuevos riesgos. Los algoritmos pueden generar respuestas difíciles de interpretar desde el punto de vista clínico o ético, y esto complica la asignación de responsabilidades.

Además, la denominación “inteligencia artificial” tiende a otorgarle una jerarquía de superioridad tecnológica frente al saber médico tradicional, algo que debe cuestionarse.

El fenómeno también se extiende al uso doméstico de la IA a través de herramientas como ChatGPT o Grok. Cada vez más personas consultan estas aplicaciones para autodiagnosticarse o buscar tratamientos. ¿Son conscientes de los riesgos que esto implica para su salud?

A su vez, la relación médico-paciente —ya afectada por la burocracia y la sobrecarga de los sistemas de salud— podría deteriorarse aún más. La confianza se erosiona cuando el paciente percibe que la tecnología reemplaza la empatía o la experiencia humana.

Finalmente, la ética profesional se enfrenta a un límite claro: usar herramientas que todavía no comprendemos completamente puede derivar en negligencia, impericia o imprudencia. Por eso, hasta que se consoliden los marcos regulatorios y éticos, la inteligencia artificial debe entenderse como lo que es: una herramienta complementaria. Su uso exige prudencia, criterio clínico y una evaluación constante por parte del equipo médico.

Porque, como bien se dice entre los especialistas, dejar la salud de un paciente solo en manos de la inteligencia artificial puede ser, paradójicamente, una decisión poco inteligente.



Por Dr. Martín Carrizo. Médico especialista Nutrición Clínica y Medicina Legal. Obesidad & Diabetología. Su Instagram. Twitter: @martincarrizo_

Te puede interesar:

Por qué los intensivistas somos una especie en extinción (y por qué es urgente hacer algo)

Chequeos médicos: por qué más no siempre es mejor

7 hábitos que hay que desterrar para mejorar la salud

Médicos de Terapia Intensiva: los rigores de trabajar al borde de la vida

magnifiermenu