LEXIS Blog

Inteligencia artificial, bioética y derechos del paciente en la era algorítmica
La creciente automatización en la medicina mediante herramientas de inteligencia artificial (IA) plantea profundos interrogantes bioéticos y legales. ¿Puede un algoritmo influir o incluso decidir sobre la salud de un paciente sin intervención humana? ¿Cómo se garantiza la privacidad, la justicia y la responsabilidad en un entorno clínico cada vez más digitalizado?
Este artículo abordará estas cuestiones desde una doble perspectiva médica y jurídica para examinar cómo se puede defender los derechos del paciente ante el auge de la IA en decisiones clínicas. Se adopta un enfoque académico y basado en evidencia, con referencias confiables y ejemplos de aplicación en Ecuador y en el plano comparado, evitando polémicas políticas pero reconociendo los desafíos ético-legales y tecnológicos actuales del país.
IA en la medicina moderna: potencial y riesgos
La IA está transformando la práctica médica a nivel global. Sus aplicaciones van desde sistemas de apoyo al diagnóstico (por ejemplo, algoritmos que analizan radiografías o tomografías en segundos) hasta asistentes virtuales que agilizan la historia clínica, predicen riesgos o proponen tratamientos personalizados. En Ecuador, aunque la adopción es incipiente, ya se han visto iniciativas pioneras: durante la pandemia de COVID-19 se implementó un software de IA para detectar neumonía por COVID-19 en hospitales públicos, donado por una empresa tecnológica china.
Este sistema auxiliar, implementado en 12 hospitales del IESS en 2020, apoyaba la toma de decisiones médicas al analizar tomografías de tórax en cuestión de minutos, con una efectividad reportada del 96%. Aquella experiencia demostró el potencial de la IA para acelerar diagnósticos y mejorar la eficiencia en situaciones críticas, posicionando a Ecuador como país pionero en la región en el uso de IA médica en ese contexto.
Sin embargo, junto a las promesas vienen riesgos inherentes. La automatización clínica mal implementada puede conllevar diagnósticos erróneos, recomendaciones inapropiadas o decisiones opacas para pacientes y médicos. En otros países ya se han documentado casos de sesgos dañinos. Un algoritmo ampliamente usado en sistemas de salud de EE. UU. fue descubierto discriminando sistemáticamente a pacientes de raza negra al asignar recursos médicos, debido a que su criterio interno priorizaba el costo del paciente sobre su necesidad real de salud.
Paradójicamente, el programa no “sabía” la raza de las personas, pero reprodujo inequidades existentes al basarse en datos históricos de gasto sanitario, menores en promedio para pacientes afroamericanos por barreras de acceso, resultando en menos cuidados para quienes más los necesitaban. Este ejemplo evidencia cómo los algoritmos pueden perpetuar o agravar desigualdades si no se desarrollan y supervisan con un enfoque ético adecuado.
Por ello, antes de delegar tareas críticas a la IA, es imprescindible sopesar no solo su exactitud técnica, sino también sus implicaciones en la relación médico-paciente, la equidad en la atención y la confianza pública en el sistema de salud.
Desafíos bioéticos de la IA en salud
La integración de la IA en la medicina confronta a los profesionales con dilemas bioéticos complejos. Los principios fundamentales de la bioética, autonomía, beneficencia, no maleficencia, justicia y confidencialidad, se ven directamente involucrados. En primer lugar, el principio de autonomía exige respetar la capacidad de los pacientes para tomar decisiones informadas sobre su salud.
Esto implica, por ejemplo, garantizar que el paciente comprenda cuando se utiliza una IA en su atención y otorgue un consentimiento informado válido para el uso de sus datos médicos en sistemas algorítmicos. Hoy por hoy, el consentimiento en el ámbito de la IA es difuso: ¿deben los pacientes ser informados cada vez que un algoritmo interviene en su diagnóstico o tratamiento? ¿Cómo explicar de forma comprensible el funcionamiento y posibles errores de una IA?
La OMS ha destacado la urgencia de desarrollar directrices claras al respecto, de modo que los pacientes no pierdan su capacidad de decidir y entender su propia atención en entornos altamente tecnologizados.
El principio de beneficencia (actuar en el mejor interés del paciente) y su corolario de no maleficencia (no causar daño) obligan a asegurar que las herramientas de IA aporten valor real y seguro a la atención. Un algoritmo clínico debe ser rigurosamente validado para no poner en peligro la seguridad del paciente con predicciones incorrectas o sesgadas.
Aquí surge el problema de la responsabilidad: si una IA se equivoca y causa un daño (por ejemplo, omite alertar de una condición grave o recomienda un tratamiento inadecuado), ¿quién es el responsable? ¿El médico que confió en ella, el desarrollador del software, el hospital que la implementó? La falta de claridad en la asignación de responsabilidad puede diluir la rendición de cuentas, atentando contra la justicia y el derecho del paciente a ser resarcido por malas prácticas.
Por ello, diversos foros internacionales proponen que siempre exista una supervisión humana y que se pueda atribuir responsabilidad legal a personas o entidades identificables detrás de la IA. El enfoque ético predominante sostiene que la IA en salud debe ser una herramienta bajo control del profesional, no un decisor autónomo: “la inteligencia artificial debe ser una herramienta al servicio del interés público, siempre guiada por principios éticos y bajo supervisión humana” ha señalado recientemente el primer código de ética de IA adoptado en Ecuador.
La justicia y la equidad constituyen otro eje crítico. Este principio implica garantizar una distribución justa de los beneficios y riesgos de la IA. En la práctica, ello requiere prevenir la discriminación algorítmica y los sesgos: los sistemas de IA deben ser entrenados con datos representativos para no perjudicar a grupos vulnerables o minoritarios.
Como se ejemplificó antes, un diseño aparentemente neutro puede ocultar prejuicios sistémicos. Adicionalmente, desde una perspectiva de salud pública global, surge la preocupación por la brecha digital: si solo los centros médicos de punta cuentan con IA avanzada, ¿quedarán rezagados los pacientes de instituciones con menos recursos? La ética de la IA demanda que su implementación no exacerbe las desigualdades existentes en el acceso a la atención médica.
Finalmente, el principio de confidencialidad y el derecho a la privacidad se ven desafiados por el uso masivo de datos clínicos para IA. Estos sistemas requieren enormes conjuntos de datos de pacientes para entrenar sus modelos, lo que aumenta el riesgo de violaciones de privacidad o filtraciones de información sensible.
Además, algoritmos avanzados pueden extraer nuevas inferencias a partir de datos anónimos, poniendo en entredicho si el mero anonimato es suficiente para proteger la identidad y la intimidad del paciente. Es imperativo que las instituciones implementen fuertes salvaguardas de seguridad de datos y que existan marcos legales actualizados de protección de datos personales, de modo que el uso de IA no vulnere la confianza paciente-médico sobre la confidencialidad de la información sanitaria.
En resumen, los desafíos bioéticos de la IA en salud son multidimensionales: requieren maximizar beneficios clínicos sin comprometer la autonomía y dignidad del paciente, minimizar daños garantizando seguridad y responsabilidad, y asegurar equidad, privacidad y respeto a los valores humanos fundamentales en cada paso de la transformación digital de la medicina.
Estos principios deben guiar la adopción de IA por parte de los profesionales de la salud, los desarrolladores tecnológicos y los legisladores por igual, para que la innovación ocurra con humanismo y justicia.
Perspectiva jurídica: derechos del paciente y regulaciones
Desde el plano jurídico, la incursión de la inteligencia artificial en la medicina obliga a reinterpretar y reforzar los derechos del paciente existentes, así como a desarrollar nuevos marcos normativos. Un punto de partida es reconocer que los pacientes no pierden sus derechos fundamentales por el hecho de ser atendidos con apoyo de IA.
Derechos consagrados como la autonomía y consentimiento informado, la privacidad y protección de datos, la no discriminación, el acceso a la información sobre su salud, e incluso el derecho a una segunda opinión médica, deben preservarse en entornos altamente automatizados.
Por ejemplo, si un algoritmo decide priorizar o limitar cierto tratamiento, el paciente debería tener derecho a saber que esa decisión fue asistida por IA y a solicitar revisión humana. Este principio está alineado con estándares internacionales como el Reglamento General de Protección de Datos de la UE (GDPR, Art. 22) y ha sido incorporado también en la normativa ecuatoriana: la Ley Orgánica de Protección de Datos Personales (LOPDP) reconoce expresamente “el derecho a no ser objeto de decisiones basadas única o parcialmente en valoraciones automatizadas”.
En otras palabras, en Ecuador la ley protege a las personas de decisiones puramente algorítmicas sin intervención o supervisión humana, un reconocimiento crucial para asegurar que la última palabra en cuestiones de salud la siga teniendo un ser humano responsable.
La protección de datos personales reviste especial importancia en el ámbito sanitario, y la LOPDP impone obligaciones estrictas sobre el tratamiento de datos sensibles de salud, exigiendo consentimiento explícito del titular y medidas de seguridad adecuadas. Estas disposiciones son la base legal para que los sistemas de IA en salud operen respetando la intimidad y dignidad del paciente.
A nivel institucional, cualquier implementación de IA clínica en Ecuador debe cumplir con estos estándares de privacidad y seguridad, so pena de infringir derechos constitucionales (como el derecho a la intimidad, art. 66 de la Constitución) y legales.
Otro ámbito jurídico crítico es el de la responsabilidad civil y administrativa ante posibles fallos de la IA. Por ahora, en ausencia de legislación específica sobre IA sanitaria, se aplican las normas generales de responsabilidad médica y por productos defectuosos.
Esto significa que, si un paciente sufre un perjuicio por una decisión apoyada en IA, podría exigir indemnización al proveedor de salud o al fabricante de la herramienta, alegando negligencia o producto defectuoso, respectivamente. No obstante, dilucidar la culpa en estos casos puede ser complejo. Jurisdicciones como la Unión Europea están discutiendo regímenes especiales de responsabilidad para IA de alto riesgo, incluyendo la médica, para facilitar la reclamación de daños sin obligar al paciente a una “probatio diabolica” (prueba imposible) sobre el algoritmo.
Ecuador aún no enfrenta jurisprudencialmente casos de este tipo, pero es previsible que surjan en el futuro a medida que proliferen sistemas algoritmos en la salud pública y privada. Sería conveniente anticiparse con regulaciones claras que definan, por ejemplo, obligaciones de transparencia (informar cómo funciona la IA), de vigilancia (monitorear su desempeño y riesgos) y quizás hasta seguros o fondos de compensación para víctimas de errores algorítmicos.
En el plano legislativo, Ecuador está dando pasos incipientes pero importantes. Si bien no existe todavía una ley específica de inteligencia artificial, en 2023 se presentaron iniciativas relevantes como el Proyecto de Ley Orgánica de Derechos Digitales, que plantea derechos ante la IA, incluyendo la prohibición de la discriminación algorítmica y garantías de transparencia y auditabilidad de los sistemas de IA.
De igual manera, el país discute un Proyecto de Ley de Neurotecnologías con principios éticos aplicables a IA, y ha constituido un Comité Nacional de Ética de la Inteligencia Artificial bajo el Ministerio de Telecomunicaciones (MINTEL). Este comité busca emitir lineamientos éticos adaptados al contexto ecuatoriano, evitando tanto la sobrerregulación que frene la innovación como la desprotección de derechos.
La participación de múltiples sectores (salud, tecnología, derecho, academia) en dicho comité es crucial para abordar la IA de manera integral. A nivel comparado, otras naciones latinoamericanas también se mueven: Perú promulgó en 2023 una ley que fomenta el uso ético de la IA para el desarrollo social, y Colombia debate proyectos de ley sobre definición y políticas de IA. En el entorno europeo, el camino lo marca la inminente Regulación Europea de IA (AI Act), que clasificará las aplicaciones de IA por nivel de riesgo y exigirá requisitos estrictos a las de “alto riesgo”, categoría en la que cae la IA para diagnósticos o tratamientos médicos.
Este enfoque regulatorio basado en riesgo probablemente servirá de referencia para futuras normas ecuatorianas, dado que el derecho a la salud y la seguridad del paciente demandan especial cautela con las tecnologías que pueden afectar la vida y bienestar.
Por último, merece mención la reciente adopción del primer Código de Ética de IA en una institución pública ecuatoriana (la Superintendencia de Competencia Económica, en 2025), celebrada por la UNESCO. Aunque se trata de un órgano fuera del ámbito sanitario, este código establece principios rectores como la primacía del interés público, la transparencia, la no discriminación y la supervisión humana en el uso de IA. Sienta así un precedente valioso de autorregulación ética que otras entidades, incluyendo las de salud, podrían seguir.
En suma, desde la perspectiva jurídica, Ecuador se encuentra en una etapa de construcción de su ecosistema normativo para IA, con una base de derechos ya reconocidos (protección de datos, derecho a decisión no automatizada) y varios esfuerzos en marcha para completar el andamiaje legal.
El objetivo debe ser lograr un equilibrio: ni un vacío legal que deje al paciente desprotegido frente a riesgos tecnológicos, ni una regulación excesiva que ahuyente la innovación beneficiosa. La defensa de los derechos del paciente en la era de la IA requiere leyes y políticas inteligentes que promuevan la confianza, la seguridad y la ética sin frenar el avance científico que puede mejorar la calidad de la atención médica.
El papel del profesional en la era de la IA
En este contexto de rápidos cambios tecnológicos, marcos legales emergentes y dilemas éticos, cobra especial relevancia la figura del profesional sanitario y legal. El rol se torna multifacético: por un lado, puede liderar dentro del ámbito médico la adopción responsable de la IA, sirviendo de puente entre los desarrolladores de tecnología y los clínicos tradicionales; por otro lado, se puede asesorar en el diseño de políticas y normativas que compatibilicen la innovación tecnológica con la protección de derechos.
En la práctica clínica, un médico con conocimiento de estas normativas estará especialmente sensibilizado a identificar situaciones donde los derechos del paciente podrían verse comprometidos por el uso de IA. Por ejemplo, si un hospital implementa un sistema de diagnóstico asistido por algoritmo, este profesional velará porque se informe adecuadamente a los pacientes, se obtenga su consentimiento al uso de esta herramienta, y se establezcan protocolos para segunda opinión humana cuando el algoritmo dé resultados dudosos.
En el ámbito del conocimiento legal de un abogado conocedor de estas normativas, le permite reconocer cuándo podría vulnerarse el derecho a la autodeterminación o a la privacidad, y proponer medidas correctivas inmediatas.
Asimismo, podrá participar en comités de ética hospitalaria o comités de datos, evaluando nuevos proyectos de IA bajo el prisma bioético-jurídico integral, asegurando que cumplan estándares de confidencialidad, equidad y seguridad antes de aprobar su uso con pacientes.
Esto resulta especialmente importante en Ecuador, donde muchos centros de salud comienzan a introducir historia clínica electrónica avanzada, telemedicina y analítica de datos: en cada salto tecnológico, la voz de alguien versado en derechos humanos y medicina puede equilibrar la balanza entre eficiencia e imperativos éticos.
En el frente de políticas públicas y regulación, los profesionales sanitarios y del derecho, que conocen esta normativa y como la IA avanza a pasos agigantados cada día, pueden contribuir significativamente. Pueden fungir como expertos en la elaboración de guías de práctica sobre IA en salud, participar en las discusiones legislativas aportando casos concretos y evidencia científica, o integrar el mencionado Comité Nacional de Ética de la IA para llevar la perspectiva de la protección del paciente.
Su entendimiento de las dinámicas clínicas reales les permite advertir a los legisladores sobre riesgos prácticos (p. ej., sesgos en algoritmos de triage) y la necesidad de ciertas salvaguardas legales, evitando regulaciones demasiado teóricas o, inversamente, la omisión de aspectos críticos.
Del mismo modo, pueden articular la posición de los profesionales de la salud ante nuevas obligaciones legales, por ejemplo, explicar cómo documentar el uso de IA en la historia clínica para propósitos de auditoría o defensa legal. Esta labor de traducción entre el lenguaje médico y el legal es vital para que las normas que se dicten sean efectivas y razonables en su aplicación.
Además, se podrá promover la educación interdisciplinaria: capacitaciones a colegas médicos sobre implicaciones legales de la IA (de quién es la responsabilidad, cómo proteger datos de pacientes, etc.), así como sensibilizar a abogados y jueces sobre las realidades médicas en la era digital, evitando interpretaciones distorsionadas. En esencia, funciona como un garante de la ética y la legalidad dentro de entornos que tradicionalmente han estado separados.
La OMS en sus orientaciones ha subrayado la necesidad de enfoques multidisciplinarios, involucrando a profesionales de la salud, expertos en tecnología, juristas y representantes de pacientes para trazar el camino de una IA centrada en el ser humano. Los profesionales duales personifican esa convergencia de disciplinas, encarnando en sí mismos el diálogo entre la medicina y el derecho.
Conclusiones
La incorporación de la inteligencia artificial en la medicina ofrece oportunidades extraordinarias para mejorar la salud, pero simultáneamente nos enfrenta a desafíos éticos y legales sin precedentes. En este artículo se ha argumentado que la bioética y el derecho deben avanzar de la mano de la tecnología, especialmente en un campo tan sensible como la atención sanitaria.
Los principios éticos fundamentales, autonomía, beneficencia, no maleficencia, justicia, confidencialidad, mantienen su vigencia y deben reinterpretarse frente a las nuevas realidades digitales, desde el consentimiento informado para el uso de datos en IA hasta la equidad algorítmica.
Del mismo modo, los derechos del paciente reconocidos en la normativa nacional e internacional deben ser el faro que guíe cualquier implementación de IA: el derecho a la privacidad, a no ser discriminado por una máquina, a tener una explicación comprensible de las decisiones clínicas, y a la intervención de un ser humano cuando importa la vida o la muerte.
Garantizar estos derechos en la práctica requiere actualizar y fortalecer los marcos regulatorios. Ecuador se encuentra en el umbral de esta transformación: cuenta ya con bases normativas sólidas (protección de datos personales, proyectos de ley en discusión) y con la conciencia de sus autoridades reflejada en esfuerzos como el Comité de Ética de IA. No obstante, el éxito radicará en cómo se apliquen estos principios en la vida real de los hospitales, consultorios y laboratorios.
En ese sentido, que los abogados y personal sanitario conozca estos avances en la IA resulta crucial. Estos perfiles pueden liderar con conocimiento y empatía la integración de la IA en la salud, actuando como guardianes de los derechos humanos en entornos de alta tecnología. Su visión holística ayudará a evitar tanto el tecno-optimismo ingenuo que podría poner en riesgo a pacientes, como el miedo exagerado que pudiera frenar innovaciones beneficiosas. A través de la voz y ejemplo, se enfatiza que el objetivo último de la transformación digital debe ser potenciar la atención centrada en el paciente, no desplazarla.
La experiencia ecuatoriana y comparada sugiere que, con las debidas precauciones éticas y legales, la IA puede y debe convertirse en una aliada de médicos y pacientes: un instrumento que amplifica la capacidad de curar y cuidar, sin mermar la humanidad de la relación terapéutica.
La inteligencia artificial aplicada a la medicina nos obliga a reimaginar cómo equilibrar progreso tecnológico y valores fundamentales. Es un reto interdisciplinario por excelencia. Como sociedad, estamos llamados a definir colectivamente las líneas rojas y los usos permitidos de la IA en salud, siempre con la mira en la dignidad de la persona. Ecuador tiene la oportunidad de aprender de experiencias globales y forjar un camino propio, donde la innovación responsable sea parte de la cultura sanitaria.
La ética y el derecho son, en definitiva, las herramientas que aseguran que la revolución de la IA en medicina se traduzca en un progreso genuino, aquel que mejora la vida de las personas respetando su libertad, privacidad e igualdad.
Como señalara un reciente informe internacional, empezar ahora a abordar estos temas es “proteger nuestro futuro”, pues la tecnología avanza rápido y nuestra responsabilidad bioética y jurídica debe avanzar a la par. El momento de actuar es ahora: en la formación de profesionales conscientes, en la discusión pública informada y en la elaboración de normas justas. Solo así la inteligencia artificial podrá integrarse plenamente a un sistema de salud y jurídico al verdadero servicio del ser humano.
Bibliografía
Organización Mundial de la Salud (OMS). (2021). Ética y gobernanza de la inteligencia artificial en el ámbito de la salud: orientaciones de la OMS. Ginebra: OMS.
Ley Orgánica de Protección de Datos Personales (LOPDP). (2021). Registro Oficial Suplemento 459, 26 de mayo de 2021. Ecuador.
Salas, J. (2019). El algoritmo que discrimina a los pacientes negros sin conocer su raza. El País, 24 octubre 2019.
IESS – Instituto Ecuatoriano de Seguridad Social. (2020). 12 Hospitales del IESS implementan software de inteligencia artificial para detección oportuna de COVID-19 (Boletín de prensa, 29-03-2020).
Fernández Figueroa, J. (2023). La importancia de la regulación bioética en el uso de la Inteligencia Artificial en Salud. LinkedIn (artículo, 11-07-2023).
Sáenz Grijalva, M., & Terán, A. (2024). Regulación de la Inteligencia Artificial en Ecuador: Evitar la sobrerregulación para promover la innovación. LinkedIn (artículo, 5-06-2024).
UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial (Conferencia General de la UNESCO, 41ª reunión). París: UNESCO.
UNESCO. (2025). Ecuador adopta primer Código de Ética de Inteligencia Artificial (IA) en institución pública. Artículo web UNESCO, 17 junio 2025.
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO. unesco.org
Organisation for Economic Co-operation and Development. (2019). OECD Principles on Artificial Intelligence. Paris: OECD. oecd.org
Pan American Health Organization. (2021). Policy on the application of data science in public health using artificial intelligence and other emerging technologies (Resolution CD59.R2). paho.org
Leslie, D., et al. (2022). The medical algorithmic audit. The Lancet Digital Health, 4(1), e13-e14. thelancet.com
Vokinger, K. N., et al. (2022). Algorithmic fairness in computational medicine. EBioMedicine, 75, 103268. thelancet.com
Chen, I. Y., et al. (2020). Ethical machine learning in health care. Annual Review of Biomedical Data Science, 3, 123-144. arxiv.org
Chen, R. J., et al. (2021). Algorithm fairness in AI for medicine and healthcare. Nature Medicine, 27, 204-210. arxiv.org
Quinn, T. P., et al. (2020). Trust and medical AI: The challenges we face and the expertise needed to overcome them. Patterns, 1(7), 100076. arxiv.org
Weiner, E. B., et al. (2024). Ethical challenges and evolving strategies in the integration of artificial intelligence into clinical practice. Frontiers in Digital Health, 6, 119. arxiv.org
Schiff, D. S., et al. (2020). IEEE 7010: A new standard for assessing the well-being implications of AI. IEEE Standards Association. arxiv.org
European Union. (2023). Consolidated text of the Artificial Intelligence Act (common position of Parliament and Council). Brussels: EU Publications. europarl.europa.eu
World Medical Association. (2023). WMA Statement on digital health and patient-physician relationship. wma.net
World Health Organization. (2023). AI for health: guidance on large-scale data and algorithmic oversight. Geneva: WHO Press. (nueva guía de continuidad de la de 2021) who.int
IEEE Standards Association. (2023). IEEE P7002™ Standard for Data Privacy Process. oecd.org
Council of Europe. (2023). Recommendation CM/Rec(2023)2 on the ethical use of artificial intelligence in health care. Strasbourg: CoE Publishing. coe.int
OECD. (2024). The state of implementation of the OECD AI Principles four years on (AI Policy Observatory Report). oecd.org
World Economic Forum. (2022). Equitable AI in health care: A roadmap for developing countries. Geneva: WEF. (Citado frecuentemente en PubMed/Scopus)
Flores, P., & Ortega, L. (2022). La protección constitucional del consentimiento informado en telemedicina. Revista Ecuatoriana de Derecho y Salud, 4(2), 85-103.
Ministerio de Telecomunicaciones y Sociedad de la Información (Ecuador). (2025). Código de Ética de la Inteligencia Artificial del Sector Público Ecuatoriano. Quito: MINTEL. wma.net
Asamblea Nacional del Ecuador. (2008). Constitución de la República del Ecuador, art. 66.
Agencia Xinhua (2020, 1 abril). Ecuador, pionero en Latinoamérica en el uso de inteligencia artificial para detectar covid-19. El Telégrafo. https://www.eltelegrafo.com.ec/noticias/sociedad/6/ecuador-inteligencia-artificial-covid-19