LX

Cargando...

LEXIS Blog

Ketzel Isaac Marín Barona
Autor
Estudiante de Derecho

IA y Derecho Penal: ¿quién responde por el algoritmo?

jueves, 26 de marzo de 2026
7 min de lectura

La reciente revolución tecnológica ha impuesto al derecho penal uno de sus desafíos más agudos: determinar quién responde cuando un algoritmo, actuando con autonomía operativa, causa un daño a bienes jurídicos protegidos. En 2016, un vehículo autónomo causó la primera muerte documentada atribuible a un sistema de conducción automatizada. En 2025, un tribunal argentino anuló una sentencia por delegar su fundamentación en inteligencia artificial (Cámara en lo Penal de Esquel, 2025). El derecho penal, diseñado sobre la conducta humana voluntaria, se enfrenta a procesos causales que encajan en tipos penales pero carecen del sujeto que los protagonice. Esta tensión obliga a repensar categorías que creíamos sólidas.

 

El principio de culpabilidad como límite infranqueable

El principio de culpabilidad, nulla poena sine culpa, constituye el pilar axiológico que legitima la intervención punitiva en un Estado democrático. Exige que el hecho sea atribuible a un autor que actuó con libertad: con conocimiento de lo que hacía y voluntad de hacerlo, o al menos con la posibilidad real de haberlo evitado (Mir Puig, 2015). La responsabilidad objetiva resulta constitucionalmente proscrita en Ecuador. La Corte Constitucional, en la Sentencia 71-14-CN/19, estableció que ninguna sanción puede prescindir del análisis individualizado de la conducta, y el artículo 76 de la Constitución de la República exige verificar la vinculación anímica del procesado con el hecho. Frente a la inteligencia artificial, este principio impide sancionar resultados sin autor moral y rechaza que la eficiencia tecnológica sacrifique las garantías del ius puniendi (Ferrajoli, 2011).

 

La IA como instrumento: no sujeto, sino objeto

La inteligencia artificial debe conceptualizarse como un instrumento de alta complejidad técnica y no como una persona normativa. Aunque exhiben autonomía operativa, los algoritmos carecen de los atributos ontológicos esenciales para ser destinatarios de la norma penal: conciencia, libertad y dignidad humana (Navarro Dolmetsch, 2023). Su actuación no constituye una acción jurídico-penal, sino un proceso causal programado. Atribuir subjetividad penal a un algoritmo crearía escudos para que personas eludan sus obligaciones. El caso DABUS ratifica esta postura: los tribunales supremos de Reino Unido, Estados Unidos y Australia negaron que una IA pueda ser reconocida como inventora (UK Supreme Court, 2023). Si una máquina no puede tener la intención de inventar, menos aún puede tener el dolo de delinquir.

 

Autoría mediata: el dominio de la estructura algorítmica

Establecido que la IA es un objeto técnico, la pregunta se traslada al sujeto que, en determinado modo, la pueda controlar. Dado que posee autonomía operativa, el creador no ejecuta la acción de forma directa, lo que descarta la autoría directa convencional. La figura correcta es la autoría mediata del artículo 42 del COIP. La sentencia de la Corte Nacional de Justicia en el Caso Sobornos 2012-2016 ofrece la analogía precisa: el dominio de la estructura. En dicho fallo se estableció que los líderes responden penalmente sin intervenir materialmente, porque controlan la organización. Trasladado al ámbito tecnológico, el programador o directivo actúa como el hombre de atrás: responde penalmente porque controla la arquitectura y los parámetros del algoritmo, manteniendo el dominio del resultado lesivo. El humano instrumentaliza a la IA como instrumento no responsable, y mientras el daño se mantenga dentro del riesgo que él configuró, es el verdadero autor del delito (Roxin, 2014).

 

Comisión por omisión: niveles de cuidado y posición de garante

La dogmática exige niveles de cuidado precisos evaluados sobre la conducta humana previa al daño. El primer nivel opera en el diseño: alimentar a la IA con datos sesgados infringe el deber objetivo de cuidado desde su concepción. El segundo exige auditoría antes del lanzamiento: omitir protocolos de seguridad constituye un defecto de organización sancionable. El tercer nivel opera durante la operación: quien supervisa la tecnología peligrosa asume posición de garante. La Corte Nacional de Justicia, en la sentencia 1247-2014, estableció que esa posición nace de la creación de una fuente de peligro concreta. Si el supervisor detecta un funcionamiento anómalo y no interviene, su inacción equivale a la acción material, sancionada mediante la comisión por omisión del artículo 28 del COIP (Gimbernat Ordeig, 1994).

 

Responsabilidad corporativa: el defecto de organización

El artículo 49 del COIP establece la responsabilidad penal de las personas jurídicas por delitos cometidos para su beneficio por quienes actúan bajo su control. En el ámbito tecnológico, la imputación a la empresa no requiere identificar a un individuo culpable: se fundamenta en el defecto de organización, es decir, en el management defectuoso que permite operar sistemas de IA sin supervisión adecuada. La corporación que integra inteligencia artificial sin establecer barreras de contención ni auditorías algorítmicas asume integralmente los riesgos que genera. El compliance tecnológico deja de ser una opción estratégica y se convierte en una exigencia de legitimidad penal: no basta adquirir la tecnología, es imperativo organizarse para controlarla (Bacigalupo Zapater, 2010).

 

La persona electrónica: límites actuales y evolución futura

El debate sobre la persona electrónica ha cobrado fuerza en el Parlamento Europeo. La propuesta plantea otorgar a los sistemas de IA una subjetividad jurídica propia para asumir derechos y obligaciones de manera autónoma. La doctrina mayoritaria la rechaza: la persona jurídica clásica es una ficción respaldada por voluntad humana real; la persona electrónica aplicada a la IA actual sería una ficción sin sustrato humano alguno, convirtiéndose en escudo de irresponsabilidad. Sin embargo, el derecho ha ampliado históricamente el círculo de sujetos jurídicos y sería ingenuo descartar toda evolución. La distinción esencial: una IA construida nunca podría ser persona electrónica en sentido pleno porque carece de conciencia propia.

Distinto sería el escenario del mind uploading —transferencia de la conciencia humana a un sustrato digital—, donde ya no hablaríamos de inteligencia artificial, sino de una conciencia trasplantada con identidad, voluntad y memoria continua. Ese escenario sí abriría un debate jurídico genuino.  No obstante, ese horizonte es materialmente remoto por razones físicas. Investigadores del consorcio FlyWire emularon el conectoma del cerebro de una mosca: 139.255 neuronas y 50 millones de sinapsis en silicio. La mosca digital caminó y se acicaló, aun así se ilustra un abismo material. El cerebro humano tiene 86.000 millones de neuronas y hasta 500 billones de sinapsis.

El obstáculo real no es el software sino el hardware, en 2026 la producción mundial de memoria se ha redirigido hacia chips especializados para servidores de IA, generando escasez de RAM convencional. La misma IA que nos acercaría al mind uploading consume hoy los recursos que ese futuro necesitaría. Mientras ese umbral no se cruce, la persona electrónica es jurídicamente prematura, reservada al único escenario que lo justificaría: aquel en que una conciencia humana real encuentre en el silicio su nuevo hogar.

 

Conclusiones

La inteligencia artificial carece de los atributos volitivos e intelectivos necesarios para ser destinataria de la norma penal. La respuesta es reconducir la responsabilidad hacia quienes diseñan, despliegan y supervisan estos sistemas: mediante la autoría mediata cuando existe dominio de la estructura algorítmica, mediante la comisión por omisión cuando el garante incumple su deber, y mediante la responsabilidad corporativa cuando la empresa omite organizarse para controlar el riesgo que ella misma creó. Los fallos de State v. Loomis, SyRI y las sentencias argentinas reafirman que juzgar la libertad es un acto indelegablemente humano. La legitimidad del ius puniendi exige mantener el juicio penal limitado por la culpabilidad personal.


Referencias bibliográficas

Bacigalupo Zapater, E. (2010). Responsabilidad penal de las personas jurídicas. Hammurabi. Cámara en lo Penal de Esquel. (2025, octubre 15). Caso Provincia del Chubut c/ P.R.A., Legajo Fiscal N° 59560.

Código Orgánico Integral Penal. (2014). Registro Oficial Suplemento No. 180.

Constitución de la República del Ecuador. (2008). Registro Oficial 449. Corte Constitucional del Ecuador. (2019, septiembre 4). 
Sentencia 71-14-CN/19. Corte Nacional de Justicia. (2014, octubre 14).

Sentencia 1247-2014. Corte Nacional de Justicia. (2020, septiembre 7).

Sentencia 17721-2019-00029 (Caso Sobornos 2012-2016).

Ferrajoli, L. (2011). Derecho y razón: Teoría del garantismo penal (10.ª ed.). Trotta.

Gimbernat Ordeig, E. (1994). Delitos impropios de omisión. Civitas.

Mir Puig, S. (2015). Derecho Penal. Parte General (9.ª ed.).

Reppertor. Navarro Dolmetsch, R. (2023). La inteligencia artificial como actuante en el derecho penal. Revista de Internet, Derecho y Política, (38).

Nieto Martín, A. (2017). Derecho Penal Económico y de la Empresa. Iustel.

Rechtbank Den Haag. (2020, febrero 5). Caso SyRI, ECLI:NL:RBDHA:2020:1878.

Roxin, C. (2014). Autoría y dominio del hecho en Derecho Penal. Marcial Pons.

Silva Sánchez, J. M. (2001). La expansión del Derecho Penal (2.ª ed.). Civitas. Supreme Court of Wisconsin. (2016, julio 13). State v. Loomis, 881 N.W.2d 749.

UK Supreme Court. (2023, diciembre 20). Thaler v Comptroller-General of Patents [2023] UKSC 49.

Compartir Blog