LEXIS Blog

No todo aporta: Regulación de la Inteligencia Artificial en Ecuador
Introducción
La inteligencia artificial (IA) se ha convertido en una herramienta indispensable en tiempos actuales. Es capaz de responder preguntas al instante, generar imágenes detalladas a partir de prompts, automatizar todo tipo de tareas y procesar grandes volúmenes de datos. Todo esto resulta revolucionario, pero conlleva un cambio de paradigma en cuanto a cómo interactuamos con el mundo a través de esta tecnología.
Organismos internacionales que han profundizado en el estudio de la IA, la han definido como “un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de los datos de entrada que recibe, cómo generar información de salida como predicciones, contenidos, recomendaciones o decisiones [...]” (OCDE, 2019). La IA puede entenderse, entonces, como la habilidad de los ordenadores para ejecutar tareas que normalmente requerirían inteligencia humana (Rouhiainen, 2021). A pesar de ello, se debe tener presente que estas definiciones están condenadas a permanecer inconclusas para siempre, mientras sigamos descubriendo todo lo que puede hacer la IA.
Sin embargo, junto a estos avances surgen desafíos clave, como la protección de la privacidad, la ética, los derechos humanos, y los límites dentro de los cuales debe operar la IA. En Ecuador, el debate sobre la regulación de esta herramienta ha cobrado fuerza en meses recientes, habiéndose realizado una primera Evaluación del Estado situacional de la IA (AIRA, por sus siglas en inglés) (PNUD, 2024). Si bien este debate ha ocurrido de forma bastante prematura y, a veces, desfasada para un país en vías de desarrollo, la presentación de tres propuestas legislativas en la Asamblea Nacional definitivamente nos llama a una urgente reflexión. Este artículo analiza críticamente dichas propuestas legislativas, evaluando sus enfoques, fortalezas y debilidades, con el objetivo de regresar a las preguntas básicas que deberíamos estar planteando: ¿Hay que regular ya? ¿Cómo regular? ¿Cuándo empezar?
Estado actual y necesidad de regulación
En Ecuador, la IA aún se encuentra en una etapa emergente. Pareciera que la implementación más avanzada de esta herramienta se limita a sectores como seguridad, informática, procesamiento de datos y educación. No obstante, la realidad es que la IA se ha colado de manera transversal en la vida cotidiana. Basta con preguntarnos cuándo fue la última vez que le pedimos ayuda con un pendiente a Chat GPT, Meta AI, Copilot, Perplexity, Claude o el proveedor de nuestra preferencia. Con base en estudios realizados a nivel nacional, el 36% de ecuatorianos utilizan IA en sus actividades laborales, para realizar tareas repetitivas, consultar inquietudes, mejorar sus capacidades o dar respuesta a incidentes cotidianos (Primicias, 2024). No cabe duda de que la IA llegó a Ecuador y, a pesar de su incipiente y, en muchas ocasiones, productivo desarrollo, la realización de que no la podemos controlar, nos empieza a pesar.
Es cierto que la regulación de la IA no es solo deseable, sino que será eventualmente necesaria. Un marco normativo adecuado podría generar un ambiente propicio para este balance, proporcionando seguridad jurídica, atrayendo la inversión extranjera y otorgando protección a los ciudadanos. Sin embargo, este marco debe equilibrar la protección de derechos con la flexibilidad para no sofocar el desarrollo tecnológico.
Análisis de los proyectos de ley
2.1 Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en Ecuador (Proyecto 1)
Se trata de un proyecto de ley presentado por la asambleísta Silvia Núñez el 20 de junio de 2024. El Proyecto 1 tiene como intención satisfacer la necesidad de control que ha surgido en torno a la IA, entendiendo que su omnipresencia es inevitable. Es el proyecto más extenso y complejo de los 3 presentados hasta el momento.
El Proyecto 1 parte de un enfoque proteccionista a los derechos humanos y constitucionales, en el marco del uso de la IA. En línea con esta óptica, busca también garantizar la educación y fomento de capacidades para la utilización de estas herramientas, para lo cual propone acciones estructuradas para el diseño de planes educativos como profesionales. Además, busca regular las intersecciones de la IA con áreas críticas como la libre competencia, el consumo, la protección de datos y la transformación digital en Ecuador. Algo que vale la pena recalcar, es que el Proyecto 1 incorpora y explica conceptos técnicos e informáticos detallados, que denotan cierta profundidad en el mapeo del área que se intenta regular (a pesar de que sigue en entredicho la pertinencia de ese abordaje para Ecuador).
No obstante, el Proyecto 1 cuenta con varios aspectos preocupantes, que amenazan con ahogar el desarrollo de la IA a través de una innecesaria hiperregulación. Se evidencia una falta de conexión con la realidad nacional en la materia. Como se mencionó antes, se trata de un proyecto complejo que, de implementarse, requerirá un aparataje estatal sólido, recursos humanos y económicos, y experticia que actualmente Ecuador no posee. Asimismo, el Proyecto 1 atenta contra la institucionalidad y competencias estatales a cargo del Ministerio de Telecomunicaciones, la Superintendencia de Protección de Datos Personales, la Defensoría del Pueblo, la Superintendencia de Competencia Económica, entre otras, sin aclarar los roles que desempeñará cada una, generando una1 potencial dilución de responsabilidades.
Asimismo, el proyecto cuenta con referencias a lo “proporcional”, “adecuado”, “razonable” y “sustancial”, sin establecer mecanismos para la definición de dichos estándares. Tal vez, el problema más grave con el Proyecto 1 es el haber obviado mecanismos que ya existen como los sandboxes regulatorios (Ley de Transformación Digital y Audiovisual) o zonas francas (Ley Orgánica de Eficiencia Económica y Generación de Empleo), que pueden ser interesantes esquemas de atracción de inversiones relacionadas con IA.
En resumen, el esquema propuesto termina siendo excesivo e inflexible frente a una materia que está en constante evolución y no puede ser sofocada por regulaciones excesivas en su etapa inicial. El Proyecto 1 amenaza con ahogar el futuro de la IA en Ecuador, incluso antes de que esta pueda empezar a navegar.
2.2 Proyecto de Ley para el Fomento y Desarrollo de la Inteligencia Artificial (Proyecto 2)
Este proyecto de ley fue presentado por la asambleísta Karina Subía el 30 de julio de 2024. Sorprende su brevedad y aparente concisión al tratar la materia, siendo un asunto altamente técnico del que hay mucho por decir.
El enfoque que se utiliza en el Proyecto 2 es apuntar a una regulación para la IA que aproveche instituciones y leyes ya existentes en Ecuador, como los sandboxes regulatorios, Ley de Emprendimiento, e incluso incentivos tributarios para las inversiones, ya contemplados en el Código de Producción, Comercio e Inversiones. El Proyecto 2 se enfoca en identificar áreas de alto riesgo para el uso de la IA, como el reconocimiento facial y las decisiones automatizadas en salud, centrando sus esfuerzos regulatorios en el riesgo que ellos representan.
A pesar de lo anterior, el proyecto podría pecar de superficial y ser una mera declaración de buenas intenciones. Como ya se ha dicho, es sumamente breve y se refiere a aspectos puntuales, pero no profundiza ni ejecuta una verdadera tarea regulatoria. Igualmente, es bastante reiterativo sobre disposiciones que ya se han recogido en otras leyes. Sin poderse ahondar mucho más en esta propuesta, se levantan serias preguntas en cuanto a la labor investigativa y técnica regulatoria empleadas, así como sobre la necesidad de siquiera analizarla.
2.3 Proyecto de Ley Orgánica de Aprovechamiento Digital e Inteligencia para niñas, niños y adolescentes (Proyecto 3)
El Proyecto 3 fue presentado por la asambleísta Pierina Correa el 17 de septiembre de 2024. Su alcance busca proteger a la niñez y adolescencia frente al uso de nuevas tecnologías, entre ellas, la IA. Básicamente, se pretende regular la IA, primordialmente para niños y adolescentes, a pesar de que no es dicho grupo quien más contacto tiene con esta tecnología2 (Bissoondath, 2024).
No se niega el propósito noble que tiene el Proyecto 3, al buscar proteger a niños y adolescentes, entre quienes el uso de la tecnología inicia a edades cada vez más tempranas. En esta misma línea, el proyecto promueve el uso de la IA en salud y educación, bajo lineamientos generales. Es positivo que también se hayan contemplado incentivos fiscales para la investigación en materia de IA, así como apoyo técnico y financiero para empresas emergentes de IA. El proyecto asimismo cuenta con una delimitación de IA de alto riesgo, sobre la cual pretende concentrar sus esfuerzos regulatorios (sin conseguirlo del todo).
Lamentablemente, el Proyecto 3 no mantiene su enfoque en niñas, niños y adolescentes y dispone, en gran parte, una regulación generalizada para la IA. Si bien se incorporan conceptos técnicos que pueden resultar educativos, estos no son instrumentales para el proyecto, ya que no se los vuelve a mencionar en adelante. El Proyecto 3 igualmente excluye del alcance regulatorio a los fines investigativos, IA de código abierto o uso personal, que podrían comportar alto riesgo. Como si ello no bastara, incluye una disposición letal bajo un estándar de “transparencia” exigiendo que las empresas revelen datos y algoritmos utilizados, sin mayor restricción. Esto podría poner en riesgo secretos empresariales y ventajas competitivas, eventualmente distorsionando mercados. En línea con los errores que se comete en los otros proyectos, existe un desorden en cuanto a las instituciones competentes para implementar lo dispuesto por el Proyecto 3. Además de ello, se crea la Autoridad Nacional de Supervisión de IA (ANSIA), a la cual se le asignan competencias del Ministerio de Producción, Superintendencia de Protección de Datos Personales, Ministerio de Ambiente, etc.
Finalmente, el Proyecto 3 no resulta instrumental para la efectiva protección de menores de edad. Se contemplan demasiadas obligaciones de información a los niños y adolescentes, que podrían resultar innecesarias e inútiles, dado que dicho grupo no necesariamente cuenta con el entendimiento para beneficiarse de esa apertura informativa3 (Benselin, 2015) (Grgić & Martinović, 2023). Se requiere, además, establecer controles en los sistemas de IA de acuerdo a la edad y desarrollo de este grupo poblacional. Sin embargo, no es posible saber a ciencia cierta la edad de los usuarios de IA, e incluso si se llega a mapearlo, el desarrollo de cada grupo, no es homogéneo. Con esto en mente, para operar en Ecuador, muchos gigantes tecnológicos deberán implementar costosos ajustes, a veces solamente por precaución. Esto no acompaña una óptica de negocios, por lo cual terminaremos ahuyentando importantes oportunidades de inversión y desarrollo tecnológico
Conclusiones y Recomendaciones
El manejo regulatorio de la IA en Ecuador es un tema prioritario que requiere un enfoque equilibrado y adaptable. Para lograr definir ese enfoque, es importante realizar de forma urgente una evaluación de impacto general de la IA en Ecuador. Posteriormente, se deberá mapear las capacidades institucionales actuales y estructuras legales vigentes, para determinar qué se puede utilizar. Todo esto deberá realizarse siempre con un equilibrio entre libertad y regulación, bajo la máxima de que lo que se busca es regular los riesgos y no necesariamente la herramienta como tal. No debemos olvidar la importancia de educarnos como población al respecto de estas herramientas y poder trabajar en ambientes colaborativos, que enriquezcan el panorama regulatorio.
Quedan muchas preguntas aún, pero por ahora, queda claro que en materia de regulación de la IA, el punto de partida no puede ser la sobrecarga normativa ni la superficialidad de buena voluntad.
1 Según la Ley de Transformación Digital y Audiovisual, un sandbox es un mecanismo regulatorio provisional que permite probar productos, servicios, soluciones, implementación de tecnologías emergentes, nuevos marcos regulatorios, pruebas de competencia en el mercado, comportamientos del mercado, nuevos modelos de negocios, entre otros, bajo un conjunto de exenciones técnicas, económicas, tributarias y regulatorias.
2 El reporte “Artificially Intelligent? Children's and parents' views on generative AI in education” levanta estadísticas que ilustran que son los adultos quienes más usan herramientas de IA (Chat GPT, Replika, Gemini, DALL-E, entre otras), en contraste con niños y adolescentes de 11-17 años, con excepción de My AI by Snapchat, que es más usada por estos últimos, al ser una aplicación diseñada para ellos.
3 La autora concluye que la gente en edades más jóvenes podría verse afectada por niveles más bajos de “alfabetización informacional”, lo que les haría sentirse sobrecargados al recibir volúmenes significativos de información, mucho más en contextos altamente tecnológicos. Toma para ello la noción de alfabetización informacional dada por el Chartered Institute of Library and Information Professionals (CILIP) en 2013, que comprende el saber cuándo y por qué se necesita información, dónde encontrarla, y cómo evaluarla, utilizarla y comunicarla de manera ética. Incluso, las expertas Grgić y Martinović, han mencionado que, por ejemplo, un niño de ocho años de edad aún tiene dificultad para comprender plenamente el concepto de lo que es la información.
Bibliografía:
Benselin, J. C., & Ragsdell, G. (2016). Information overload: The differences that age makes. Journal of Librarianship and Information Science, 48(3), 284–297. https://doi.org/10.1177/0961000614566341
Bissoondath, A. (2024). Artificially Intelligent? Children’s and parents’ views on generative AI in education. https://www.internetmatters.org/es/hub/research/generative-ai-in-education-report/#full-report
Grgić, M. & Martinović, I. (2023, October). Information Literacy Skills of Children in The Early School Years. https://inlitas.org/information-literacy-skills-of-children-in-the-early-school-years/
OCDE. (2019). Recomendación sobre la Inteligencia Artificial. Recuperado el 1 de octubre de 2024, de https://legalinstruments.oecd.org/api/download/?uri=/public/db5053b5-93e0-4cf5-a7cf-edce5ee6e893.pdf
Proyecto de Ley Orgánica de Aprovechamiento Digital e Inteligencia para niñas, niños y adolescentes (Proyecto 3).
Proyecto de Ley para el Fomento y Desarrollo de la Inteligencia Artificia.l (Proyecto 2)
Proyecto de Ley Orgánica de Regulación y Promoción de la Inteligencia Artificial en Ecuador (Proyecto 1).
Rouhiainen L. (2021). Artificial intelligence: 101 things you must know today about our future. Kim Dong.
UNDP. (2024). El Ecuador se enrumba a aprovechar la Inteligencia Artificial bajo un enfoque de inclusión. Recuperado el 3 de octubre de 2024, de https://www.undp.org/es/ecuador/comunicados-de-prensa/el-ecuador-se-enrumba-aprovechar-la-inteligencia-artificial-bajo-un-enfoque-de-inclusion