LX

Cargando...

LEXIS Blog

Los desafíos actuales de la inteligencia artificial en el mundo jurídico: responsabilidad y protección de datos personales

viernes, 6 de octubre de 2023
10 min de lectura

La inteligencia artificial (IA) es una herramienta poderosa que ha transformado numerosos aspectos de la sociedad moderna, y su presencia en el campo del derecho no es una excepción. El presente artículo explora tres temáticas fundamentales que se manifiestan en la intersección entre la IA y el ámbito legal. En primer lugar, se examinará el modo en que la IA puede influenciar la toma de decisiones y los riesgos potenciales que ello conlleva para los derechos fundamentales de las personas. Posteriormente, se analizará la responsabilidad ética y legal tanto de las empresas que desarrollan IA, como de sus usuarios, subrayando la relevancia de la protección de datos personales en dicho contexto. Finalmente, se analizará el rol desempeñado por los abogados en la era de la IA y cómo deben armonizar la adopción de esta tecnología con sus deberes éticos y legales.

Los sesgos de la IA y la vulneración a derechos fundamentales

La creciente evolución de la IA plantea una serie de desafíos cruciales relacionados con los sesgos que pueden afectar su funcionamiento y, por consiguiente, los derechos fundamentales de las personas. Estos sesgos pueden manifestarse de diversas maneras. 

La IA se entrena utilizando conjuntos de datos que a menudo reflejan sesgos inherentes a la sociedad, como prejuicios de género, raza o clase, lo que puede llevar a que la IA reproduzca y amplifique estos sesgos de forma perjudicial. Lo anterior depende de la creación y optimización de algoritmos de la IA, pues si no se corrige la elección de datos con los que ésta se entrena, pueden perpetuarse disparidades y resultados parciales y poco representativos. Entonces, el sesgo producido en las decisiones de la IA puede amenazar los derechos fundamentales, como la justicia, la transparencia y la privacidad, destacando la necesidad de una regulación y aplicación ética rigurosa en la implementación de la IA.

El Informe A9-0088/2022 del Parlamento Europeo1 señala que los sesgos en la inteligencia artificial, especialmente en el aprendizaje profundo o Deep Learning, surgen debido a la falta de datos de entrenamiento y de prueba, diversos y de calidad. Esto puede ocurrir, por ejemplo, cuando los conjuntos de datos no representan adecuadamente a grupos vulnerables, cuando la definición de la tarea muestra sesgos o cuando la falta de diversidad en los equipos de desarrollo refuerza dichos sesgos. El Parlamento sostiene que es necesario aplicar medidas técnicas y controles en los sistemas de IA, incluyendo software, algoritmos y datos elaborados por estos, para minimizar el riesgo y promover la igualdad de derechos. Además, destaca la importancia de utilizar datos personales con fines de entrenamiento y aprendizaje, limitados por el cumplimiento de la normativa aplicable a la materia, para reducir los sesgos en los sistemas de IA.

La IA es tan capaz como los datos con los que se la alimenta. Si esos datos están sesgados o incompletos, la IA puede generar resultados erróneos o tomar decisiones que discriminan inadvertidamente. Por ejemplo, en el caso Wisconsin vs. Loomis2, se evidenció un sesgo racial en Compass, un algoritmo de aprendizaje automático utilizado por la Administración de Justicia de EE. UU. para evaluar la reincidencia en casos penales, ya que tendía a predecir un mayor riesgo de reincidencia en individuos de raza negra. Asimismo, Amazon empleó un algoritmo de aprendizaje profundo en sus procesos de selección de personal, el cual, al notar la escasa representación de mujeres en las etapas finales de entrevistas, comenzó a rechazar de manera sistemática los currículos de mujeres, lo que planteó un precedente de discriminación de género en el ámbito laboral3

Responsabilidad ética y legal en el uso y desarrollo de la IA

En este punto, es fundamental destacar las obligaciones legales que recaen sobre los modelos de inteligencia artificial y las empresas o desarrolladores que las controlan. Estas entidades no solo tienen la responsabilidad ética, sino también la obligación legal de cumplir de manera estricta con la normativa vigente en materia de protección de datos personales. Esto implica dar cumplimiento a los principios, normas y buenas prácticas de protección de datos a nivel global, como, por ejemplo, establecer políticas de privacidad transparentes, políticas de cookies claras y términos y condiciones fácilmente accesibles para los usuarios. 

Un estudio del Berkman Klein Center for Internet & Society ha identificado que existen al menos 47 principios relacionados con la ética en el desarrollo de IA, respaldados por diversos actores como gobiernos, organizaciones internacionales, empresas y organizaciones sin fines de lucro. Entre estos principios clave se encuentran la privacidad, responsabilidad, seguridad, transparencia, justicia, no discriminación y el control humano de la tecnología, que guardan una estrecha relación con la protección de datos personales y los principios que regulan esta materia. Aunque existe consenso en estos principios, su interpretación y aplicación varían según el contexto y la entidad que los promueve.

En 2021, la UNESCO adoptó la "Recomendación sobre la ética de la inteligencia artificial"4, que se configura como el primer marco normativo universal sobre ética en la IA, adoptado por todos los Estados miembros, incluido entre ellos Ecuador. Este instrumento no sólo establece los principios éticos, sino que también se centra en la implementación práctica mediante recomendaciones de políticas específicas, destacando la inclusión, la igualdad de género y la protección de datos personales como áreas clave transversales de atención.

La legislación y doctrina vigente buscan garantizar que la IA opere dentro de los límites legales y proteja los derechos de privacidad de las personas; sin embargo, la responsabilidad no se limita únicamente a regular la actuación de empresas o desarrolladores de modelos de inteligencia artificial; también se extiende a los individuos que la utilizan y le proporcionan datos personales, ya que tienen la obligación de hacerlo de conformidad con las regulaciones establecidas para garantizar la protección de la información personal compartida.

El rol de los abogados en la era de la IA y la protección de datos personales

En el mundo legal, la IA se ha convertido en una herramienta invaluable. Los abogados pueden utilizarla, por ejemplo, para analizar grandes volúmenes de información y descubrir patrones en expedientes judiciales, lo que puede resultar en una ventaja estratégica en litigios. Incluso en consultas legales rutinarias, los chatbots pueden proporcionar respuestas rápidas y precisas a sus usuarios. Sin embargo, esta utilidad no exime a los abogados de responsabilidades éticas y legales, estrechamente relacionadas con la protección de datos de los clientes.

Los abogados tienen la obligación de manejar la información de sus clientes con la máxima diligencia y ética. Cuando se utiliza IA en la práctica legal, es crucial informar a los clientes sobre su uso y obtener su consentimiento en casos que así lo requieran. Además, se debe limitar la recopilación y el uso de datos personales a lo estrictamente necesario para la finalidad prevista, y mantener registros detallados de todos los tratamientos de datos realizados. Todas estas medidas se alinean con los principios y obligaciones establecidos en la normativa tanto nacional como internacional de protección de datos.

Tal es el caso de Allen & Overy, un bufete de abogados en Londres que, en febrero del presente año, anunció que ha adoptado oficialmente una plataforma de IA llamada Harvey basada en los modelos de OpenAI. Esta herramienta funciona bajo el formato de un chatbot, que se enfoca en producir borradores legales para los abogados, permitiendo un ahorro de tiempo significativo. Allen & Overy asegura que actualmente no emplean datos personales en el uso de Harvey, y que lo harán en un futuro únicamente si se garantiza una protección adecuada y aislamiento de otros usos5

En Ecuador, nos encontramos ante un riesgo a nivel nacional debido a la carencia de regulaciones adecuadas para el uso de la IA. Aunque la Política para la Transformación Digital del Ecuador y la Agenda de Transformación Digital de 2022 mencionan la necesidad de regular y promover esta herramienta tecnológica, lamentablemente, hasta la fecha, estas iniciativas se han centrado principalmente en su promoción, sin establecer lineamientos concretos ni prácticas que fomenten su aplicación de manera efectiva y segura. Es imperativo que avancemos hacia una regulación sólida que garantice la ética y la seguridad en el uso de la IA en nuestro país.

En resumen, actualmente la convergencia de la IA con el ámbito jurídico ha generado desafíos cruciales relacionados con la protección de datos personales y la responsabilidad legal de las partes involucradas en su uso. La IA puede exacerbar sesgos perjudiciales si no se maneja adecuadamente, lo que amenaza y puede resultar en afectación de los derechos fundamentales de las personas. La protección de datos es un elemento clave, y las empresas y desarrolladores de IA tienen la responsabilidad legal y ética de garantizar el cumplimiento de las normativas nacionales e internacionales, así como buenas prácticas relacionadas.

Los abogados modernos debemos educarnos respecto de la IA con responsabilidad y ética, garantizando que usarla no comprometa los derechos y libertades de nuestros clientes. La aplicación de conocimientos jurídicos, sumados a la comprensión tecnológica y al compromiso inexorable con la ética legal, son elementos esenciales para enfrentar los desafíos y aprovechar las oportunidades que la IA presenta en la sociedad actual.


1 Comisión Especial sobre Inteligencia Artificial en la Era Digital, Informe - A9-0088/2022 del Parlamento Europeo, 5 de abril de 2022.

2 Sentencia del 13 de julio de 2016: State v. Loomis, 881, N.W.2d 749, 7532 (Wis, 2016).  

3 BBC News Mundo. "El algoritmo de Amazon al que no le gustan las mujeres”, https://www.bbc.com/mundo/noticias-45823470. Publicado el 11 de octubre, 2018.

4 UNESCO. “Recomendación sobre la ética de la inteligencia artificial”, adoptada el 23 de noviembre de 2021. Unesdoc.unesco.org. https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa.

5 Stokel-Walker, Chris. "Generative AI is Coming for the Lawyers." Wired UK, https://www.wired.co.uk/article/generative-ai-is-coming-for-the-lawyers, 21 de febrero, 2023.

María Paula Arellano
Sobre el autor
Abogada, especializada en protección de datos personales. Amplia experiencia en asesoramiento a empresas nacionales e internacionales sobre cumplimiento normativo en Ecuador para la implementación de la Ley Orgánica de la Protección de Datos Personales.