LX

Cargando...

LEXIS Blog

Sergio X. Peralta Armas
Autor
Abogado y Mediador. Candidato a Máster en Trabajo Social mención Bienestar Social (UTC), Doctorando en Administración de Empresas (UIIX-México), Especialista Jurídico en LEXIS S.A, Áreas de Práctica: Derecho de Familia, Derecho Civil e Inmobiliario.

El riesgo del uso irresponsable de la IA en la litigación: Comentario a la sentencia Ayinde v Haringey y Al-Haroun v Qatar National Bank ([2025] EWHC 1383)

jueves, 11 de septiembre de 2025
5 min de lectura

En torno a una visión general

El Derecho, como disciplina, nunca ha sido ajeno a los cambios tecnológicos. A lo largo de la historia, cada avance ha dejado su huella: desde la imprenta, que permitió difundir los primeros códigos, hasta la digitalización de expedientes y el uso de bases de datos en línea para acceder a normativa y jurisprudencia. Hoy, nos encontramos frente a un nuevo desafío: la irrupción de la inteligencia artificial en la práctica jurídica.


La sentencia dictada el 6 de junio de 2025 por la High Court of Justice de Londres en los casos Ayinde v Haringey y Al-Haroun v Qatar National Bank se inscribe en el siguiente contexto; la Corte no solo examinó errores procesales, sino que abrió un debate profundo sobre el papel que la IA puede —o no debe— desempeñar dentro de los juzgados y tribunales. Lo que a primera vista parecía una cuestión de simples equivocaciones en citas legales, en realidad reveló un fenómeno preocupante: abogados que depositan en la tecnología una confianza ciega, sin verificar la autenticidad de la información presentada.


Este fallo nos invita a reflexionar sobre algo más grande que el caso en sí; nos recuerda que, por más sofisticadas que sean las herramientas digitales, la responsabilidad última de garantizar la verdad procesal sigue recayendo en el profesional del Derecho. La justicia necesita innovación, sí, pero jamás puede renunciar a su esencia: la certeza, la ética y la confianza pública en quienes ejercemos la abogacía.


Antecedentes del caso

El proceso que dio lugar a la sentencia acumulada [2025] EWHC 1383 expuso una realidad preocupante, en el primer asunto, Ayinde v Haringey, se discutía la negativa de una autoridad local a conceder alojamiento provisional a un solicitante mientras se resolvía la revisión de su situación de vivienda. Lo llamativo fue que los escritos de la parte demandante incorporaron citas jurisprudenciales que, al ser verificadas, resultaron inexistentes o incorrectas.


En paralelo, en Al-Haroun v Qatar National Bank, el panorama fue aún más delicado: los documentos presentados contenían decenas de referencias a supuestos precedentes, muchos de los cuales nunca habían sido dictados o, en su defecto, no tenían ninguna conexión con el debate jurídico planteado. No se trataba de una omisión aislada, sino de una serie de apoyos ficticios que pretendían sostener los argumentos de la parte actora.


Lo que agravó el cuadro no fue únicamente la invocación de fallos inexistentes, sino la manera en que los profesionales intentaron explicar lo sucedido. En vez de reconocer con franqueza el error, se calificó la situación como un tema “cosmético” o “secundario”. El tribunal fue categórico al rechazar esta postura: para la justicia, la exactitud de las citas y la seriedad de los fundamentos no son un adorno, sino la base misma del proceso.


En definitiva, lo que parecía un problema de técnica procesal puso en evidencia algo mayor: la falta de control en el uso de herramientas tecnológicas. Cuando la inteligencia artificial se utiliza sin verificación ni criterio, la consecuencia no es solo un error en el expediente, sino un golpe directo a la confianza que la sociedad deposita en la labor de los abogados y en la solidez del sistema judicial.


La Corte: El razonamiento de la High Court y su análisis

Al analizar los hechos, la High Court fue contundente: lo ocurrido no podía calificarse como un simple error de forma. El tribunal señaló que la credibilidad del sistema judicial depende de que los abogados presenten únicamente información veraz y verificable. Cualquier desviación en ese deber compromete no solo a los litigantes, sino a la confianza pública en la administración de justicia.


La Corte distinguió entre el potencial de la inteligencia artificial y los límites de su utilización. Reconoció que estas herramientas pueden resultar útiles para la gestión documental o la organización de grandes volúmenes de información, pero advirtió que no son fiables para realizar investigación jurídica autónoma. La razón es técnica y ética a la vez: los modelos generativos pueden construir textos convincentes, pero carecen de capacidad para diferenciar entre lo verdadero y lo ficticio.


De ahí que el tribunal insistiera en tres principios rectores:

  • Deber de verificación. Ningún abogado puede descargar en una herramienta tecnológica la obligación de comprobar que las fuentes citadas existen y son pertinentes. El contraste con repositorios oficiales y jurisprudencia publicada es un paso irrenunciable.

  • Responsabilidad personal y colectiva. No basta con culpar a la falta de experiencia o a la sobrecarga laboral. El abogado responde individualmente por lo que firma, pero también existen deberes de supervisión en despachos, cámaras y centros de práctica profesional.

  • Protección de la confianza pública. La administración de justicia solo funciona si la sociedad cree en la seriedad de los procesos. Permitir la circulación de jurisprudencia inventada equivale a minar los cimientos del sistema.


En suma, el tribunal convirtió un incidente puntual en una advertencia con alcance general: el uso de la inteligencia artificial en la litigación debe ir acompañado de rigor, prudencia y ética, pues de lo contrario puede derivar en sanciones disciplinarias, responsabilidades económicas e incluso consecuencias penales.


Factor ético y disciplinario

Uno de los aportes más valiosos de esta sentencia es que trasciende los casos concretos para reflexionar sobre la responsabilidad profesional en tiempos de innovación tecnológica. El tribunal recordó que la abogacía se sostiene sobre un principio esencial: la confianza. Y esa confianza se construye no solo con conocimientos técnicos, sino con el respeto a la ética y al deber de lealtad hacia el cliente, la contraparte y, sobre todo, hacia la justicia.


El fallo dejó en claro que las consecuencias de incluir información falsa en un proceso no se limitan a un llamado de atención. Dependiendo de la gravedad, las sanciones pueden ir desde la imposición de costas y amonestaciones públicas hasta la remisión de antecedentes a los colegios profesionales o, en casos extremos, a la autoridad penal por obstrucción a la justicia. Esta advertencia marca un antes y un después: el descuido en el manejo de nuevas tecnologías ya no puede considerarse un simple error excusable, sino una falta disciplinaria susceptible de generar responsabilidad.


Otro aspecto relevante es la mirada institucional que introduce la Corte. No solo se examina la actuación individual del abogado que firma el escrito, sino también el rol de las estructuras de supervisión: despachos, cámaras y centros de formación tienen el deber de establecer controles internos para evitar que se presenten documentos sin la debida verificación. La sentencia coloca así la lupa sobre la dimensión colectiva de la ética profesional, recordando que la falta de supervisión también puede convertirse en una forma de negligencia.


En definitiva, lo que está en juego no es únicamente la corrección de un escrito judicial, sino la imagen de la profesión y la legitimidad del sistema de justicia. El mensaje es contundente: la innovación tecnológica es bienvenida, pero nunca puede convertirse en excusa para abdicar del rigor ético que define a la abogacía.


El Derecho: Desde la Práxix en la profesión jurídica

El valor de esta sentencia no reside únicamente en la sanción impuesta a los profesionales involucrados, sino en las lecciones prácticas que proyecta hacia toda la comunidad jurídica. La decisión actúa como un recordatorio de que el ejercicio de la abogacía exige mucho más que dominar las normas y precedentes: demanda disciplina, rigor y, sobre todo, responsabilidad en cada palabra que se coloca en un escrito procesal.


Para los abogados litigantes, la primera enseñanza es clara: cada cita debe ser comprobada. No basta con copiar referencias aparentemente correctas; el deber profesional exige contrastarlas en bases oficiales de jurisprudencia o en repositorios académicos reconocidos. En un mundo donde la información circula con rapidez, el control de calidad se convierte en un acto de ética y no en una formalidad.


En el ámbito de los despachos, la sentencia impulsa la creación de protocolos internos de verificación. No se trata solo de confiar en la buena fe del profesional que redacta, sino de instaurar mecanismos de control que garanticen que ningún documento llegue al tribunal sin un respaldo sólido. Ello fortalece la imagen institucional y protege tanto a los clientes como a la reputación del estudio jurídico.


Para la academia, este caso abre una oportunidad de repensar la formación jurídica. Las facultades de Derecho deben incluir en sus programas no solo cursos de tecnología aplicada al Derecho, sino también espacios de reflexión ética sobre los riesgos de la inteligencia artificial. Formar abogados capaces de usar estas herramientas con criterio y prudencia es una tarea impostergable.


Finalmente, para los jueces y tribunales, la sentencia es una advertencia sobre la necesidad de mantener la vigilancia. El control judicial frente a escritos basados en material falso no solo preserva la integridad del proceso, sino que también envía un mensaje de firmeza: el sistema no tolerará prácticas que comprometan la confianza en la justicia.
En síntesis, las implicaciones prácticas de este fallo son múltiples y convergen en una misma idea: la tecnología puede ser aliada, pero nunca excusa. El abogado sigue siendo el primer responsable de garantizar la calidad y autenticidad de los argumentos que defiende.


Conclusiones

La sentencia en los casos Ayinde v Haringey y Al-Haroun v Qatar National Bank constituye un verdadero parteaguas en la discusión sobre el papel de la inteligencia artificial dentro de la litigación. No se trató únicamente de señalar errores en las citas jurídicas, sino de reafirmar un principio que atraviesa la profesión desde sus orígenes: la palabra del abogado ante un tribunal debe ser sinónimo de rigor, veracidad y ética.

El mensaje de la High Court es claro: la tecnología puede ser un apoyo, pero jamás un sustituto de la responsabilidad profesional. El abogado que traslada sin supervisión su labor de investigación a un algoritmo no solo incumple con su deber de diligencia, sino que también pone en riesgo la confianza pública en la justicia. Y esa confianza, frágil por naturaleza, constituye el fundamento mismo del sistema judicial.


Para quienes ejercemos en América Latina, este fallo es una advertencia y a la vez una oportunidad. Advertencia, porque muestra cómo un uso descuidado de la IA puede erosionar la credibilidad de la profesión; oportunidad, porque nos permite anticiparnos y establecer protocolos claros antes de que el problema se generalice en nuestra región.

En definitiva, la enseñanza es inequívoca: la innovación tecnológica debe caminar de la mano de la ética. Los algoritmos pueden ayudar a organizar información, pero solo el criterio humano, sostenido en la formación académica y en el compromiso ético, puede garantizar que la justicia se administre con legitimidad. La sentencia nos recuerda que el Derecho es, ante todo, una profesión de confianza. Y esa confianza nunca puede delegarse a una máquina.
 

Compartir Blog