CLAVES

Jueces del Reino Unido advierten a abogados sobre riesgos de usar citas legales falsas generadas por IA

Legal AI

OpenAI | Martes 10 de junio de 2025

El High Court del Reino Unido ha advertido a los abogados sobre el uso de argumentos legales generados por inteligencia artificial que incluyen citas de casos ficticios, lo que pone en riesgo la integridad del sistema judicial. Un abogado citó 18 casos inexistentes en una demanda de £90 millones, mientras que otro hizo referencia a cinco casos fabricados en un reclamo de vivienda. Los jueces han señalado que el mal uso de la IA podría resultar en cargos criminales, como el de obstrucción a la justicia, que conlleva penas severas. Este fenómeno no es exclusivo del Reino Unido, ya que se han reportado incidentes similares en Estados Unidos, Australia y Canadá, lo que genera preocupaciones sobre la distorsión de la verdad en el ámbito legal. La advertencia subraya la incapacidad de herramientas como ChatGPT para realizar investigaciones legales confiables, destacando tasas alarmantes de "alucinaciones" donde se generan información falsa.



Recientemente, el Tribunal Superior del Reino Unido emitió una advertencia a los abogados tras la presentación de argumentos legales generados por inteligencia artificial que contenían citas de casos ficticios. Esta situación plantea serias preocupaciones sobre la integridad del sistema judicial. En un caso notable, un abogado citó 18 casos inexistentes en una demanda de 90 millones de libras contra Qatar National Bank, mientras que otro hizo referencia a cinco casos fabricados en una reclamación de vivienda.

La jueza Victoria Sharp subrayó que el uso indebido de la inteligencia artificial podría acarrear cargos criminales, incluyendo el delito de obstrucción a la justicia, que puede conllevar penas de prisión perpetua. Este fenómeno revela una tendencia alarmante entre los abogados que confían ciegamente en herramientas como ChatGPT para redactar documentos legales críticos, solo para descubrir posteriormente que estas tecnologías han "hallucinado" leyes enteras.

Consecuencias del engaño tecnológico

En uno de los casos mencionados, el demandante Hamad Al-Haroun admitió haber utilizado "herramientas de inteligencia artificial disponibles públicamente" para generar investigaciones legales para su demanda. El software no solo inventó casos falsos, sino que también malcitó otros reales, lo que invalidó sus argumentos. Su abogado, Abid Hussain, reconoció haber confiado más en su cliente que en su propia formación legal para verificar la investigación presentada.

En otro incidente, la abogada Sarah Forey citó precedentes inexistentes en una reclamación de vivienda. Aunque negó haber utilizado intencionalmente inteligencia artificial, aceptó que pudo haber absorbido resúmenes generados por AI mientras navegaba en línea. La corte le reprochó por no verificar las citas en archivos nacionales o en la biblioteca jurídica correspondiente, una obligación profesional básica.

La jueza Sharp advirtió sobre las graves implicaciones para la administración de justicia y la confianza pública si se hace un uso inapropiado de la inteligencia artificial. Destacó que herramientas como ChatGPT "no son capaces de realizar investigaciones legales fiables" y tienden a proporcionar respuestas coherentes pero incorrectas, incluyendo fuentes y citas fabricadas.

Crisis legal global impulsada por AI

Este problema no se limita al Reino Unido. En Nueva York, la abogada Jae Lee citó un caso ficticio relacionado con abortos creado por ChatGPT, lo que llevó a su remisión para acciones disciplinarias. Otra firma estadounidense fue multada con 5,000 dólares tras presentar "palabrería incoherente" generada por AI en una demanda contra una aerolínea. Escándalos similares han surgido en Australia, Canadá y Dinamarca, donde jueces han sorprendido a abogados presentando fallos inventados por inteligencia artificial.

Más allá de las irregularidades judiciales, esta situación revela una verdad más oscura: la inteligencia artificial está siendo utilizada para distorsionar la realidad en ámbitos como el derecho, los medios y el gobierno. Las similitudes con la corrupción corporativa y gubernamental son innegables. Si los abogados, quienes tienen el deber ético de defender la verdad, pueden ser engañados por sistemas de inteligencia artificial, ¿qué esperanza tienen los ciudadanos comunes frente a propaganda generada por AI o documentos falsificados?

Fuentes consultadas:

RT.com

DailyMail.co.uk

TheGuardian.com

NYTimes.com

La noticia en cifras

Cifra Descripción
18 Número de casos inexistentes citados por un abogado en un juicio.
5 Número de casos fabricados referenciados por otro abogado.
£90 millones Cantidad involucrada en el juicio mencionado.
51% a 79% Tasa de "alucinaciones" admitida por OpenAI para ChatGPT.

TEMAS RELACIONADOS:


Noticias relacionadas