Recientemente, el Tribunal Superior del Reino Unido emitió una advertencia a los abogados tras la presentación de argumentos legales generados por inteligencia artificial que contenían citas de casos ficticios. Esta situación plantea serias preocupaciones sobre la integridad del sistema judicial. En un caso notable, un abogado citó 18 casos inexistentes en una demanda de 90 millones de libras contra Qatar National Bank, mientras que otro hizo referencia a cinco casos fabricados en una reclamación de vivienda.
La jueza Victoria Sharp subrayó que el uso indebido de la inteligencia artificial podría acarrear cargos criminales, incluyendo el delito de obstrucción a la justicia, que puede conllevar penas de prisión perpetua. Este fenómeno revela una tendencia alarmante entre los abogados que confían ciegamente en herramientas como ChatGPT para redactar documentos legales críticos, solo para descubrir posteriormente que estas tecnologías han "hallucinado" leyes enteras.
Consecuencias del engaño tecnológico
En uno de los casos mencionados, el demandante Hamad Al-Haroun admitió haber utilizado "herramientas de inteligencia artificial disponibles públicamente" para generar investigaciones legales para su demanda. El software no solo inventó casos falsos, sino que también malcitó otros reales, lo que invalidó sus argumentos. Su abogado, Abid Hussain, reconoció haber confiado más en su cliente que en su propia formación legal para verificar la investigación presentada.
En otro incidente, la abogada Sarah Forey citó precedentes inexistentes en una reclamación de vivienda. Aunque negó haber utilizado intencionalmente inteligencia artificial, aceptó que pudo haber absorbido resúmenes generados por AI mientras navegaba en línea. La corte le reprochó por no verificar las citas en archivos nacionales o en la biblioteca jurídica correspondiente, una obligación profesional básica.
La jueza Sharp advirtió sobre las graves implicaciones para la administración de justicia y la confianza pública si se hace un uso inapropiado de la inteligencia artificial. Destacó que herramientas como ChatGPT "no son capaces de realizar investigaciones legales fiables" y tienden a proporcionar respuestas coherentes pero incorrectas, incluyendo fuentes y citas fabricadas.
Crisis legal global impulsada por AI
Este problema no se limita al Reino Unido. En Nueva York, la abogada Jae Lee citó un caso ficticio relacionado con abortos creado por ChatGPT, lo que llevó a su remisión para acciones disciplinarias. Otra firma estadounidense fue multada con 5,000 dólares tras presentar "palabrería incoherente" generada por AI en una demanda contra una aerolínea. Escándalos similares han surgido en Australia, Canadá y Dinamarca, donde jueces han sorprendido a abogados presentando fallos inventados por inteligencia artificial.
Más allá de las irregularidades judiciales, esta situación revela una verdad más oscura: la inteligencia artificial está siendo utilizada para distorsionar la realidad en ámbitos como el derecho, los medios y el gobierno. Las similitudes con la corrupción corporativa y gubernamental son innegables. Si los abogados, quienes tienen el deber ético de defender la verdad, pueden ser engañados por sistemas de inteligencia artificial, ¿qué esperanza tienen los ciudadanos comunes frente a propaganda generada por AI o documentos falsificados?
Fuentes consultadas:
RT.com
DailyMail.co.uk
TheGuardian.com
NYTimes.com
La noticia en cifras
Cifra |
Descripción |
18 |
Número de casos inexistentes citados por un abogado en un juicio. |
5 |
Número de casos fabricados referenciados por otro abogado. |
£90 millones |
Cantidad involucrada en el juicio mencionado. |
51% a 79% |
Tasa de "alucinaciones" admitida por OpenAI para ChatGPT. |