El pasado 6 de junio, la Sala Divisional del High Court emitió sentencia en los casos Ayinde v London Borough of Haringey y Al-Haroun v Qatar National Bank. En su decisión, el tribunal advirtió a los profesionales del derecho sobre los riesgos de emplear herramientas de inteligencia artificial generativa en la investigación jurídica y en la redacción de escritos, precisando que la presentación de material ficticio puede constituir desacato a la corte.
Los procesos se tramitaron bajo la jurisdicción inherente del High Court para regular sus propios procedimientos y hacer cumplir el deber de los abogados hacia la administración de justicia. En ambos casos se detectó el uso, o presunto uso, de inteligencia artificial que derivó en jurisprudencia inexistente, citas falsas y errores en la aplicación de la ley.
Lea más l Juez usa inteligencia artificial para explicar sentencias a litigantes vulnerables
En Ayinde, vinculado a un proceso de revisión judicial sobre alojamiento provisional, la demandante presentó escritos con jurisprudencia inexistente. La corte señaló: «El caso citado (El Gendi) no existe. No hay registro de ese nombre en los Archivos Nacionales ni en ningún otro lugar». También se identificaron otros precedentes inexistentes y errores en la interpretación de la Housing Act 1996.
El tribunal observó que las advertencias planteadas por la parte demandada fueron descartadas de manera inadecuada. La respuesta de la actora fue que las objeciones podían ser «fácilmente explicadas» y que la defensa debía concentrarse en ubicar las sentencias citadas.
Respecto a la falta de supervisión alegada por la abogada en formación, el tribunal concluyó: «No aceptamos que la ausencia de acceso a textos jurídicos o servicios de suscripción electrónica en el estudio, de ser el caso, constituya más que una mitigación marginal». Finalmente, sostuvo que existían dos posibilidades: la inclusión deliberada de citas falsas o el uso de inteligencia artificial generativa, en ambos casos susceptibles de configurar desacato.
En Al-Haroun v Qatar National Bank, el demandante interpuso demanda por presuntos incumplimientos de un acuerdo de financiamiento. En los escritos presentados se incluyeron «numerosas sentencias, muchas de las cuales parecen ser completamente ficticias o, de existir, no contienen los pasajes atribuidos ni respaldan las proposiciones invocadas».
El propio demandante reconoció que las referencias habían sido generadas con herramientas de inteligencia artificial y que confió erróneamente en su autenticidad. Su abogado admitió que utilizó esa información sin verificación: «se basó en la investigación legal que el propio cliente había realizado, sin comprobar de manera independiente las autoridades citadas».
La Sala cuestionó esta conducta señalando que «resulta extraordinario que el abogado dependa de su cliente para la exactitud de la investigación legal, en lugar de lo contrario».
La Sala Divisional resolvió no iniciar procesos por desacato. Sin embargo, remitió el caso de la abogada de Ayinde al Bar Standards Board y las actuaciones de los abogados de ambos procesos a la Solicitors Regulation Authority, a fin de que se evalúen las responsabilidades disciplinarias.
En la parte final, la Sala mencionó que «Debe hacerse más para garantizar que las directrices sobre el uso de inteligencia artificial sean cumplidas y que los abogados respeten sus deberes hacia la corte». Asimismo, remitió la sentencia a la Law Society y al Bar Council, advirtiendo que el mal uso de estas herramientas genera «graves implicaciones para la administración de justicia y la confianza pública en el sistema judicial».