Sumario: 1. Introducción, 2. Antecedentes, 3. Comentarios en torno al Sentencia del expediente 00052-2022-18-3002-JP-FC-01, 4. Reflexiones finales.
1. Introducción
La era de la inteligencia artificial (IA) ha llegado al ámbito legal, y su impacto se hace cada vez más evidente en la toma de decisiones judiciales. Recientemente, dos casos emblemáticos en América Latina han generado un intenso debate en la comunidad jurídica internacional: un Juzgado Laboral de Cartagena en Colombia y un Juzgado Civil en Perú, ambos utilizando ChatGPT, un modelo de lenguaje desarrollado por OpenAI, para fundamentar sus sentencias. Llevándonos a reflexionar sobre las implicaciones, riesgos y la fiabilidad de depender de ChatGPT en el proceso judicial. En este artículo, examinaremos los desafíos y preocupaciones que surgen del uso de ChatGPT en decisiones judiciales, poniendo especial énfasis en la poca fiabilidad, los errores y los riesgos asociados con esta tecnología emergente.
Lea también: Primera sentencia en la que se usa ChatGPT (inteligencia artificial) [Colombia]
2. Antecedentes
El juez Juan Manuel Padilla, titular del 1° Juzgado Laboral del Circuito de Cartagena el 30 de enero abordó la demanda de una ciudadana contra Salud Total EPS, buscando la exoneración de su hijo del pago de citas, terapia y transporte al centro hospitalario, debido a la falta de recursos para cubrir dichos gastos.
La sentencia, que favoreció las necesidades del menor diagnosticado con trastorno del espectro autista, se fundamentó en ChatGPT y este tomó como referencia sentencias de la Corte Constitucional colombiana. Como justificación para el uso de la herramienta, el juez Padilla citó la Ley 2213 de 2022, que “tiene por objeto la incorporación de las TIC en los procesos judiciales”.
Hasta ese momento muchos podrían imaginar lo brillante[1] que es ChatGPT y cómo está beneficiando al sector justicia; sin embargo, el profesor asociado de la Universidad del Rosario Juan David Gutierrez, destacaría lo que muchos usuarios diligentes en el uso de esta IA ya habían experimentado. A través de un hilo de Twitter[2] el mencionado profesor revelaría con capturas de pantalla los defectos de ChatGPT para abordar estas situaciones. Defectos como señalar detenciones inexistentes, justificar con fuentes inexistentes y sobretodo lo más preocupante que dio respuestas disimiles ante las mismas preguntas que dio al juzgado en cuestión, finalmente no pudo señalar ninguna sentencia específica de la Corte Constitucional colombiana sobre el derecho fundamental a la salud que involucre a un menor de edad diagnosticado con autismo.
3. Comentarios en torno al Sentencia del expediente 00052-2022-18-3002-JP-FC-01
El Juzgado Civil Transitorio de San Juan de Miraflores, con competencia en asuntos de familia, el día 27 de marzo de 2023 emitió una sentencia sobre un proceso de alimentos. En el fundamento décimo primero afirman que “mediante la asistencia de la plataforma de Inteligencia Artificial de OpenAI-ChatGTP[3],[4], corresponde aplicar la técnica de proporción matemática, a efectos de establecer cuál es el aporte que corresponde a cada padre, según sus ingresos, para satisfacer el gasto de manutención de su hija.”
Si bien podemos celebrar el uso de las nuevas tecnologías para la optimización y agilización del trabajo en entidades públicas, es importante advertir de los posibles riesgos que podríamos enfrentar si nos dejamos llevar por la euforia de la novedad, especialmente en los casos de la administración de justicia.
Si bien el uso que le dieron en el Juzgado Civil en cuestión fue meramente operativo, mas no de razonamiento legal (como en el caso del juzgado colombiano), podríamos estar ante un uso razonable de la inteligencia artificial; sin embargo, es importante tener en cuenta lo señalado por el Tribunal Constitucional (TC): “La motivación se presenta en este caso como una garantía para validar las premisas de las que parte el Juez o el Tribunal en sus decisiones”[5].
En la sentencia en cuestión si bien citan la conversación que tuvieron en la plataforma de ChatGPT y transcriben algunas respuestas necesarias, esta es inaccesible en su totalidad debido a que el ingreso a la conversación a través de ese link está asociado a las credenciales de acceso del usuario que haya realizado las consultas en la plataforma; por ende, no supervisable de manera inmediata por los justificables o la sociedad.
Esto en razón de que la fiabilidad de las respuestas de ChatGPT, como ya hemos visto, es dudosa en muchos aspectos y también lo es en las operaciones matemáticas. El 20 de enero de 2023 Laura Ansorena y Marc Caelles realizaron un experimento[6] para probar la capacidad de ChatGPT para resolver problemas matemáticos[7] en el cual le plantearon dos problemas a resolver de una prueba para alumnos de 5º y 6º de primaria. En el cual después de una cantidad considerable de preguntas, indicaciones, señalarle el error a ChatGPT y repreguntar concluyen “En ninguno de los dos problemas las respuestas del chat fueron satisfactorias. Podemos concluir que el ChatGPT todavía no termina de dar respuestas satisfactorias en matemáticas. En otras interacciones hemos podido ver que comete errores en cuanto a contenidos específicos o que se debe tener especial cuidado en la formulación de la pregunta introducida. Tampoco es capaz de argumentar con claridad.”
El uso de ChatGPT para resolver problemas matemáticos en contextos judiciales, como en el caso peruano, plantea preocupaciones sobre su idoneidad en comparación con otras plataformas y herramientas específicamente diseñadas para abordar cuestiones matemáticas. Aunque ChatGPT ha demostrado ser capaz de realizar ciertos cálculos y operaciones matemáticas, no es su propósito principal, y su eficacia y precisión pueden verse comprometidas en comparación con otras soluciones especializadas. Por ejemplo, software como Wolfram Mathematica, MATLAB o incluso Microsoft Excel, que han sido desarrollados específicamente para manejar problemas matemáticos y estadísticos, podrían proporcionar resultados más fiables y precisos en tales situaciones. Estas plataformas ofrecen una amplia gama de funciones y herramientas que permiten a los usuarios realizar cálculos complejos, análisis de datos y visualizaciones, lo que las convierte en opciones más adecuadas y confiables para abordar problemas matemáticos en el ámbito judicial.
Finalmente, ChatGPT y otras inteligencias artificiales del mismo tipo, no suelen tener un significado genuino en sus respuestas, son una especie de loros estocasticos[8], que eligen su respuesta eligiendo caracteres de forma probabilística, por ello es importante conocer el texto que se introduce en su plataforma para contrastar la información entregada por las entidades correspondientes.
4. Reflexiones finales
Aún quedan aspectos riesgosos por desarrollar que reservaré para una siguiente intervención como las cajas negras de la inteligencia artificial, sesgos de todo tipo, costos, modelos neuronales y sobretodo desafíos ético-jurídicos.
En conclusión, la incorporación de ChatGPT en el ámbito judicial nos enfrenta a un panorama desafiante y ambivalente. Si bien la inteligencia artificial tiene el potencial de transformar y mejorar la eficiencia en la toma de decisiones judiciales, es imperativo que reflexionemos crítica y profundamente sobre sus implicaciones éticas, filosóficas y prácticas. La justicia, en última instancia, es un ejercicio humano que va más allá de la mera aplicación mecánica de reglas y fórmulas. Requiere empatía, comprensión contextual y razonamiento moral, aspectos que, al menos por ahora, las máquinas no pueden replicar plenamente. Al reconocer y abordar las limitaciones y riesgos inherentes al uso de tecnologías como ChatGPT en el sistema judicial, podemos trazar un camino más equilibrado y responsable hacia la incorporación de la inteligencia artificial en nuestra búsqueda de una justicia más eficiente, equitativa e inclusiva.
Así, el desafío trascendental reside en tejer un delicado equilibrio en el que las máquinas se conviertan en aliadas y no en adversarias, y potencien la sabiduría y la prudencia humanas en la administración de la justicia. Al forjar esta simbiosis, nos aventuramos hacia un futuro donde la tecnología y la humanidad convergen en una sinergia virtuosa, co-creando un sistema judicial más justo y eficaz para todos.
[1] Marcus, Gary. “How come GPT can seem so brilliant one minute and so breathtakingly dumb the next?” 1 de diciembre de 2022. Disponible aquí.
[3] Asumimos que fue el ChatGPT 3, ya que no lo indica.
[4] Error de tipeo del mismo Juzgado.
[5] Exp. 0896-2009-PHC/TC
[6] Ansorena, Laura y Marc Caelles. “ChatGPT: ¿puede resolver problemas de matemáticas?” Innovamat Blog. Consultado el 29 de marzo de 2023. Disponible aquí.
[7] Asumiremos que fue el ChatGPT 3, ya que el ChatGPT 4 fue lanzado al público el 14 de marzo de 2023.
[8] Sanchez Garcia, Esther y Michael Gasser. “El riesgo de los grandes modelos lingüísticos • Science for the People”. Science for the People Magazine. Consultado el 29 de marzo de 2023. Disponible aquí.