Inteligencia artificial (1): Lo primero que conviene saber

Sumario: 1. Introducción, 2. Un poco de historia, 3. ¿Qué es entonces inteligencia artificial (IA)? 4. Aplicación de inteligencia artificial, 5. Dilemas éticos, 6. Conclusiones


1. Introducción

Pretendo compartir conocimiento básico, que entiendo necesario para involucrarnos en lo que llamamos inteligencia artificial (IA), pues no hay duda que su aplicación se está posicionando en nuestras vidas, desde lo cotidiano hasta las diversas ramas del conocimiento, incluyendo por supuesto el derecho. En esta primera entrega partiremos por hacer un pequeño recorrido por su historia, para intentar luego definir qué es IA, identificar cómo se viene aplicando y los dilemas éticos que ello está planteando; en una siguiente entrega, intentaremos describir cómo se viene aplicando la IA en el derecho y cuál es o será su influencia en la impartición de justicia.

2. Un poco de historia

La historia de la IA está ligada a la de la matemática, la lógica, la electricidad y la programación: “caminaron juntas”. En el siglo XVII Gottfried Leibniz (1646 -1716) propone la aritmética binaria, y en Inglaterra el matemático inglés George Boole (1815 -1864) planteó un sistema algebraico que mucho después sirvió para el desarrollo de las “puertas lógicas” (AND, OR, NOT) que permiten expresar enunciados mediante símbolos que pueden tener por respuesta un sí o un no, utilizando precisamente la aritmética binaria.

La historia de la IA también está ligada a la de la computación, cuya “paternidad” se atribuye al matemático inglés Charles Babbage (1791 -1871) quien diseñó una máquina analítica, inspirada en el telar del francés Joseph Marie Jacquard (1752 -1834)[1], limitado por un diseño mecánico, pero que sería superado con el uso de la electricidad. Sobre esta máquina de Babbage escribió la matemática inglesa Ada Lovelace (1815 -1852), pionera de la programación, quien en sus notas formuló lo que se considera el primer algoritmo[2], prediciendo que las computadoras del futuro algún día harían más que cálculos[3].

El británico Alan Turing (1912 – 1954) desempeñó un papel vital, pues diseñó en 1936 (modelo teórico) lo que serían las futuras computadoras; por si esto fuera poco, visionó que llegaría el momento en que una máquina podría pensar, proponiendo el “juego de la imitación” (Prueba de Turing) para evaluar cuándo podemos decir que una máquina está emulando la inteligencia humana.

De utilizar la electricidad para las bombillas eléctricas (invento perfeccionado por Edison en 1879), pasamos al nacimiento de la electrónica digital con los relés que se utilizaron en las computadoras alemanas Z2 (1939) y Z3 (1941), seguidas de las válvulas de vacío que sirvieron para que en Inglaterra se desarrollara Colossus (1944) para descifrar los mensajes alemanes en la segunda guerra mundial, mientras que en EE.UU se fabricó la ENIAC (1946), dando lugar a las computadoras de primera generación (1940 -1956), utilizando tarjetas perforadas.

Estas computadoras de primera generación se usaban esencialmente para hacer cálculos y funciones específicas, a pesar de lo cual eran enormes, como la ENIAC que pesaba 27 toneladas y contaba con más de 17 mil válvulas, con alto consumo de electricidad.

El primer transistor, hecho de germanio, fue fabricado en los Bell Labs de los Estados Unidos en 1947, superado por el transistor de silicio que se inventó poco después, dando pie a las computadoras de segunda generación (1956-1964), que seguían utilizando tarjetas perforadas para el ingreso de datos.

En el siglo XX, el estadounidense Claude Shannon (1916 -2001) fue quien enlazó la lógica y la electrónica, al postular que el álgebra booleana podía aplicarse mediante circuitos eléctricos para representar operaciones lógicas, impactando con ello en la simplificación de los circuitos digitales.

De esta manera, los ordenadores utilizan el sistema binario de numeración, pues trabajan con dos niveles de voltaje (apagado 0/falso, encendido 1/verdadero); dicho de otra forma, en el transistor encontramos el estado cerrado o abierto a los que se asocian los dígitos 0 y 1. “Todos los circuitos integrados o chips se basan en estos transistores y trabajan internamente en binario”[4], donde 0 o 1 representa un bit[5].

Las computadoras de tercera generación (1964-1971) aparecieron con los circuitos integrados, con la consiguiente reducción de tamaño y consumo de energía; las de cuarta generación (1971 -1981) aparecen con el microprocesador y las de quinta generación con el desarrollo de computadoras inteligentes (desde 1982), cobrando especial importancia los algoritmos de aprendizaje automático. Algunos opinan que existen más generaciones, pero esto es materia de debate.

3. ¿Qué es entonces inteligencia artificial (IA)?

Se le atribuye al estadounidense John McCarthy (1927 -2011) haber acuñado la expresión inteligencia artificial en una conferencia del año 1956. Puede ser entendida como “una rama de la informática que mediante un software determinado tiene como objetivo analizar el entorno para tomar decisiones e imitar algunos comportamientos humanos”[6].

Los ordenadores que usualmente tenemos en casa procesan datos y nos ahorran tiempo en tareas complejas y repetitivas, pero la IA va más allá porque – dentro del marco de un modelo computacional – es capaz de “aprender” a través de un proceso que le permite reconocer patrones (machine learning), lo que sumado a redes neuronales artificiales (multicapas)[7] le permite procesar enormes volúmenes de datos y hacer predicciones complejas (deep learning).

Otra manera de decirlo es que mientras el machine learning es el aprendizaje automático que le permite al ordenador aprender de los datos y analizarlos de manera automática, en cambio el deep learning es el aprendizaje profundo que sobre la base de redes neuronales artificiales le permite al ordenador el procesamiento de imágenes (red neuronal convolucional – CNN) o el procesamiento de secuencias (red neuronal recurrente – RNN)[8].

Algunos de esos modelos son los SLM (Small Language Model) que emulan el lenguaje humano a menor escala y para tareas específicas (atención al cliente, reserva de citas, por ejemplo), superados por los LLM (Large Language Model) que mediante billones de parámetros están diseñados para comprender y generar lenguaje humano, como el que usan Gemini de Google, ChatGPT de OpenAI, Claude de Anthropic o LlaMA de Meta.

Precisamente, es esa “generación” de nuevos datos a través del aprendizaje la que da lugar a la inteligencia artificial generativa (GenAI), que hoy permite a través de determinados prompts (instrucciones) obtener que la IA redacte un poema, una carta, un contrato, una historia o un guión.

Obviamente, según el modelo elegido, en la medida que se alimenta a la IA para que trabaje con determinada información, esta será el límite para el modelo, pero se concibe que una inteligencia artificial general (AGI) podrá en el futuro transferir conocimiento entre dominios y adaptarse a entornos nuevos para los que no fue entrenado, como lo haría un ser humano, pero es una hipótesis debatida entre los expertos.

4. Aplicación de inteligencia artificial

Ya habíamos dicho que la IA se ha posicionado en nuestras vidas. Desde lo cotidiano, como cuando utilizamos Google Maps y con solo saber nuestra ubicación y destino, nos proyecta la ruta más eficiente, con estimación de tiempo de llegada y sugerencia de rutas alternas.

En el campo del conocimiento la IA viene aportando beneficios sustanciales; en medicina permite reducir el tiempo en el desarrollo de nuevos medicamentos; en ingeniería química colabora en predecir el rendimiento de sistemas químicos complejos; en aeronáutica ayuda a optimizar la gestión del tráfico de los vuelos; y en arquitectura permite generar modelos tridimensionales de un proyecto; todo lo cual ilustra la creciente transversalidad del impacto de la IA.

En el ámbito empresarial, la IA también tiene múltiples aplicaciones; por ejemplo, se recurre a ella para el reclutamiento de personal, permitiendo el análisis de cientos de datos y que en poco tiempo se seleccione de manera rápida y transparente a los nuevos colaboradores; las empresas también la vienen utilizando para sus nuevas campañas publicitarias, personalizando contenidos según el perfil de los usuarios[9].

La IA no ha sido ajena en su aplicación al derecho, pues desde la perspectiva del cliente, puede acceder a consultas legales virtuales (chatbots legales), y desde la perspectiva del abogado puede agilizar la redacción de contratos o revisión de documentos; en la misma medida, el sector justicia también lo aplica, como el modelo Prometea en Buenos Aires para la elaboración de dictámenes; lo que veremos más en detalle en la siguiente entrega.

5. Dilemas éticos

Cada vez que instalamos un aplicativo o con cada pregunta que le hacemos, por ejemplo a ChatGPT, estamos proporcionando no sólo nuestra identidad, sino nuestra ubicación, nuestros gustos, nuestros intereses. Esto le permite a la IA recomendarnos una película, por ejemplo, pero también nos expone a que esos datos sean utilizados para fines ajenos para los cuales proporcionamos esos datos. La pregunta que surge es ¿quién debe ser responsable del tratamiento de esos datos?, ¿debe responder el programador, el productor, o el vendedor del aplicativo?

Recuérdese el escándalo del 2018 que involucró a la empresa Cambridge Analytica, que a través de un inofensivo test en línea que requería iniciar sesión en Facebook, le permitió acceder a la información de los usuarios y sus amigos, con lo que crearon perfiles psicológicos para diseñar anuncios políticos personalizados, con el objetivo de influir en campañas políticas, como la de Donald Trump en el 2016.

Otro problema se presenta cuando se entrena a un modelo con datos sesgados; lo que conlleva al denominado sesgo algorítmico (Machine Bias), que ocurre “cuando un sistema informático refleja los valores de los humanos que estuvieron implicados en su codificación y en la recolección de datos para entrenar el algoritmo”[10].

Por ejemplo, así como la publicidad a veces nos vende un estereotipo de belleza, cabe preguntarse con qué criterio (posible sesgo) se clasifican las fotografías que se almacenan en la nube. Al respecto, otro escándalo (año 2015) sucedió cuando una pareja afroamericana utilizó el aplicativo de Google Photos para almacenar una fotografía suya y el software de reconocimiento facial los clasificó como “gorilas” obligando a Google a pedir disculpas públicas, quedando en evidencia los riesgos de entrenar algoritmos con datos no representativos o culturalmente sesgados.

En el 2018, la empresa Amazon tuvo que abandonar un proyecto de IA que se había diseñado para mecanizar la selección del talento; como el modelo había reconocido el dominio masculino en la industria tecnológica, el algoritmo siguió el mismo patrón y seleccionó al personal sobre la base de un sesgo sexista[11].

La censura también plantea un dilema ético: ¿bajo qué parámetro se puede censurar la información en internet? En China, Google no es el buscador que se utiliza, sino Baidu, que se acomoda a la censura que impone el gobierno. Allí se puso en marcha en el 2000 el Proyecto Escudo Dorado para la vigilancia digital nacional, en cuyo contexto el Gran Cortafuegos bloquea el contenido en línea, bajo parámetros que impone la autoridad.

Ya que hablamos de censura y de China, un caso de recordación es el de Li Zhi, un funcionario municipal condenado en el 2003 a ocho años de prisión, acusado por ser un ciberdisidente que conspiraba contra el gobierno, sólo porque utilizó las redes para calificar de mafiosas las actuaciones de algunos políticos locales[12]. En este ejemplo, la censura refuerza un sesgo de información de contenido político.

¿Pero podrá acaso diseñarse una IA neutral? Dependiendo de qué manera se ha diseñado el algoritmo, la descripción de una protesta civil puede ser presentada como un “reclamo democrático” y en otro lugar como un “disturbio provocador”.

¿Es confiable la información que proporciona la IA? En el 2023 el abogado Zachariah C. Crabill fue sancionado en EE.UU. por utilizar jurisprudencia falsa, que obtuvo desde una plataforma de IA, denotando que esta puede generar información incorrecta y que es necesaria la supervisión profesional.

La empresa xAI fundada por Elon Musk es responsable de Grok, un asistente conversacional que rivaliza con ChatGPT y que hace poco (10 de julio de 2025) anunció la versión Grok 4 como la mejor del mercado, pero casi simultáneamente la versión anterior generó controversia tras dar respuestas antisemitas, elogios a Adolf Hitler e insultos contra el presidente turco Recep Tayyip Erdogan[13], reavivando el debate sobre los límites de la libertad algorítmica.

6. Conclusiones

  • La historia de la IA se remonta décadas atrás y está enlazada a la evolución de la matemática, la lógica, la electricidad, la computación y la programación.
  • La IA se ha posicionado en el quehacer del ser humano, desde lo cotidiano, hasta el desarrollo del conocimiento.
  • La IA también está influyendo en el derecho y con el ello en la impartición de justicia; lo que veremos más en detalle en una siguiente entrega.
  • Los dilemas éticos que plantea la aplicación de la IA exigen que esta sea regulada, a fin de garantizar el respeto y ejercicio de los derechos fundamentales.

Sobre el autor: Jorge Luis Pajuelo Cabanillas es abogado y Doctor en Derecho por la UNMSM. Magíster en Derecho Civil y Comercial por la USMP. Juez Superior de la Corte Superior de Puente Piedra – Ventanilla.

[1] Automatizó la fabricación de telares utilizando tarjetas perforadas que permitían controlar los hilos según el patrón requerido; lo que a su vez se inspiró en los mecanismos de relojería utilizados en las cajitas musicales para repetir la misma tarea.

[2] Conjunto de instrucciones precisas y ordenadas para realizar una tarea o resolver un problema.

[3] Véase: “La historia completa de la Inteligencia Artificial (por EDteam)” en: https://www.youtube.com/watch?v=WCM0h9TX7cY

[4] Ver: https://grudilec.com/wp-content/uploads/9.automatismoelectronico266-312.pdf

[5] A mayor cantidad de datos, tenemos el Byte (b), Kilobyte (KB), Megabyte (MB), Gigabyte (GB), Terabyte (TB) y así sucesivamente hasta el Zettabyte (ZB)

[6] Vorobioff, Juan y otros, Inteligencia Artificial y Redes Neuronales, 1ª Ed., edUTecne, Buenos Aires, 2022, p. 3.

[7] En el 2024 el Premio Nobel de Física se les concedió a John J. Hopfield y Greoffrey E. Hinton por sus descubrimientos que hicieron posible el aprendizaje automático con redes neuronales artificiales.

[8] Ramírez, Wilmar y Ramírez, Carlos, Programación de Inteligencia Artificial, Curso Práctico, Bogotá, Ediciones de la U, 2023, p. 63 -141

[9] Véase: https://icontinental.edu.pe/5-ejemplos-de-campanas-publicitarias-hechas-con-inteligencia-artificial/blogs/

[10] MORALES, Alejandro: “El impacto de la inteligencia artificial en la protección de datos personales” (01-09-2020) En: https://www.worldcomplianceassociation.com/2767/articulo-el-impacto-de-la-inteligencia-artificial-en-la-proteccin-de-datos-personales.html

[11] Véase: https://www.reuters.com/article/world/amazon-abandona-un-proyecto-de-ia-para-la-contratacin-por-su-sesgo-sexista-idUSKCN1MO0M4/

[12] Amnistía Internacional lo considera preso de conciencia. Ver: https://www.amnesty.org/es/wp-content/uploads/sites/4/2021/08/pol300262006es.pdf

[13] Véase: https://www.dw.com/es/el-chatbot-grok-de-la-red-x-lanza-comentarios-antisemitas-y-provoca-pol%C3%A9mica/a-73218627

Comentarios: