El uso de la IA, oportunidades y riesgos

Escribe: Richard Aguilar Díaz

500

Tras la celebración de la AI Safety Summit celebrada en Reunio Unido, con la asistencia de casi tres decenas de líderes políticos, ha quedado en evidencia que en la actualidad existen dos bandos posicionados sobre la irrupción de la inteligencia artificial (IA). Por un lado, están los pesimistas, que postulan que la IA destruye puestos de trabajo y que “algún día” acabará dominando al ser humano; y, por otro lado, los optimistas, quienes consideramos que la IA es y será una herramienta que facilita al ser humano el potenciar la calidad y añadir valor a su trabajo, y generan nuevas oportunidades laborales.

En las siguientes líneas, a manera de reflexión, y sin ánimo exhaustivo, trataremos los siguientes ítems: (i) El rol de la IA respecto de la inteligencia humana, (ii) La experiencia de la IA en el ámbito profesional; y (iii) Los retos de la IA.

1. El rol de la IA respecto de la inteligencia humana

Para continuar con la presente lectura, considero necesario traer a colación aquel titular de prensa, con antigüedad de más de dos décadas, que decía: “Garry Kasparov versus Deep Blue”. Ante tal titular, conviene alcarar que, en aquel acontecimiento, el considerado genio del ajedrez, en realidad, venció al “grupo de genios”, seres humanos, de distintas disciplinas que fueron contratados por IBM para configurar las estretagias del juego de Deep Blue. En resumen, la inteligencia humana no compitió con una máquina.

Con base en el ejemplo citado, en mi opinión, con la IA, sucede exactamente lo mismo. La IA está creada por un grupo de seres humanos quienes deciden la finalidad y estructura del algoritmo, entedido este último como el conjunto de reglas predefinidas para dar solución a un problema.

2. La experiencia de la IA en el ámbito profesional

La IA es una herramienta que ya estaba incorporada en el que hacer de los operadores jurídicos; por citar algunos ejemplos, encontramos a los procesadores de textos (Word, Pages, Excel, Numbers, entre otros) que aplican herramientas como los auto correctores, revisión de ortografía, propuesta de sinónimos, etc. Estas herramientas obligaron a añadir en el perfil de los profesionales el dominio de entorno de procesadores de datos.

En la era digital, los Large Language Model (LLM) han ganado popularidad dentro de las tecnologías GPT, liderada por Open AI y Bard, todas ellas herramientas de creación automática o artificial de textos. A ello, añadiremos la IA como (i) “Harvey” que revisan contratos, localizan información jurídica; (ii) la IA “Mia” que realiza unas tareas de monitorización de programas de cumplimiento normativo en las organizaciones; y, (iii) no perdamos de vista a los proyectos de neurotecnología, internet de los cuerpos, con ejemplos como Neuralink, entre otros.

En consecuencia, la aparición de tecnologías disruptivas como al IA aplicada a las tareas repetitivas del sector legal vienen creado oportunidades laborales con base en la necesidad de contar con los denominados profesionales híbridos, que poseen conocimientos de nuevas tecnologías y derecho, que son capaces de aplicar herramientas como la IA a los procesos legales, en sus distintas versiones como son: (i) revisión documental, (ii) gestión y control; y, (iii) decisoria.

3. Los retos de la IA

Siguiendo la posición de europea, defensora del humanismo respecto del uso de la IA, los retos más urgentes de la IA en el sector legal, pasan por tener en cuenta los cuatro niveles de riesgos (inaceptables, alto riesgo, riesgo limitado, riesgo mínimo o nulo) propuestos por la Comisión Europea y también la observancia del recentísimo acuerdo del G7 por el que establece Código de conducta para los desarrolladores de la IA, en clave de mitigar, inter alia, usos indebidos, limitaciones al inapropiado, protección de datos personales y de la propiedad intelectual.

Conviene destacar aquí lo manifestado por el Parlamento Europeo, mediante nota de prensa sobre la estrategia digital, posicionándose en pro de garantizar y proteger los derechos de los ciudadanos, proponiendo que los sistemas de IA deben ser seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.

Ello con énfasis en la futura Ley europea de IA, en mi opinión, se deben combatir los riesgos inaceptables de la IA como son: “manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales”

En conclusión, ante la proliferación de la IA, es urgente poseer una formación sólida, en clave de protección de datos personales y ciberseguridad, que permita al usuario discernir entre lo real de lo artificial o sintético, la información fidedigna versus los denominados “fake news” y “deepfake”, y con ello, evitar y/o combatir supuestos de “manipulación cognitiva”, entre otros escenarios que respondan a alguna de las categorías de riesgos de la IA, que son: inaceptable, de alto riesgo, riesgo limitado y riesgo mínimo o nulo.

Comentarios: