Inteligencia artificial y brecha digital en el Perú: Desafíos para la inclusión de los pueblos indígenas en el marco de un Estado multicultural

Autora: Patricia Mercedes Cumpa Moreno

Sumario: Introducción; Capítulo 1: Marco conceptual y contextual; Capítulo 2: El acceso a la tecnología y los pueblos indígenas; Capítulo 3: El rol del Estado frente a la IA y los derechos digitales; Capítulo 4: Implicancias éticas y sociales de la exclusión tecnológica; Capítulo 5: Propuestas para una inteligencia artificial intercultural e inclusiva; Capítulo 6: Conclusiones y líneas de acción; Bibliografía.


Introducción

En el siglo XXI, la inteligencia artificial (IA) se ha convertido en una de las principales herramientas para el desarrollo económico, educativo y social a nivel global. Esta tecnología se ha integrado de manera creciente en diversas esferas de la vida pública, desde la administración de justicia hasta la gestión de la salud y la educación. En este contexto, el Perú enfrenta un reto particular: cómo incorporar la IA de forma equitativa en un país caracterizado por su diversidad étnica y cultural.

A pesar de los avances normativos que promueven la digitalización y el acceso a servicios públicos basados en IA, persiste una profunda desigualdad estructural que afecta particularmente a los pueblos indígenas y comunidades rurales del país. Esta situación plantea una paradoja: mientras la IA promete eficiencia y democratización del acceso a la información, en la práctica puede reforzar las barreras históricas si no se considera la realidad multicultural y segmentada del país.

Inscríbete aquí Más información

Este articulo aborda el problema del acceso desigual a la inteligencia artificial en el Perú, partiendo del supuesto de que su implementación en políticas públicas y servicios estatales puede reproducir exclusiones históricas si no se incorpora un enfoque intercultural y de justicia social. En un país en el que coexisten más de 55 pueblos indígenas con cosmovisiones, lenguas y formas de vida diversas, la IA no puede ser una herramienta tecnocrática neutral. Debe ser concebida desde una perspectiva plural que reconozca la especificidad cultural como un eje central del desarrollo.

La pregunta central que guía este análisis es: ¿la expansión de la inteligencia artificial contribuye a democratizar el acceso al conocimiento y los derechos en el Perú, o reproduce las brechas estructurales existentes entre los distintos grupos étnico-culturales? Para responderla, se desarrollarán seis capítulos que abordan desde la conceptualización de la IA, la brecha digital y el multiculturalismo, hasta las implicancias éticas, normativas y sociales de su implementación sin enfoque intercultural. Finalmente, se proponen líneas de acción para construir una inteligencia artificial inclusiva y representativa de la diversidad del país.

Capítulo 1: Marco conceptual y contextual

La inteligencia artificial (IA) se define como la capacidad de un sistema informático para ejecutar tareas que requieren inteligencia humana, como el aprendizaje, la resolución de problemas, la planificación o la comprensión del lenguaje natural (Russell & Norvig, 2020). Desde su aplicación más básica en algoritmos de recomendación hasta su uso en decisiones automatizadas del Estado, la IA se ha convertido en una fuerza estructuradora de las relaciones sociales contemporáneas. No obstante, la promesa de objetividad, eficiencia y neutralidad que usualmente acompaña al discurso sobre IA ha sido ampliamente cuestionada por diversos estudios. Investigaciones como las de Eubanks (2018) y Noble (2018) advierten que los sistemas inteligentes reproducen sesgos presentes en los datos con los que fueron entrenados y, por tanto, reflejan y refuerzan estructuras sociales desiguales.

En el contexto peruano, el uso de IA en políticas públicas se encuentra aún en una etapa incipiente, pero con una tendencia creciente. La Estrategia Nacional de Inteligencia Artificial (ENIA) 2021-2026, publicada por la Presidencia del Consejo de Ministros, plantea objetivos como la mejora en el acceso a la salud, educación, justicia y seguridad pública mediante tecnologías inteligentes. Sin embargo, dicha estrategia no contempla con claridad un enfoque diferencial para pueblos indígenas ni una estrategia de mitigación de brechas digitales estructurales (PCM, 2021). Esto resulta especialmente problemático si se considera que la desigualdad tecnológica reproduce otras formas de exclusión histórica en el país.

Inscríbete aquí Más información

El concepto de «brecha digital» alude a las desigualdades en el acceso, uso efectivo y apropiación de tecnologías digitales. Esta brecha es multidimensional: incluye elementos materiales (como la conectividad o la disponibilidad de dispositivos), cognitivos (competencias digitales, alfabetización tecnológica) y simbólicos (representación cultural, idioma y contenido local). En América Latina, la Comisión Económica para América Latina y el Caribe (CEPAL) ha advertido que la brecha digital no solo reproduce la exclusión social existente, sino que tiende a profundizarla si no se diseñan políticas inclusivas y culturalmente pertinentes (CEPAL, 2021). En el caso peruano, esta advertencia es particularmente crítica.

Según el Instituto Nacional de Estadística e Informática (INEI), solo el 36.5% de la población rural del Perú tiene acceso a internet, y las regiones con mayor población indígena, como Loreto, Puno, Ucayali y Huancavelica, presentan los índices más bajos de conectividad digital (INEI, 2021). Esta disparidad tecnológica tiene consecuencias directas sobre el acceso a derechos fundamentales como la educación, la salud y la justicia. Por ejemplo, durante la pandemia del COVID-19, miles de estudiantes en comunidades indígenas no pudieron acceder a la educación remota, revelando de forma dramática las limitaciones estructurales de la infraestructura digital en zonas rurales.

El Perú es un país caracterizado por una diversidad cultural profunda. Existen 55 pueblos indígenas oficialmente reconocidos y se hablan 48 lenguas originarias, muchas de las cuales tienen status de cooficiales en sus respectivos territorios (Ministerio de Cultura, 2022). Esta riqueza cultural, lejos de ser un obstáculo, debería representar un potencial estratégico para la construcción de un país inclusivo. Sin embargo, el reconocimiento de esta diversidad ha sido históricamente limitado al plano simbólico. En la práctica, predomina un enfoque monocultural y centralista en la formulación de políticas públicas, incluidas las políticas de transformación digital (De la Cadena, 2000; Tubino, 2005).

La falta de reconocimiento epistémico y lingüístico de los pueblos indígenas se refleja también en los desarrollos tecnológicos. La mayoría de plataformas de IA y servicios digitales disponibles operan exclusivamente en castellano o inglés, lo que margina a millones de peruanos cuya lengua materna es el quechua, aimara o una lengua amazónica. La ausencia de interfaces multilingües, de algoritmos adaptados culturalmente y de datos representativos de la realidad indígena impide una verdadera inclusión digital. En palabras de Boaventura de Sousa Santos (2005), se trata de una “injusticia cognitiva”: la exclusión del conocimiento, la voz y la experiencia de los pueblos indígenas en los procesos de innovación, planificación y diseño tecnológico.

A su vez, el diseño de sistemas de IA en contextos multiculturales como el peruano exige no solo adaptaciones lingüísticas, sino también epistemológicas. Es decir, requiere reconocer que existen múltiples formas de interpretar la realidad, construir conocimiento y tomar decisiones que no necesariamente responden a la lógica instrumental dominante en Occidente (Escobar, 2016). La falta de este reconocimiento impide que la IA se convierta en una herramienta al servicio del pluralismo y, por el contrario, puede funcionar como un nuevo dispositivo de colonialidad digital.

En este sentido, este primer capítulo establece que el desarrollo e implementación de la inteligencia artificial en el Perú no puede analizarse únicamente desde la perspectiva técnica o funcional. Es necesario incorporar una lectura estructural e histórica que reconozca la segmentación social del país, sus desigualdades territoriales, y la necesidad urgente de integrar un enfoque intercultural en la planificación tecnológica. Solo a través de esta mirada crítica y plural se podrá avanzar hacia una IA al servicio de la equidad, la diversidad cultural y la justicia social.

Capítulo 2: El acceso a la tecnología y los pueblos indígenas

El acceso a las tecnologías digitales en el Perú se encuentra profundamente atravesado por desigualdades estructurales. Estas no solo se expresan en diferencias geográficas o socioeconómicas, sino también en exclusiones culturales, lingüísticas y epistémicas que afectan directamente a los pueblos indígenas. A pesar del avance del discurso de derechos y multiculturalismo, el país continúa operando bajo una lógica de centralismo y homogeneización que margina las voces, lenguas y conocimientos de las comunidades originarias (Stavenhagen, 2002; Degregori, 2011).

Según datos del Instituto Nacional de Estadística e Informática (INEI), a 2021, la cobertura de internet en el ámbito rural es de apenas el 36.5%, frente a más del 78% en las zonas urbanas. Las brechas se agravan cuando se cruzan variables étnico-lingüísticas. En regiones como Loreto, Ucayali, Huancavelica o Amazonas, donde se concentra una alta proporción de población indígena, el acceso a la red y a dispositivos tecnológicos es escaso o inexistente (INEI, 2021). Esta falta de conectividad no es solo un problema técnico, sino una barrera estructural que impide a millones de ciudadanos ejercer derechos básicos como la educación, la salud, la información o la participación democrática.

Durante la pandemia del COVID-19, esta desigualdad se hizo aún más evidente. Mientras el Estado implementaba programas como Aprendo en Casa, miles de estudiantes indígenas no pudieron acceder a ellos por falta de internet, electricidad o equipos electrónicos. Según un informe de la Defensoría del Pueblo (2020), el 92% de estudiantes indígenas amazónicos no tuvo acceso efectivo a la educación remota. Esta situación no fue abordada con una perspectiva intercultural ni con mecanismos de compensación diferenciada.

En el caso específico de la inteligencia artificial, la exclusión tecnológica es aún más aguda. Las aplicaciones de IA que ya se están utilizando en salud (diagnóstico automatizado), justicia (gestión de expedientes), educación (plataformas adaptativas) y programas sociales (sistemas de focalización) presuponen el acceso digital como condición previa, lo que excluye de facto a comunidades sin conectividad. Además, estos sistemas no han sido diseñados con datos representativos de la población indígena ni con conocimiento contextualizado de sus realidades sociales, culturales o lingüísticas.

La exclusión de los pueblos indígenas del ecosistema digital tiene también una dimensión simbólica. Como señala Walter Mignolo (2011), en los sistemas modernos de conocimiento y poder, las culturas no occidentales son sistemáticamente colocadas en una posición de inferioridad epistémica. Esto implica que los saberes, lenguas, lógicas organizativas y visiones del mundo de los pueblos indígenas no son considerados relevantes en el diseño de tecnologías emergentes como la IA. En consecuencia, la participación de estos pueblos en la sociedad digital no solo está limitada en términos de acceso, sino también de representación.

Por ejemplo, los sistemas de procesamiento de lenguaje natural en español ignoran las lenguas originarias del Perú, que son habladas por aproximadamente 4.5 millones de personas (Ministerio de Cultura, 2022). No existen modelos robustos de IA que reconozcan, procesen y generen textos en quechua, aimara u otras lenguas indígenas, lo cual genera un apagamiento cultural dentro del espacio digital. Esto contradice principios constitucionales como el derecho a la identidad cultural y lingüística, y evidencia una negligencia del Estado en desarrollar tecnologías públicas inclusivas.

Inscríbete aquí Más información

En este escenario, la brecha digital actúa como un multiplicador de desigualdades. No solo limita el acceso a recursos, sino que también restringe la capacidad de los pueblos indígenas para ejercer autonomía tecnológica, participar en debates públicos sobre innovación, o apropiarse de herramientas que podrían fortalecer sus lenguas, territorios y sistemas de vida. Como afirman Couldry y Mejías (2019), sin justicia de datos ni acceso equitativo a la infraestructura tecnológica, la digitalización se convierte en una nueva forma de colonialismo.

Por tanto, garantizar el acceso equitativo a la tecnología para los pueblos indígenas no es una cuestión técnica ni caritativa, sino un imperativo de justicia social y cultural. Esto requiere una transformación profunda de las políticas públicas: inversiones específicas en conectividad rural, diseño de tecnologías multilingües, formación digital comunitaria con pertinencia cultural, y participación directa de las comunidades en el diseño y evaluación de herramientas tecnológicas

Capítulo 3: El rol del Estado frente a la IA y los derechos digitales

El Estado peruano tiene, según su Constitución, la obligación de garantizar el ejercicio pleno y equitativo de los derechos fundamentales de toda la ciudadanía. En el contexto de la sociedad digital, este deber se extiende al ámbito de los derechos digitales, entendidos como la manifestación contemporánea de libertades básicas como la educación, la salud, la información y la participación, mediadas ahora por tecnologías digitales y sistemas inteligentes. Sin embargo, cuando se analiza el despliegue de la inteligencia artificial (IA) en el aparato estatal, se hace evidente una peligrosa omisión: la ausencia de un enfoque intercultural en su diseño e implementación, lo que reproduce las desigualdades estructurales que afectan a los pueblos indígenas.

La Estrategia Nacional de Inteligencia Artificial (ENIA) 2021-2026, aprobada por la Presidencia del Consejo de Ministros, representa el marco rector de las políticas públicas sobre IA en el Perú. Este documento establece seis ejes prioritarios: salud, educación, justicia, seguridad, productividad y gestión pública (PCM, 2021). No obstante, a pesar de reconocer la necesidad de generar una IA “ética, inclusiva y confiable”, no contempla medidas específicas orientadas a reducir las brechas tecnológicas de grupos históricamente excluidos, ni integra una visión intercultural en sus objetivos. El enfoque de derechos que promueve es, en gran medida, formalista y urbano-céntrico.

Esta omisión contradice lo establecido por normativas nacionales e internacionales. Por un lado, la Ley de Consulta Previa (Ley N.º 29785) establece la obligación del Estado de consultar a los pueblos indígenas sobre medidas administrativas que los puedan afectar, lo cual debería aplicarse también en el diseño de sistemas de IA que condicionen el acceso a derechos o modifiquen la provisión de servicios públicos. Por otro lado, instrumentos internacionales como la Declaración de las Naciones Unidas sobre los Derechos de los Pueblos Indígenas (2007) y el Convenio 169 de la OIT exigen el respeto a las instituciones, prácticas y culturas indígenas en todos los niveles del quehacer estatal.

El desarrollo tecnológico en el país, sin embargo, ha seguido un camino vertical y homogéneo, que no considera la diversidad epistémica ni lingüística del territorio. La digitalización de servicios públicos —como plataformas judiciales, sistemas de atención de salud, trámites administrativos o asignación de bonos sociales— no ha sido acompañada de mecanismos de traducción cultural ni lingüística, ni de participación efectiva de comunidades indígenas en su diseño. Por ejemplo, los sistemas de focalización como el SISFOH (Sistema de Focalización de Hogares), que utilizan herramientas automatizadas para clasificar a la población según nivel socioeconómico, han sido cuestionados por excluir de forma sistemática a poblaciones rurales e indígenas debido a criterios inadecuados para sus realidades (Defensoría del Pueblo, 2019).

Asimismo, en el ámbito judicial, la implementación de expedientes digitales y plataformas automatizadas plantea riesgos de exclusión si no se considera la alfabetización digital diferenciada. La digitalización sin interculturalidad puede agravar la desigualdad de acceso a la justicia, ya que muchas personas indígenas no solo enfrentan barreras tecnológicas, sino también idiomáticas y culturales. Según el Informe Anual de Derechos Humanos de la Coordinadora Nacional de Derechos Humanos (2022), sigue siendo escasa la oferta de servicios judiciales en lenguas originarias, tanto de manera presencial como en sus versiones digitales.

Esta situación refleja una contradicción fundamental: mientras el Estado peruano se presenta como garante de la inclusión digital, sus políticas tecnológicas reproducen una matriz colonial de poder (Quijano, 2000), donde lo indígena sigue siendo tratado como una alteridad periférica y no como un componente central del proyecto nacional. El discurso sobre la transformación digital tiende a invisibilizar las condiciones materiales e históricas que impiden a millones de personas participar en igualdad de condiciones en la vida tecnológica del país.

Por tanto, el rol del Estado no puede limitarse a promover el uso de IA desde una lógica instrumental de eficiencia, sino que debe asumir una responsabilidad política y ética con relación a los pueblos indígenas. Esto implica:

1. Elaborar políticas tecnológicas con enfoque intercultural, que contemplen lenguas originarias, formas de organización comunitaria y saberes locales.

2. Garantizar la participación directa de representantes indígenas en la formulación, monitoreo y evaluación de herramientas de IA aplicadas a servicios públicos.

3. Promover sistemas de datos inclusivos y representativos, que recojan las realidades diversas del país y eviten sesgos estructurales en algoritmos de decisión pública.

4. Fortalecer la infraestructura digital en territorios indígenas, como una condición básica para el ejercicio de derechos digitales.

Sin estas transformaciones, la inteligencia artificial aplicada por el Estado corre el riesgo de convertirse en un nuevo instrumento de desigualdad tecnocrática. Como advierte Virginia Eubanks (2018), los sistemas automatizados pueden operar como “sistemas invisibles de pobreza digital”, en los que las decisiones algorítmicas se aplican con mayor severidad a los sectores más vulnerables, sin mecanismos de apelación ni participación.

El Estado, como garante de derechos en una sociedad multicultural, tiene el deber de construir un modelo de gobernanza tecnológica centrado en la equidad, la participación y el reconocimiento de la diversidad. La IA no puede ni debe desarrollarse al margen de los pueblos indígenas, sino en diálogo con ellos, reconociendo su derecho a la autodeterminación también en el ámbito digital.

Capítulo 4: Implicancias éticas y sociales de la exclusión tecnológica

La adopción de tecnologías emergentes como la inteligencia artificial (IA) en las políticas públicas y en el funcionamiento de los Estados plantea interrogantes éticos fundamentales: ¿quiénes se benefician de estas tecnologías?, ¿quiénes son excluidos?, ¿quién diseña los sistemas y con qué valores? En contextos marcados por desigualdades históricas y segmentación estructural como el Perú, estas preguntas se vuelven especialmente urgentes. La exclusión digital de los pueblos indígenas no es solo un problema técnico, sino una manifestación contemporánea de la injusticia social, epistémica y cultural.

Desde una perspectiva ética, el principal riesgo de la expansión de la IA sin un enfoque intercultural es la reproducción de una forma de “colonialismo algorítmico” (Mohamed, Png & Isaac, 2020), en el que las poblaciones indígenas son gestionadas como “datos” pero no reconocidas como sujetos políticos ni culturales. Este fenómeno se traduce en sistemas de IA que operan bajo supuestos homogéneos, sin reconocer la pluralidad de formas de vida, lenguas o cosmovisiones que existen en los territorios indígenas. En consecuencia, se consolidan sistemas tecnológicos que automatizan decisiones injustas, invisibilizan identidades colectivas y refuerzan la marginación estructural.

Un ejemplo de estas implicancias puede encontrarse en los sistemas de asignación automatizada de beneficios sociales. Como lo evidenció la Defensoría del Pueblo (2019), muchas comunidades indígenas fueron excluidas de programas como Juntos o del Bono Universal durante la pandemia debido a criterios algorítmicos que no consideraban formas no convencionales de trabajo, tenencia de la tierra o registro de identidad. Esta exclusión no fue intencional, pero sí estructural, y constituye una violación indirecta del principio de equidad que debería regir en cualquier política social.

Inscríbete aquí Más información

Además, existe una dimensión epistémica en esta exclusión: los sistemas de IA suelen construirse a partir de bases de datos que representan una parte sesgada de la realidad. Al no incluir información proveniente de pueblos indígenas o al no traducir adecuadamente sus necesidades, experiencias o lenguas, se genera lo que Santos (2005) denomina “injusticia cognitiva”: la supresión del conocimiento indígena en los sistemas de decisión tecnológica. Este sesgo no solo afecta la eficacia de los sistemas, sino que también refuerza una jerarquía de saberes donde lo “moderno” es valorado y lo “tradicional” es descartado.

A nivel internacional, se observan casos similares. En Canadá, comunidades indígenas han denunciado el uso de IA en sistemas de predicción del bienestar infantil, donde algoritmos utilizados por los servicios sociales sobre-representan a familias indígenas como “en riesgo”, lo que ha derivado en intervenciones estatales discriminatorias y rupturas familiares (Richardson, 2020). En Australia, el sistema automatizado RoboDebt, diseñado para identificar fraudes en el acceso a subsidios, afectó desproporcionadamente a comunidades aborígenes debido a criterios que no se ajustaban a su realidad económica, generando un escándalo nacional que obligó al gobierno a cancelar el programa y ofrecer disculpas (Australian Government, 2021).

Estos casos demuestran que el uso acrítico de la IA en contextos multiculturales no solo es éticamente problemático, sino también socialmente peligroso. Cuando las tecnologías se aplican sin mecanismos de control cultural y sin participación de las comunidades afectadas, tienden a consolidar lo que Ruha Benjamin (2019) llama «discriminación codificada»: desigualdades estructurales integradas en código computacional.

En el caso peruano, esta problemática se agrava por la ausencia de infraestructura crítica en territorios indígenas, lo que limita incluso la posibilidad de defenderse frente a estos sistemas. Si una comunidad es excluida por un algoritmo, rara vez tiene mecanismos para apelar esa decisión, comprender su funcionamiento o exigir correcciones. La falta de transparencia algorítmica se convierte entonces en una forma de opacidad institucional que vulnera el derecho a la información y a la participación informada.

Asimismo, la exclusión digital impacta negativamente en los procesos de fortalecimiento de identidades culturales y transmisión intergeneracional de lenguas y saberes. Sin acceso a medios digitales y sin tecnología en su idioma, los jóvenes indígenas se ven obligados a adaptarse a un entorno tecnocultural ajeno, muchas veces hostil. Esta presión puede conducir a una erosión lingüística acelerada y a la debilitación del tejido comunitario, ya que la tecnología no se articula con la memoria cultural ni con los procesos locales de enseñanza.

Frente a este panorama, las implicancias éticas y sociales de la exclusión tecnológica no pueden ser abordadas solo desde la mitigación del daño. Se requiere un giro decolonial en el diseño de sistemas de IA, que reconozca la diversidad cultural no como una excepción a incluir, sino como un punto de partida. Tal como propone la experta indígena y tecnóloga María Zajarova-Kahn (2021), la IA intercultural debe construirse desde la co-creación con pueblos indígenas, respetando sus ontologías, sistemas normativos y formas de organización comunitaria.

Capítulo 5: Propuestas para una inteligencia artificial intercultural e inclusiva

Frente a las exclusiones tecnológicas documentadas en los capítulos anteriores, se vuelve imprescindible avanzar hacia un modelo de inteligencia artificial (IA) que no solo sea técnicamente eficiente, sino también ética, intercultural e inclusiva. Esto requiere repensar los marcos desde los cuales se diseñan, implementan y evalúan los sistemas de IA, y ubicar en el centro a los pueblos indígenas como actores políticos, culturales y tecnológicos con derecho a participar, decidir y crear.

1. Tecnologías desde y para los territorios: soberanía tecnológica indígena

El primer paso hacia una IA inclusiva es reconocer la necesidad de una soberanía tecnológica indígena. Este concepto, desarrollado por organizaciones como la Indigenous AI Working Group (Lewis et al., 2020), plantea que los pueblos indígenas deben tener control sobre cómo se recolectan, almacenan, interpretan y utilizan los datos que los involucran. Implica también la capacidad de crear tecnologías que respondan a sus lenguas, cosmovisiones y necesidades comunitarias, en lugar de ser meros receptores de innovaciones externas.

Un ejemplo importante de esta lógica se encuentra en Nueva Zelanda, donde el pueblo maorí ha impulsado el desarrollo de plataformas digitales en te reo maorí, promoviendo herramientas que refuercen la lengua y cultura. Allí, el proyecto Te Hiku Media desarrolla modelos de IA de procesamiento de voz que entrenan algoritmos con voces maoríes, en condiciones controladas por la comunidad y bajo principios de gobernanza de datos étnicamente contextualizados (Te Hiku Media, 2021).

En América Latina, algunas experiencias incipientes se están dando en México, donde comunidades zapotecas han trabajado con colectivos de software libre para diseñar aplicaciones móviles en su lengua, promoviendo la traducción automática y el acceso a servicios básicos desde un enfoque local (Bonilla, 2022). En el Perú, aunque aún no existen políticas públicas que impulsen esta línea, algunas radios comunitarias y redes de educación intercultural bilingüe han comenzado a desarrollar contenidos digitales en quechua y asháninka, mostrando el potencial creativo y transformador de las comunidades.

2. Participación indígena en el diseño de políticas tecnológicas

Una segunda línea de acción es garantizar la participación efectiva de representantes indígenas en la formulación, ejecución y evaluación de políticas públicas relacionadas con IA y digitalización. Esta participación debe ir más allá de consultas simbólicas y adoptar formatos de co-diseño, donde las comunidades puedan incidir en los objetivos, metodologías y usos de la tecnología.

En Canadá, la organización First Nations Information Governance Centre (FNIGC) ha desarrollado el principio OCAP (propiedad, control, acceso y posesión), que establece estándares éticos para el manejo de datos en contextos indígenas, reconociendo su derecho a decidir cómo se usan sus datos, quién los gestiona y con qué fines (FNIGC, 2018). Este marco puede ser una referencia potente para adaptar a contextos como el peruano.

3. Educación digital con enfoque intercultural

Una IA inclusiva requiere sujetos activos capaces de apropiarse críticamente de la tecnología. Para ello, es fundamental el desarrollo de programas de alfabetización digital intercultural, que combinen el aprendizaje técnico con la revitalización cultural. Estos programas deben estar diseñados en lenguas originarias, incorporar metodologías comunitarias, y respetar los calendarios, saberes y formas de organización local.

En Bolivia, por ejemplo, el programa Tecnoayllu implementado por docentes aymaras en zonas rurales ha incorporado tecnologías digitales como herramientas para enseñar matemática, historia y lengua desde la cosmovisión andina. Estas experiencias muestran que la tecnología no necesariamente amenaza lo ancestral, sino que puede fortalecerlo si se aplica con pertinencia cultural.

Inscríbete aquí Más información

4. Desarrollo de IA multilingüe y multiepistémica

Una propuesta esencial para un Perú intercultural es invertir en el desarrollo de tecnologías de IA que reconozcan y procesen lenguas originarias, especialmente en servicios públicos digitales. Esto incluye el desarrollo de modelos de reconocimiento de voz, traducción automática y procesamiento de lenguaje natural que incluyan al quechua, aimara y lenguas amazónicas.

Asimismo, se debe promover la creación de bases de datos culturalmente contextualizadas, que no solo traduzcan palabras, sino que comprendan categorías, símbolos y formas de razonamiento propias de las comunidades indígenas. Para ello, es clave integrar antropólogos, lingüistas, programadores indígenas y organizaciones territoriales en los equipos de desarrollo tecnológico.

5. Ética algorítmica con enfoque intercultural

Todo diseño de IA debe incluir un marco ético plural, que reconozca no solo los principios occidentales de justicia, transparencia y no discriminación, sino también los valores éticos de los pueblos originarios, como la reciprocidad, la armonía con la naturaleza, el respeto intergeneracional y la comunidad como sujeto colectivo.

Instituciones como UNESCO (2021) han comenzado a promover marcos de gobernanza de IA que reconozcan la diversidad cultural y lingüística. Sin embargo, estos marcos deben ser territorializados, es decir, traducidos e implementados con base en la realidad local y no como modelos genéricos.

Capítulo 6: Conclusiones y líneas de acción

La expansión de la inteligencia artificial (IA) en el Perú representa una oportunidad histórica para modernizar el Estado y mejorar el acceso a servicios públicos. Sin embargo, este proceso también entraña profundos riesgos si se implementa sin considerar las desigualdades estructurales y la diversidad cultural del país. A lo largo de este artículo se ha demostrado que la IA, lejos de ser neutral, puede reproducir y amplificar exclusiones históricas si se desarrolla desde una lógica tecnocrática y monocultural. La brecha digital no solo se expresa en la falta de conectividad o infraestructura, sino también en la invisibilización epistémica, lingüística y política de los pueblos indígenas.

En este sentido, la desigualdad en el acceso a la tecnología en el Perú no puede ser entendida como una falla aislada o accidental, sino como el síntoma de un modelo de desarrollo que sigue privilegiando a los sectores urbanos, mestizos y castellanohablantes. La falta de políticas tecnológicas interculturales, la ausencia de participación indígena en el diseño de IA, la carencia de modelos multilingües, y el escaso reconocimiento a los saberes ancestrales en el entorno digital configuran una matriz de exclusión que debe ser urgentemente desmontada.

La ética de la IA en contextos multiculturales no puede limitarse a garantizar transparencia técnica o evitar sesgos algorítmicos: debe reconocer activamente la dignidad epistémica de los pueblos indígenas y su derecho a participar en la producción del conocimiento tecnológico. Como ha señalado Boaventura de Sousa Santos (2005), no hay justicia social sin justicia cognitiva. La inclusión digital debe ir de la mano con la democratización del saber, la reapropiación de los medios tecnológicos y la construcción de un Estado verdaderamente plurinacional y pluralista.

A partir de este diagnóstico, se plantean las siguientes líneas de acción prioritarias:

1. Diseño de una Política Nacional de IA con enfoque intercultural

El Perú necesita una estrategia tecnológica que no solo promueva el uso de la IA, sino que lo haga desde una perspectiva de derechos humanos, justicia social y diversidad cultural. Esta política debe reconocer explícitamente a los pueblos indígenas como sujetos de derecho digital, e incorporar metas específicas en términos de acceso, representatividad, participación y pertinencia cultural.

2. Participación indígena vinculante en políticas tecnológicas

Es urgente establecer mecanismos permanentes de participación de organizaciones y líderes indígenas en el diseño, implementación y fiscalización de tecnologías digitales aplicadas al Estado. Esto no puede reducirse a consultas simbólicas, sino que debe garantizar poder de decisión en espacios como el Ministerio de Cultura, PCM, MINEDU y MIDIS.

3. Fortalecimiento de infraestructura digital con enfoque territorial

Se requiere una inversión sostenida en conectividad rural y amazónica, que no solo instale antenas, sino que asegure mantenimiento, acceso a energía, equipos y alfabetización digital. Esta infraestructura debe construirse respetando la autonomía territorial y en diálogo con las comunidades.

4. Fomento a la soberanía tecnológica indígena

El Estado debe promover el desarrollo de tecnologías creadas desde y para los pueblos indígenas. Esto implica financiar proyectos de IA en lenguas originarias, apoyar iniciativas comunitarias de datos, respaldar radios, plataformas y contenidos culturales digitales, y fomentar el liderazgo tecnológico de jóvenes indígenas.

5. Transparencia algorítmica y sistemas auditables

Todo sistema de IA utilizado por el Estado para clasificar, decidir o gestionar derechos sociales debe contar con mecanismos de transparencia, revisión externa y posibilidad de apelación. Estos sistemas deben poder ser auditados por organizaciones de derechos humanos y por las propias comunidades afectadas.

6. Educación digital intercultural

Es fundamental implementar programas de alfabetización digital multilingües que articulen conocimientos técnicos con saberes ancestrales. Esto debe ser parte del currículo educativo intercultural bilingüe, con docentes formados en el uso crítico de tecnologías, y con materiales en lenguas originarias.

En suma, construir una IA inclusiva e intercultural no es solo un desafío técnico, sino un reto ético, político y cultural. Requiere voluntad estatal, participación comunitaria y una transformación profunda de los paradigmas desde los cuales se piensa la tecnología. La IA no debe ser un nuevo rostro de la exclusión, sino una herramienta para fortalecer la autonomía, la identidad y la dignidad de los pueblos indígenas.

Un Estado verdaderamente multicultural debe garantizar que el futuro digital no se construya sobre las ruinas del pasado colonial, sino sobre los cimientos de una justicia que reconozca la pluralidad como riqueza y no como obstáculo. Solo así podrá afirmarse que la inteligencia artificial ha sido puesta al servicio de un Perú más democrático, equitativo y diverso.

Finalmente, este articulo cierra con una invitación al diálogo de saberes como principio rector en el desarrollo tecnológico: construir IA no para los pueblos indígenas, sino con ellos. Solo así será posible una inteligencia artificial que no reproduzca la exclusión, sino que abra caminos hacia una ciudadanía digital plural, justa y democrática.

Inscríbete aquí Más información

Bibliografía

Australian Government. (2021). Royal Commission into the Robodebt Scheme. https://robodebt.royalcommission.gov.au

Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press.

Bonilla, J. (2022). Tecnología comunitaria y soberanía digital en pueblos indígenas de México. Revista Cultura y Tecnologías Emergentes, 3(1), 45-63.

CEPAL. (2021). La sociedad de la información en América Latina y el Caribe. https://www.cepal.org

Coordinadora Nacional de Derechos Humanos. (2022). Informe Anual sobre la situación de los derechos humanos en el Perú.

Defensoría del Pueblo. (2019). Informe N.º 182: Focalización de hogares y exclusión de poblaciones vulnerables.

De la Cadena, M. (2000). Indigenous Mestizos: The Politics of Race and Culture in Cuzco, Peru, 1919–1991. Duke University Press.

Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.

FNIGC. (2018). The First Nations Principles of OCAP®. First Nations Information Governance Centre. https://fnigc.ca

INEI. (2021). Tecnologías de Información y Comunicación en los Hogares. Instituto Nacional de Estadística e Informática.

Lewis, J. E., Rainie, S. C., Rodriguez-Lonebear, D., & Kukutai, T. (2020). Indigenous Data Sovereignty and Artificial Intelligence: Strategies to Resist Colonialism. In C. Cath et al. (Eds.), Resistance AI.

Ministerio de Cultura. (2022). Base de datos oficial de pueblos indígenas u originarios. https://bdpi.cultura.gob.pe

Mohamed, S., Png, M. T., & Isaac, W. (2020). Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy & Technology, 33, 659–684.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

PCM. (2021). Estrategia Nacional de Inteligencia Artificial 2021–2026. Presidencia del Consejo de Ministros.

Quijano, A. (2000). Colonialidad del poder, eurocentrismo y América Latina. CLACSO.

Richardson, K. (2020). Indigenous child welfare and algorithmic bias: The trouble with predicting risk. Canadian Journal of Social Work, 25(3), 45–62.

Santos, B. de S. (2005). El milenio huérfano: Ensayos para una nueva cultura política. Trotta.

Te Hiku Media. (2021). Kōrero Māori with our data: Indigenous language tech in practice. https://www.tehiku.nz

UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial. París: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.

Zajarova-Kahn, M. (2021). Towards Decolonizing Artificial Intelligence: Indigenous Frameworks and Technology Sovereignty. Journal of Indigenous Technological Studies, 1(1), 11–35.

Klarén, P.F. (2018). Nación y sociedad en la historia del Perú. Lima (2ª ed.). Instituto de Estudios Peruanos.


Sobre la autora: Patricia Mercedes Cumpa Moreno es magíster en derecho de la maestría en derecho del trabajo (Universidad de San Martín de Porres), Con más de ocho años como juez supernumerario de la Corte Superior de Justicia de Lima (Juzgados de Oralidad). Con estudios en distintos cursos y diplomados, recientemente habiendo llevado la especialización en el curso presencial de INTELIGENCIA ARTIFICIAL realizando por el Instituto CDAC en la India. Asimismo, habiéndome especializado en el curso virtual de Alta Especialización de Protección Supranacional de Derechos Fundamentales, desarrollado por la Universidad Computense de Madrid – España. Como también ha participado del curso de especialización sobre pronunciamientos de la Corte Interamericana y los Derechos Fundamentales por la misma universidad de España. Habiendo sido expositora de distintos eventos y capacitaciones a nivel nacional.

Comentarios: