En los últimos seis meses, la palabra tecnología se ha convertido en uno de los términos más repetidos por el discurso oficial peruano. Esta insistencia gubernamental en torno a la innovación digital parecería anunciar una transformación sin precedentes en la forma en que se administran los servicios públicos. Sin embargo, la creciente presencia del término en comunicados, conferencias de prensa y promesas de campaña no se traduce necesariamente en un ejercicio pleno de derechos para la ciudadanía urbana y rural. Por el contrario, la distancia entre el “entusiasmo oficial” y la realidad tecnológica del país es tan profunda que roza lo absurdo.
Mientras el Estado anuncia, a través de un Decreto Supremo, su intención de incorporar la inteligencia artificial (IA) en trámites, atenciones y procesos administrativos, seguimos viviendo en un país donde la protección de los datos personales es débil, la política nacional de ciberseguridad avanza a tropiezos y la institucionalidad encargada de resguardar derechos digitales carece de recursos, autonomía y capacidad de acción. A esto se suma un problema mayor: en los últimos años, la tecnología no ha sido empleada como un mecanismo para democratizar servicios, sino como una herramienta de vigilancia y control social. Activistas, periodistas, lideresas y defensoras de derechos humanos han denunciado monitoreos, rastreos, campañas de desprestigio y uso indebido de datos en contextos de protesta.
El resultado es paradójico: mientras se promete modernización, lo que avanza con mayor fuerza es la vigilancia ciudadana sin transparencia ni cuidado en el uso de los datos. Mientras se habla de innovación, lo que se presenta es un menú de herramientas digitales que apuntan más a contener, someter y silenciar disidencias que a garantizar derechos. Y mientras se anuncia que la IA llevará al Estado al “siguiente nivel”, la ciudadanía sigue sin acceso a una conectividad universal, asequible y significativa en los territorios urbanos o rurales y menos en nuestra Amazonía.
Desde una mirada feminista y decolonial, estas contradicciones no son nuevas. La historia tecnológica latinoamericana y peruana en este caso, está marcada por desigualdades estructurales, extractivismos y promesas incumplidas. Lo novedoso no es la brecha, sino la velocidad con la que se incorporan tecnologías sin marcos éticos, sin participación ciudadana real y sin análisis de impacto. Por ello resulta indispensable problematizar la relación entre tecnologías emergentes y derechos humanos en un país como el Perú, donde la vida digital no puede pensarse desligada de las desigualdades territoriales, raciales, económicas y de género.
El espejismo de la modernización tecnológica
El discurso de la modernización tecnológica que enarbola el Estado peruano —como muchos otros, además de presentarla como “la solución” y eso veremos más adelante— reproduce un viejo patrón: la idea de que la innovación es, en sí misma, un bien público. Según esta narrativa, basta con adoptar sistemas de inteligencia artificial o softwares automatizados para convertir al Estado en una institución más eficiente. Sin embargo, esta visión tecnocrática ignora aspectos fundamentales: sin transparencia, sin auditoría algorítmica, sin protección de datos y sin participación ciudadana, la modernización es apenas un espejismo.
El Estado peruano impulsa leyes sobre [1]IA mientras desconoce el funcionamiento de las infraestructuras básicas de conectividad. Se anuncian sistemas de reconocimiento facial para la seguridad ciudadana sin estudios de impacto, sin evidencia de efectividad y sin mecanismos de verificación independientes. Esto no solo incrementa los riesgos de abuso: profundiza la desigualdad, ensancha las brechas.
Las investigaciones de AlgorithmWatch, la Electronic Frontier Foundation y la propia ONU han demostrado que los sistemas de reconocimiento facial presentan tasas de error mucho más altas en mujeres, personas indígenas, afrodescendientes y personas racializadas. En el Perú —un país profundamente atravesado por el racismo y clasismo estructural— esto implica que la vigilancia automatizada no solo reproduce injusticias, sino que las amplifica. La tecnología, lejos de corregir discriminaciones históricas, las reescribe en códigos binarios y exacerba.
La sensación que emerge es clara: en vez de un Estado que protege, aparece un Estado que observa, señala y criminaliza. Un Estado que instala cámaras, sensores, softwares y sistemas de rastreo, pero que no fortalece la institucionalidad democrática. Un Estado que, ante la crisis, responde con vigilancia y criminalización de aquellos que lo cuestionan, en lugar de responder con políticas de cuidado[2]. Un Estado que, lejos de abrir espacios de diálogo y participación, apuesta por tecnologías de control para sostener su “legitimidad”.
Ruha Benjamin lo explica de manera contundente: “El problema no es la mala tecnología, sino las malas políticas que permiten que la tecnología funcione como un instrumento de exclusión”[3]. La neutralidad tecnológica es un mito; toda tecnología encarna valores, decisiones y sesgos. La tecnología no es neutral.
Y en sociedades como la peruana, esos sesgos suelen operar en contra de las poblaciones históricamente marginadas.

Brechas que no cierran, tecnologías que se imponen
La brecha digital en el Perú no es una cifra abstracta: es una experiencia concreta de exclusión. El Programa Nacional de Telecomunicación del Ministerio de Comunicaciones y Transportes, Pronatel ha reportado que 44 de cada 100 hogares en el país no cuentan con acceso a Internet, sea móvil o fijo. Esta cifra revela el límite de cualquier promesa de innovación: sin conectividad, no hay digitalización posible. Mucho menos una ciudadanía digital, como lo pretende la Secretaria Nacional de Transformación Digital bajo la Política Nacional de Transformación Digital publicada en julio del 2023.
La situación es aún más crítica en los territorios amazónicos y rurales, donde la conectividad no es un derecho garantizado, sino un privilegio frágil sostenido por iniciativas comunitarias, redes improvisadas o esfuerzos dispersos de algunos gobiernos locales. La tan anunciada “Banda Ancha para la Amazonía”, que debió estar operativa hace varios años, terminó convirtiéndose en un recordatorio doloroso de la desidia estructural del Estado. Aunque en los últimos años se muestran avances tímidos —principalmente medidos a partir de centros poblados conectados a los que indican si hacer preguntas previas, pues ¿realmente quieren estar conectados?—, estos progresos resultan insuficientes frente a la magnitud de las brechas. Además, esta mirada de conectividad tiene un enfoque absolutamente antropocentrista, no se prioriza el impacto en el medioambiente de los territorios no solo amazónicos.
Peor aún, los plazos oficiales proyectan que su funcionamiento pleno podría recién concretarse en 2027[4], una fecha que, en el marco de los derechos digitales, resulta inaceptable. Este retraso no solo demora el acceso a información, educación y servicios públicos esenciales, sino que perpetúa la exclusión histórica de los pueblos amazónicos, cuya presencia ha sido sistemáticamente relegada en el imaginario “republicano”. Así, la Amazonía peruana continúa siendo incluida al final de los procesos, como si su bienestar fuese opcional y no parte integral del país. En un contexto donde la conectividad determina posibilidades de participación política, autonomía y seguridad, esta negligencia se traduce directamente en vulneración de derechos
Las brechas digitales también tienen un fuerte componente de género. Diversos estudios de la CEPAL muestran que las mujeres en América Latina[5] —especialmente en zonas rurales— acceden menos a Internet, a dispositivos propios y a formación digital. La brecha de alfabetización digital afecta de manera particular a mujeres indígenas, mujeres quechua hablantes, cuidadoras y jóvenes madres. Sin acceso, no hay participación; sin participación, no hay ciudadanía digital, de modo que no hay democracia.
Por ello, mientras el Estado legisla sobre IA como si fuéramos Silicon Valley, millones de personas permanecen desconectadas de servicios esenciales. La brecha digital es, en realidad, una brecha de ciudadanía.
Desde los feminismos[6] latinoamericanos[7], esta situación tiene un nombre claro: extractivismo digital. Se trata de procesos en los que el Estado impulsa la adopción de tecnologías de punta, celebra la digitalización y promueve discursos de innovación, mientras ignora —de manera sistemática— las condiciones materiales, culturales y sociales necesarias para garantizar derechos básicos a las mujeres y diversidades. Es un modelo que prioriza la infraestructura para el capital, pero no para la vida, mucho menos para el buen vivir.
En el Perú —un país profundamente atravesado por el racismo y clasismo estructural— esto implica que la vigilancia automatizada no solo reproduce injusticias, sino que las amplifica.
A este escenario se suman los recientes retrocesos en derechos fundamentales: el acceso al aborto terapéutico —legal desde hace más de un siglo— se ha vuelto más restrictivo en la práctica; el enfoque de género ha sido reemplazado por discursos binarios que niegan la diversidad humana; y la Educación Sexual Integral ha sido sustituida por propuestas centradas en la “ética y los valores”, que refuerzan normas patriarcales en lugar de promover autonomía y derechos. Bajo estas condiciones, esperar que las plataformas digitales públicas o las políticas tecnológicas logren cerrar brechas de género no solo es un desafío monumental: roza lo utópico.
El problema es que esta narrativa de “progreso digital” funciona como una promesa vacía. No sólo deja a muchas personas atrás, sino que legítimamente las excluye de espacios, servicios y oportunidades a los que deberían tener acceso. Y esa exclusión —cuando afecta de manera diferenciada a mujeres, niñas y diversidades— no es un simple fallo de política pública: es una forma de violencia estructural.
La tecnología como disputa política y como herramienta de control
La tecnología siempre ha sido política, pero hoy su papel en la disputa por el poder es más evidente que nunca. En el Perú, la digitalización del Estado ha sido utilizada no solo para gestionar trámites sin previa alfabetización digital, sino para controlar movilizaciones, monitorear redes sociales y vigilar a quienes cuestionan el orden establecido, como lo hemos comentado. Al mismo tiempo, organizaciones de sociedad civil, como Derechos Digitales, Hiperderecho, Access Now e Internews han documentado prácticas de vigilancia indebida desde distintas instituciones estatales. Estas prácticas van desde monitoreo de perfiles en redes, recolección de información sin consentimiento, seguimiento a activistas mediante metadatos, hasta campañas de desinformación dirigidas particularmente contra mujeres defensoras de derechos humanos.
Los casos no son aislados. En varias protestas se han reportado[8][9]:
- Filmaciones dirigidas a identificar lideresas y voceras: Esto desde el uso de cámaras pero también personas (trabajadores públicos o no) que las y los registran a modo de infiltrados, desde dispositivos móviles.
- Uso de drones sin regulación, algunos de ellos con la capacidad de identificar rasgos biométricos sin autorización.
- Retención de celulares sin orden judicial, lo que les lleva a acceder a la información del dispositivo, poniendo en riesgo a todo el entorno del activista o periodista.
- Análisis de chats y grupos en redes, en ocasiones infiltradas en esos espacios de mensajería y otros desde el monitoreo de las redes sociales públicas.
- Recopilación de información biométrica, con el uso de cámaras en las ciudades o desde organismos institucionales.
El problema es doble: por un lado, estas prácticas vulneran derechos fundamentales; por otro, ocurren en un país donde las instituciones encargadas de proteger la seguridad digital están debilitadas.
La Autoridad Nacional de Protección de Datos Personales sigue siendo, lamentablemente, una institución simbólica: sin presupuesto suficiente, sin autonomía técnica real y sin capacidad efectiva para fiscalizar al propio Estado cuando despliega tecnologías intrusivas. Esta fragilidad no es casual, sino estructural. En un país donde la vigilancia estatal históricamente ha recaído con más fuerza sobre mujeres, pueblos indígenas, juventudes y personas defensoras de derechos humanos, tener una autoridad debilitada equivale a no tener protección alguna. Lo mismo ocurre con el Sistema Nacional de Ciberseguridad, que opera con competencias dispersas entre varios sectores —Interior, Defensa, PCM— sin una entidad rectora fuerte ni un modelo de gobernanza claro. La consecuencia es previsible: nadie asume responsabilidad plena.
En este escenario, la Secretaría Nacional de Transformación Digital aparece como el actor institucional que más impulso político ha tenido en los últimos años. Sin embargo, la pregunta es inevitable: ¿tiene realmente las facultades, herramientas técnicas y autonomía política para auditar tecnologías de vigilancia, especialmente aquellas incorporadas por fuerzas del orden? Hoy, la respuesta es incierta. Y justamente por esa incertidumbre, la Defensoría del Pueblo debería involucrarse de manera activa y sistemática. No como un gesto simbólico, sino como un mandato: la protección de derechos fundamentales en contextos de innovación tecnológica exige instituciones de control fuertes, críticas y presentes.
La reciente aprobación del Reglamento de Uso de Inteligencia Artificial[10] en el Perú representa un paso importante al incorporar principios como no discriminación, transparencia algorítmica, supervisión humana en sistemas de alto riesgo, privacy by design, auditorías y responsabilidad institucional. Sin embargo, estos principios quedan incompletos si no vienen acompañados de mecanismos robustos de implementación. El reglamento deja vacíos significativos al no incluir protocolos obligatorios para evaluaciones de impacto de género, racial y territorial; participación comunitaria y ciudadana en la toma de decisiones; recursos efectivos de reparación cuando ocurran daños; auditorías públicas independientes; y verdaderos sistemas de rendición de cuentas.
Sin estas garantías, la promesa de una “IA ética” corre el riesgo de convertirse en letra muerta. Y para las mujeres en nuestra diversidad, comunidades indígenas, diversidades y defensoras que ya enfrentan vigilancia desproporcionada, esos vacíos no son técnicos: son profundamente políticos y profundamente peligrosos.
Así, la vigilancia digital se normaliza. Las personas de turno en el Estado ganan poder, pero la ciudadanía pierde control.

El mito del tecnosolucionismo
El tecnosolucionismo[11] es, en esencia, la ilusión de que todos los problemas sociales pueden resolverse con tecnología. Es una narrativa seductora, especialmente para gobiernos en crisis, porque promete soluciones rápidas, “neutrales”, eficientes y aparentemente libres de conflicto político. Pero esa misma promesa es profundamente engañosa: despolitiza las desigualdades, borra las responsabilidades del Estado y convierte la complejidad social en un simple problema técnico. Lo que desde los feminismos latinoamericanos venimos señalando desde hace décadas es que esta narrativa no solo simplifica la realidad: también invisibiliza cuerpos, luchas, territorios y memorias históricas.
El tecnosolucionismo es cómodo para quienes gobiernan porque desplaza el foco: ya no se discuten las causas estructurales de la violencia, de la pobreza, del racismo o del abandono estatal. En su lugar, se delega la “solución” a una aplicación, un algoritmo. Pero la tecnología no puede corregir aquello que el Estado se niega a transformar. No puede resolver desigualdades que el propio modelo económico reproduce, ni puede sustituir la participación real de comunidades diversas en la toma de decisiones.
Hablar de “inteligencia artificial para modernizar el Estado” en un país que no garantiza la protección de datos personales es tecnosolucionismo. Implementar sistemas de reconocimiento facial en un contexto donde el racismo está normalizado —y donde la criminalización históricamente ha recaído sobre cuerpos racializados, empobrecidos y feminizados— es tecnosolucionismo. Digitalizar trámites sin garantizar alfabetización digital, accesibilidad y conectividad significativa para las mujeres rurales, indígenas o de periferias urbanas también lo es. Lo mismo ocurre cuando se diseñan indicadores algorítmicos para evaluar a docentes y estudiantes sin escuchar sus experiencias, sin analizar los determinantes sociales que condicionan el aprendizaje y, sobre todo, sin reconocer la diversidad territorial y cultural del país.
El tecnosolucionismo, al final, no solo es un error técnico: es una forma de violencia epistémica. Porque impone modelos ajenos, maquilla desigualdades coloniales y produce políticas que parecen innovadoras, pero que en realidad profundizan la exclusión. Y lo más grave: nos hace creer que la participación ciudadana es un obstáculo, cuando debería ser el corazón de cualquier proceso tecnológico democrático.
El problema es que la mayoría de tecnologías de IA que llegan al Perú se diseñan desde el Norte Global, bajo lógicas culturales e idiomáticas que no contemplan nuestras realidades. Esto genera una nueva dependencia: la dependencia algorítmica. Países como el Perú se convierten en usuarios, no creadores; en consumidores, no en actores tecnológicos.
Por ejemplo, la iniciativa del Poder Judicial al contar con un software de Inteligenci artificial que promete tener resoluciones en 40 segundos llamado Amauta.pro, no toma en cuenta los sesgos raciales, o de genero minimante que tiene Perú, sobretodo porque pretende ser usado en once juzgados del Módulo Judicial Integrado de Violencia contra las Mujeres e Integrantes del Grupo Familia[12], además de ser un gasto más que una inversión eficiente con el dinero de nuestros aportes.
La tecnología no puede corregir aquello que el Estado se niega a transformar. No puede resolver desigualdades que el propio modelo económico reproduce, ni puede sustituir la participación real de comunidades diversas en la toma de decisiones.
Esto se entiende como colonialidad digital. Safiya Noble lo ilustra con claridad: los modelos algorítmicos están entrenados con datos que portan sesgos estructurales, y cuando esos sistemas se importan a contextos diferentes, el daño se multiplica[13].
Pretender que esos algoritmos se adapten automáticamente a las realidades del Perú es ingenuo y colonial. Por eso, una tecnología ética no solo debe funcionar técnicamente: debe ser socialmente legítima y políticamente justa.
El cuidado como límite ético de la automatización
Si hay un ámbito donde la IA no puede reemplazar a las personas, es el cuidado. La ONU y la CEPAL han reconocido el cuidado como un derecho humano y un pilar fundamental para la sostenibilidad de la vida. Este reconocimiento se vuelve aún más urgente en sociedades donde el cuidado recae mayoritariamente en mujeres y donde las condiciones laborales de cuidadoras son precarias.
En el Perú, el sistema de salud pública vive un colapso permanente: falta de personal, largas colas, deudas hospitalarias, infraestructura deficiente y burnout. En este escenario, la IA se presenta como una herramienta que podría “aliviar cargas”. Pero esa es una ilusión peligrosa.
La IA puede ayudar a organizar información, predecir tendencias o agilizar procesos administrativos. Pero no puede escuchar el dolor humano, no puede tomar decisiones éticas, no puede acompañar duelos, no puede ofrecer contención emocional. No puede reemplazar la presencia.
La automatización del cuidado en países desiguales puede llevar a profundizar las inequidades: quienes puedan pagar accederán a cuidados humanos; quienes no, serán atendidos por máquinas. El cuidado es un territorio que debe resistir la automatización indiscriminada. La tecnología debe apoyar y complementar, pero jamás sustituir.
Un horizonte tecnopolítico para el buen vivir
A pesar de las tensiones, no todo horizonte es oscuro. En el Perú y en América Latina existe una fuerza creciente de mujeres, activistas, programadoras, comunicadoras e investigadoras que están reimaginando la tecnología desde un enfoque ético, comunitario y feminista. Esta resistencia y creación tecnológica constituye un movimiento tecnopolítico que propone alternativas radicales al modelo de vigilancia estatal.
Entre estas experiencias destacan, proyectos de redes comunitarias autónomas en zonas rurales, iniciativas de seguridad digital con enfoque feminista, pedagogías de alfabetización mediática y antidesinformación, colectivos LGTBQ+ que construyen espacios seguros en línea, laboratorios ciudadanos que desarrollan herramientas de software libre, organizaciones indígenas que usan tecnología para defensa territorial, grupos de periodistas que investigan el impacto de algoritmos en la democracia.
Estas propuestas demuestran que otra tecnología es posible: una que no esté centrada en el control, sino en la vida; no en la eficiencia, sino en el cuidado; no en la velocidad, sino en la justicia social.
Para avanzar hacia un horizonte más justo, propongo tres claves que quizá caen en la romantización de lo posible:
- Superar el antropocentrismo tecnológico, pues la discusión tecnológica debe considerar el impacto ambiental, territorial y social de la IA. La nube consume agua, energía y minerales que provienen, muchas veces, de territorios indígenas. El buen vivir nos invita a pensar tecnologías que respeten la vida en su pluralidad y que no dependan de extractivismos violentos
- Reapropiarnos de lo digital, ya que la resistencia implica recuperar los espacios digitales, denunciar la violencia en línea, fortalecer la seguridad digital comunitaria y construir narrativas propias. La creación digital también es un acto político
- Construir políticas públicas con participación real de ciudadanía y especialistas, tomando en cuenta que las decisiones tecnológicas deben incluir a mujeres, juventudes, comunidades indígenas, personas LGTBQ+, periodistas, organizaciones de base y colectivos históricamente marginados. Sin participación, no hay democracia digital.
La tecnología es una extensión de nuestras corporalidades, de nuestras memorias y de nuestras formas de habitar el mundo. Cuando se diseña sin perspectiva de derechos humanos, se convierte en arma; cuando se diseña con justicia social, se convierte en herramienta de emancipación.
La tarea desde los feminismos es clara: desmontar mitos, cuestionar usos autoritarios, exigir transparencia y, sobre todo, crear alternativas. Porque la innovación no debe ser excusa para vigilar. Debe ser una herramienta para el buen vivir.
[1] León Lucía, IA en el Perú: reglamento listo, datos pendientes (2025)
[2] CEPAL, Economía del cuidado y políticas públicas. (2025)
[3] Benjamin, Ruha. Race After Technology. Polity Press (2019)
[4] PRONATEL, (2025) Contribución en la reducción de brechas digitales
[5] CEPAL, (2023) Digitalización de las mujeres en América Latina y el Caribe: acción urgente para una recuperación transformadora y con igualdad
[6] Segato, Rita (2015). La guerra contra las mujeres
[7] Ricaurte, Paola (2019). “Data Epistemologies, The Coloniality of Power, and Resistance”.
[8] Internews (2024) Información y riesgo
[9] León Lucía, Hiperderecho (2025) Vigilados en Secreto
[10] León Lucia, Hiperderecho (2025) Reglamento listo, datos pendientes
[11] Evgeny Morozov(2013) la Locura del tecnosolucionismo
[12] Gaspar y León, Hiperderecho (2025) ¿Hacia dónde vamos con la justicIA?
[13] Safiya Noble (2018) Algoritmos de la opresión.











Deja un comentario