• Humanidades

Cuando los algoritmos gobiernan

por Anna I. López

03 de noviembre de 2025

Cuando los algoritmos gobiernan

«Los algoritmos han dejado de ser instrumentos invisibles para convertirse en auténticos actores políticos capaces de condicionar la democracia en su funcionamiento más básico».

 

La política siempre ha estado vinculada a las herramientas con las que una sociedad organiza su vida colectiva. Hoy, esas herramientas son los algoritmos. No hablamos ya de un futuro hipotético, sino de una realidad presente: sistemas automáticos que deciden quién recibe una ayuda pública, qué noticias vemos en redes sociales o cómo se distribuyen los recursos en una ciudad. Los algoritmos han dejado de ser instrumentos invisibles para convertirse en auténticos actores políticos, capaces de condicionar la democracia en su funcionamiento más básico.

 

El ejemplo más reciente en España lo ofrece el caso del algoritmo Bosco, utilizado para gestionar el bono social eléctrico. El Tribunal Supremo obligó al Gobierno a abrir su código y explicar sus criterios. Esa sentencia ilustra la magnitud del problema: no se trata de cuestiones técnicas menores, sino de derechos fundamentales. Cuando un programa informático decide sobre el acceso a un beneficio social, estamos ante una decisión política que debe ser sometida a control democrático.

 

La Unión Europea ha intentado adelantarse con la Ley de Inteligencia Artificial, que clasifica los sistemas de “alto riesgo” y les impone obligaciones de transparencia. Sin embargo, el ritmo del derecho nunca alcanza al de la innovación tecnológica. Las instituciones reaccionan, pero las plataformas globales avanzan más rápido, imponiendo estándares invisibles que afectan al debate público y a la forma de ejercer la ciudadanía.

 

Cuando los algoritmos gobiernan, lo hacen con riesgos que conviene nombrar. El primero es la opacidad: cuando la lógica de un sistema no se entiende, la confianza en las instituciones se resquebraja. El segundo es el sesgo: los algoritmos aprenden de datos históricos, y esos datos arrastran prejuicios que se transforman en decisiones aparentemente objetivas pero profundamente injustas. Un tercer riesgo es la dependencia del sector privado: buena parte de los sistemas que influyen en la esfera pública son propiedad de grandes empresas tecnológicas, que no responden ante los parlamentos ni ante los tribunales nacionales. Por último, está la exclusión: quienes carecen de competencias digitales quedan marginados de procesos donde el acceso a la información y a los servicios depende de la mediación tecnológica.

 

Estos problemas remiten a una cuestión esencial: los algoritmos no son neutrales. Detrás de cada modelo hay elecciones humanas sobre qué datos recoger, qué variables priorizar, qué objetivos perseguir. Esas elecciones son políticas, aunque se disfracen de cálculo técnico. De ahí surgen preguntas fundamentales: quién controla los algoritmos, quién responde cuando fallan, qué derechos tiene un ciudadano para apelar una decisión automática que le perjudica. Si no se actúa, corremos el riesgo de consolidar una “algocracia” que debilite la soberanía popular.

 

Un ámbito donde esta dimensión perversa se hace especialmente evidente es la gestión de la inmigración. Algunos países europeos, así como Estados Unidos, Canadá y Australia, han introducido sistemas algorítmicos para evaluar solicitudes de asilo, gestionar fronteras o detectar perfiles considerados “de riesgo”. En teoría, el objetivo es agilizar procesos y garantizar criterios uniformes. En la práctica, se trata de mecanismos de control que refuerzan sesgos, deshumanizan la gestión migratoria y dificultan el acceso a derechos básicos.

 

En Canadá, el sistema de “evaluación de riesgo” aplicado a solicitantes de asilo ha sido criticado por organizaciones de derechos humanos al incorporar patrones de datos que favorecen a ciertos países frente a otros. En Australia, el uso de algoritmos para asignar visados fue denunciado por reproducir discriminaciones contra solicitantes de regiones en conflicto. En Estados Unidos, el Departamento de Seguridad Nacional utiliza herramientas predictivas para evaluar la “probabilidad de integración” de inmigrantes, criterios que rara vez se hacen públicos. Y en Europa, la Agencia Frontex ha invertido en sistemas de vigilancia algorítmica para predecir rutas migratorias en el Mediterráneo, priorizando la contención frente al salvamento.

 

«En la gestión de la inmigración, la automatización legitima exclusiones con apariencia de objetividad matemática y dificulta que los afectados puedan cuestionarlas».

 

En todos estos casos, lo que se presenta como neutralidad tecnológica oculta decisiones profundamente políticas: quién puede entrar, quién puede quedarse, quién es considerado una amenaza. La automatización genera un doble efecto. Por un lado, legitima exclusiones con la apariencia de objetividad matemática. Por otro, hace más difícil cuestionarlas, porque los criterios de los algoritmos no son transparentes ni fácilmente comprensibles para los afectados. El resultado es una política migratoria menos humana y más opaca, donde el control se desplaza del debate parlamentario a servidores informáticos.

 

Este uso de la política algorítmica en la inmigración revela el riesgo de convertir la tecnología en un instrumento de gestión de lo que se percibe como problema más que como derecho. Si la migración se concibe únicamente en términos de riesgo y seguridad, los algoritmos se diseñan para clasificar y excluir. De este modo, lo que debería ser una decisión política abierta al debate democrático se cierra en una ecuación técnica que solo unos pocos especialistas pueden entender.

 

Frente a esa deriva, cabe preguntarse cómo garantizar que los algoritmos aplicados a la inmigración respeten principios básicos de justicia y derechos humanos. La respuesta exige transparencia plena sobre los criterios utilizados, acceso de los solicitantes a explicaciones comprensibles, posibilidad de recurso ante decisiones automatizadas y auditorías independientes que evalúen sesgos y efectos discriminatorios. Sin estos mecanismos, el riesgo es evidente: una política migratoria convertida en un engranaje algorítmico que excluye sin debate y que deshumaniza a quienes buscan una vida mejor.

 

La reflexión sobre la inmigración muestra, con crudeza, que cuando los algoritmos gobiernan no estamos ante un fenómeno técnico, sino ante un modo de gobernar. Y lo que está en juego no es solo la eficiencia administrativa, sino la calidad misma de nuestras democracias.

 

Frente a este panorama, es necesario un marco de acción que garantice la compatibilidad entre innovación tecnológica y democracia. En primer lugar, se requieren leyes claras y exigentes que obliguen a la transparencia de los algoritmos cuando afectan a derechos fundamentales. En segundo lugar, auditorías independientes con capacidad real de examinar sistemas públicos y privados, con acceso a datos y criterios de diseño. En tercer lugar, el reconocimiento del derecho ciudadano a obtener explicaciones comprensibles sobre decisiones automatizadas y a impugnarlas. En cuarto lugar, la participación ciudadana: abrir espacios de deliberación para que la sociedad defina los límites y los valores que deben guiar estas tecnologías. Y en quinto lugar, avanzar hacia una soberanía digital que reduzca la dependencia de las grandes plataformas, reforzando capacidades públicas en el ámbito tecnológico.

 

«Cuando los algoritmos gobiernan, la política ya no puede limitarse a la gestión de datos: es un desafío democrático que afecta a todos».

 

Cuando los algoritmos gobiernan, la política ya no puede limitarse a la gestión de datos. Es un desafío democrático que afecta a todos. Si no se regula con rigor y transparencia, puede aumentar las desigualdades, erosionar la confianza en las instituciones y limitar la deliberación pública. Pero si se aborda con decisión, también puede ser una oportunidad para reforzar la democracia, innovar en las formas de participación y replantear la soberanía en clave digital.

Lecturas recomendadas

 

«Algorithmic Democracy: A Critical Perspective Based on Deliberative Democracy» – Domingo García-Marzá y Patrici Calvo (2024). Un análisis académico que conecta la democracia deliberativa con la necesidad de regular los sistemas algorítmicos, mostrando cómo la participación ciudadana puede equilibrar el poder de la tecnología. Springer.

«Governance of Algorithms» – Daniel Innerarity (2025). Reflexión sobre la legitimidad de la gobernanza algorítmica y los dilemas que plantea la cesión de autoridad a sistemas automatizados en la toma de decisiones públicas. Diálogo Político.

«Vigilar y predecir: el nuevo gobierno de los algoritmos» – Sandro Luce (2025). Estudio que examina cómo los algoritmos de predicción y vigilancia, acelerados durante la pandemia, han reconfigurado la relación entre Estado, ciudadanía y derechos fundamentales. Ius et Scientia.

«Big Tech, Algorithmic Power, and Democratic Control» – Ugur Aytac (2024). Investigación sobre cómo el poder concentrado de las grandes plataformas tecnológicas amenaza la democracia y qué mecanismos institucionales pueden servir para controlarlo. PhilPapers / Journal of Politics.

«Reclaiming Constitutional Authority of Algorithmic Power» – Yiyang Mei y Michael J. Broyde (2025). Propuesta de un marco constitucional para limitar y regular el poder algorítmico, estableciendo responsabilidades claras y mecanismos de resistencia democrática. arXiv.

Información sobre la articulista

Anna I. López es doctora en Ciencia Política y licenciada en Periodismo y dirige el Máster en Comunicación y Marketing Político en la Universidad Internacional de Valencia. Ha sido asesora en instituciones públicas y analista en medios de comunicación. Su último libro es La extrema derecha en Europa (Tirant, 2025).