La inteligencia artificial (IA) y los sistemas algorítmicos han dejado de ser una promesa para convertirse en una realidad dentro del sector público. Cometidos que tratan la gestión de servicios sanitarios hasta la predicción de delitos o la asignación de ayudas sociales, las administraciones públicas de todo el mundo están adoptando estas tecnologías en busca de una mayor eficiencia y personalización. Sin embargo, esta transición hacia una «gobernanza algorítmica» no está exenta de profundos desafíos. La opacidad de las «cajas negras», el riesgo de sesgos discriminatorios y el impacto en los derechos fundamentales plantean interrogantes cruciales sobre la justicia, la transparencia y la rendición de cuentas en la era digital. Este artículo explora cómo se están utilizando los algoritmos en las políticas públicas, los riesgos que entrañan y los marcos éticos y regulatorios necesarios para garantizar que esta revolución tecnológica sirva al interés público y fortalezca, en lugar de debilitar, nuestros valores democráticos.
Tabla de Contenidos
La Irrupción de los Algoritmos en lo Público
La digitalización ha transformado la comunicación y la política, y ahora está remodelando la propia maquinaria del Estado. La inteligencia artificial (IA), definida como «sistemas que muestran un comportamiento inteligente al analizar su entorno y tomar medidas —con cierto grado de autonomía— para lograr objetivos específicos» (Criado, 2021, citando a la Comisión Europea), se está convirtiendo en una herramienta fundamental para la Administración Pública.
Los algoritmos —las instrucciones que guían a estos sistemas de IA— están siendo integrados en el ciclo de las políticas públicas, tanto en la identificación de problemas como en su evaluación (Capdeferro, 2020). El objetivo es claro: crear una «administración inteligente» o «Administración Pública 4.0» que sea más eficiente, proactiva y capaz de gestionar la complejidad de las sociedades contemporáneas. Sin embargo, como advierten Innerarity y Colomina (2020), esta transformación no es solo técnica, sino profundamente política, ya que la «dataficación y la gobernanza algorítmica» están creando nuevos sistemas de poder y nuevas desigualdades sociales.
¿Cómo se Usan los Algoritmos en las Políticas Públicas? La Administración Pública 4.0
La adopción de la IA en el sector público, aunque todavía incipiente en comparación con el sector privado, abarca un espectro cada vez más amplio de funciones y servicios. Los departamentos están utilizando algoritmos para:
- Optimizar la prestación de servicios: Los chatbots y asistentes virtuales gestionan consultas ciudadanas, mientras que los sistemas inteligentes personalizan servicios en áreas como el empleo o la educación.
- Mejorar la toma de decisiones: Herramientas de análisis de big data ayudan a los gestores públicos a identificar patrones y predecir necesidades. Por ejemplo, se utilizan algoritmos para prever zonas con alto riesgo de criminalidad (policía predictiva) o para detectar posibles casos de fraude fiscal o en la solicitud de ayudas sociales (Criado, 2021).
- Automatizar procesos administrativos: Tareas repetitivas y de gran volumen, como la tramitación de licencias o la gestión de formularios, se automatizan para liberar a los empleados públicos y reducir los tiempos de espera. Un ejemplo es el sistema de alertas para la prevención de malas prácticas en la Administración de la Generalitat Valenciana (Capdeferro, 2020).
- Asignar recursos escasos: En sanidad, se desarrollan algoritmos para predecir brotes epidémicos o para priorizar pacientes en listas de espera. En servicios sociales, se utilizan para evaluar el riesgo de vulnerabilidad de familias y asignar ayudas de forma proactiva.
Estas aplicaciones prometen una administración más eficiente y basada en la evidencia, pero su implementación plantea serios desafíos relacionados con su diseño, su supervisión y su impacto social.
La «Caja Negra» del Poder. Riesgos de la Gobernanza Algorítmica
La creciente dependencia de los algoritmos en la toma de decisiones públicas genera una serie de riesgos que son objeto de un intenso debate académico y político.
Opacidad y la «Caja Negra»
Muchos de los algoritmos más avanzados, especialmente los basados en aprendizaje profundo (deep learning), funcionan como «cajas negras»: son capaces de ofrecer resultados y predicciones de gran precisión, pero es extremadamente difícil, a veces incluso para sus propios programadores, entender el razonamiento exacto que han seguido para llegar a ellos (Capdeferro, 2020). Esta opacidad choca frontalmente con principios fundamentales del derecho administrativo como la motivación de los actos y la transparencia. Si un ciudadano recibe una decisión negativa de un sistema algorítmico (p. ej., la denegación de una ayuda) y la administración no puede explicar las razones concretas de esa decisión, se vulnera su derecho a la defensa y a una tutela judicial efectiva.
Sesgos y Discriminación Algorítmica
Lejos de ser neutrales, los algoritmos pueden reproducir e incluso amplificar los sesgos existentes en la sociedad. Si los datos con los que se entrena a un sistema de IA reflejan prejuicios históricos (raciales, de género, socioeconómicos), el algoritmo aprenderá a tomar decisiones discriminatorias (Criado, 2021). Por ejemplo, un algoritmo de predicción policial entrenado con datos de detenciones pasadas podría concentrar la vigilancia en barrios de minorías, creando un círculo vicioso de sobrerrepresentación policial y detenciones que «confirman» el sesgo inicial. Esto convierte a la IA en una herramienta que, bajo una apariencia de objetividad técnica, puede perpetuar la injusticia.
Impacto en la Esfera Pública y la Democracia
En el ámbito político, los algoritmos de las redes sociales ya juegan un papel crucial en la configuración de la opinión pública. Al personalizar y filtrar la información que vemos, pueden crear «burbujas de filtro» o «cámaras de eco» que nos aíslan de perspectivas diferentes, contribuyendo a la polarización (Pérez-Seijo & Vizoso, 2024). Nos encontramos en «democracias algorítmicas» (Innenarity & Colomina, 2021) donde la verdad se fragmenta y la conversación pública tiene lugar en espacios tecnológicos de propiedad privada, cuyos criterios de funcionamiento son opacos y comerciales. La proliferación de bots y la propaganda computacional, capaces de crear una «opinión pública artificial», añaden otra capa de riesgo para la integridad de los procesos democráticos (Pérez-Seijo & Vizoso, 2024).
Hacia una Gobernanza Democrática de la IA
Ante estos desafíos, se está desarrollando un marco global para la gobernanza de la IA en el sector público. La Unión Europea, en particular, ha apostado por un modelo propio que busca equilibrar la innovación con la protección de los derechos fundamentales, en contraste con el enfoque más centrado en el mercado de Estados Unidos o el control estatal de China (Criado, 2021).
Los pilares de esta gobernanza democrática de la IA son:
- Regulación y Garantías Jurídicas: Se están desarrollando normativas, como la Ley de Inteligencia Artificial de la UE, que establecen requisitos obligatorios para los sistemas de IA de «alto riesgo» (aquellos que pueden afectar a la seguridad o a los derechos fundamentales). Estas regulaciones exigen, entre otras cosas, la calidad de los datos, la robustez técnica, la trazabilidad y, crucialmente, la supervisión humana.
- Principios Éticos: Organismos como la UNESCO y la OCDE han propuesto marcos éticos que deben guiar el desarrollo de la IA. Estos principios incluyen la transparencia, la justicia y la equidad, la no discriminación, la rendición de cuentas y la explicabilidad (Criado, 2021). El objetivo es que la IA sea «humano-céntrica», es decir, que esté al servicio del bienestar humano y los valores democráticos.
- Transparencia Algorítmica: Se está empezando a concebir la transparencia algorítmica como un derecho de los ciudadanos. Esto implica no solo el derecho a saber cuándo se está interactuando con un sistema de IA, sino también a recibir una explicación comprensible de las decisiones que toma. Iniciativas como la publicación de registros de algoritmos utilizados por las administraciones públicas son un primer paso en esta dirección (Capdeferro, 2020).
- Participación y Auditoría Ciudadana: La gobernanza de la IA no puede ser un asunto exclusivo de expertos y tecnócratas. Es fundamental abrir canales para la participación ciudadana en el diseño y la supervisión de los sistemas algorítmicos, permitiendo que la sociedad civil audite su funcionamiento y su impacto.
La inteligencia artificial ofrece al sector público herramientas de un potencial inmenso para mejorar la eficiencia, la personalización y la capacidad de respuesta de las políticas públicas. Sin embargo, la tecnología no es una solución mágica ni es políticamente neutral. Su diseño e implementación reflejan valores, prioridades y relaciones de poder.
La transición hacia una «Administración Pública Inteligente» nos enfrenta a un dilema. Podemos optar por un modelo tecnocrático, donde la eficiencia se persiga a costa de la opacidad y la equidad, o podemos apostar por un modelo democrático, donde la IA se desarrolle y regule bajo los principios de transparencia, rendición de cuentas y respeto a los derechos fundamentales.
El verdadero desafío no es sólo tecnológico, sino político y social. Consiste en construir un marco de gobernanza robusto que asegure que los algoritmos que cada vez más moldean nuestras vidas estén al servicio del interés público y contribuyan a crear sociedades más justas, inclusivas y democráticas.
Preguntas Frecuentes (FAQ)
1. ¿Qué son los algoritmos en las políticas públicas?
Son sistemas informáticos, a menudo basados en inteligencia artificial, que utilizan datos para automatizar tareas, asistir en la toma de decisiones o personalizar servicios públicos. Por ejemplo, un algoritmo puede analizar solicitudes de becas para priorizar a los candidatos que cumplen ciertos criterios.
2. ¿Cuáles son los principales beneficios de usar IA en la administración pública?
Los principales beneficios son el aumento de la eficiencia (automatizando tareas repetitivas), la mejora en la toma de decisiones (analizando grandes volúmenes de datos para identificar patrones), la personalización de los servicios públicos (adaptándolos a las necesidades de cada ciudadano) y la optimización en el uso de los recursos públicos.
3. ¿Qué es una «caja negra» algorítmica?
Es un término que se usa para describir sistemas de IA, especialmente de aprendizaje profundo, cuyo funcionamiento interno es tan complejo que resulta imposible saber con exactitud cómo llegan a una determinada conclusión o decisión. Esta opacidad es uno de los mayores desafíos para la transparencia y la rendición de cuentas.
4. ¿Pueden los algoritmos ser discriminatorios?
Sí. Si un algoritmo se entrena con datos históricos que reflejan sesgos sociales (raciales, de género, etc.), el sistema «aprenderá» a replicar y, a menudo, a amplificar esa discriminación. Esto puede llevar a que tome decisiones injustas bajo una falsa apariencia de objetividad técnica.
5. ¿Cómo se puede garantizar que la IA en el sector público sea ética y justa?
A través de una combinación de regulación legal estricta (especialmente para sistemas de «alto riesgo»), la adhesión a principios éticos claros (transparencia, equidad, supervisión humana), la promoción de la «transparencia algorítmica» (el derecho de los ciudadanos a entender las decisiones automatizadas) y la creación de mecanismos de auditoría y participación ciudadana.
Referencias
- Capdeferro Villagrasa, O. (2020). La inteligencia artificial del sector público: desarrollo y regulación de la actuación administrativa inteligente en la cuarta revolución industrial. IDP. Revista de Internet, Derecho y Política, (30).
- Criado, J. I. (2021). Inteligencia Artificial (y Administración Pública). Eunomía. Revista en Cultura de la Legalidad, (20), 348-372.
- Innerarity, D., & Colomina, C. (2020). La verdad en las democracias algorítmicas. Revista CIDOB d’Afers Internacionals, (124), 11-23.
- Larrondo, M. E., & Grandi, N. M. (2021). Inteligencia Artificial, algoritmos y libertad de expresión. Universitas, (34), 177-194.
- Margetts, H., Lehdonvirta, V., González-Bailón, S., Hutchinson, J., Bright, J., Nash, V., & Sutcliffe, D. (2021). The Internet and public policy: Future directions. Policy & Internet, 13(2), 162-184.
- Pérez-Seijo, S., & Vizoso, Á. (2024). Digitalización, política e inteligencia artificial: revisión sistematizada de la producción científica. Más Poder Local, (56), 64-82.
- Reviglio, M. C., & Raimondo Anselmino, N. (2018). Escritos para pensar lo público-político en tiempos de algoritmos y plataformas conectivas. InMediaciones de la Comunicación, 13(1), 15-21.