Límite de Pista
IA en la administración pública: ¿una revolución silenciosa o una caja negra sin control?
Gobiernos de todo el mundo están incorporando algoritmos de inteligencia artificial para asignar recursos, detectar fraudes y anticipar demandas sociales. Aunque estas herramientas prometen eficiencia y predicción, también plantean retos serios sobre transparencia, equidad y control ciudadano.
Gobiernos que ya piensan con algoritmos
En la administración pública, la inteligencia artificial (IA) dejó de ser un concepto futurista para convertirse en una herramienta real de gestión. Según un informe de la OCDE, los gobiernos están usando IA para predecir necesidades de servicios futuros, optimizar recursos y mejorar la gestión de riesgos, analizando grandes volúmenes de datos históricos y tendencias actuales para anticiparse a eventos sociales o sanitarios.
Esto se traduce en aplicaciones concretas: desde análisis predictivo para anticipar demanda hospitalaria o abandono escolar hasta sistemas que ayudan a clasificar y organizar expedientes judiciales –como la herramienta “Prometea” en Argentina– o chatbots que agilizan la atención al ciudadano. Los algoritmos permiten, por ejemplo, identificar patrones ocultos en bases de datos para detectar irregularidades en el gasto público o fraude fiscal, liberando a inspectores para enfocar recursos en casos críticos.
Eficiencia vs. control democrático
El potencial de estos sistemas parece enorme: anticipar brotes epidemiológicos, priorizar la atención en servicios sociales, automatizar tareas repetitivas o reducir el fraude administrativo. Sin embargo, no todo lo que brilla es oro tecnológico. Uno de los retos más comentados es la opacidad de estos modelos, muchas veces descritos como “cajas negras”.
Esto significa que ni los propios diseñadores ni los ciudadanos pueden siempre explicar por qué un algoritmo tomó determinada decisión. La ausencia de transparencia dificulta la rendición de cuentas y puede afectar derechos fundamentales de las personas. En España, el Tribunal Supremo subrayó la importancia de la “transparencia algorítmica”, reconociendo que los ciudadanos tienen derecho a entender cómo se aplican estos sistemas en decisiones que afectan sus vidas.
Además, sin mecanismos de auditoría adecuados, los algoritmos pueden reproducir sesgos presentes en los datos, generando discriminaciones inadvertidas. Casos en el Reino Unido y otros países han mostrado herramientas gubernamentales con sesgos raciales o discriminatorios, especialmente en áreas como inmigración o detección de fraude, lo que ha provocado críticas y llamadas a mayor regulación.
Riesgos que van más allá de lo técnico
Los desafíos no son sólo de programación. El uso masivo de datos personales para alimentar sistemas predictivos plantea interrogantes éticos sobre privacidad y vigilancia, así como la posibilidad de que el Estado acumule información sensible sin controles adecuados. En Argentina, investigaciones sobre percepción ciudadana muestran un fuerte rechazo a que la IA determine decisiones clave como la asignación de beneficios sociales o intervenga en decisiones judiciales, reflejando desconfianza en la falta de regulación clara.
Expertos coinciden en que la clave está en equilibrar innovación y supervisión: implementar algoritmos con estándares éticos, mecanismos de auditoría independientes y participación ciudadana en su diseño y evaluación. De lo contrario, una herramienta diseñada para mejorar la gestión pública podría convertirse en un obstáculo para la justicia y la equidad.
¿Hacia dónde va la administración pública digital?
La IA tiene el potencial de transformar la administración pública como pocas herramientas antes lo hicieron. Sin embargo, su implementación exige una conversación pública amplia, legislación específica y estructuras que garanticen que estos sistemas tecnológicos están al servicio de la ciudadanía, no al revés.
