top of page

Inteligencia artificial en el sector público: Una introducción

  • 29 abr
  • 3 Min. de lectura

Cuando el algoritmo se vuelve Estado: el nuevo Leviatán de silicio


Por: Dr. Jorge Alberto Hidalgo Toledo

Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México


En el principio no fue la palabra, sino el código.

Y el código fue con el Estado.

Y el código fue el Estado.


Las repúblicas modernas nacieron para garantizar el bien común a través de instituciones humanas. Pero hoy, sus nervaduras profundas se reescriben con líneas de programación que ni los propios burócratas comprenden. La inteligencia artificial ha dejado de ser un “tema de innovación” para convertirse en infraestructura de gobierno: automatiza decisiones, anticipa fraudes, regula servicios, predice comportamientos. Y sin embargo, al hacerlo, también redefine —en silencio y con eficiencia— la relación entre gobernante y gobernado.


Según lo expuesto por el Observatorio de Innovación del Sector Público de la OCDE, más de 60 gobiernos han adoptado herramientas de IA en sus operaciones. No se trata ya de proyectos piloto, sino de sistemas integrados en justicia, salud, seguridad, medio ambiente, educación o administración tributaria. Un nuevo aparato estatal en donde lo algorítmico reemplaza lo deliberativo. Lo automático a lo político. Lo técnico a lo ético.


El regreso del autómata ilustrado

“La modernidad comienza cuando la máquina deja de ser un instrumento y se convierte en interlocutora”, escribió Gilbert Simondon (1958), anticipando el cambio de estatuto que hoy vive la inteligencia artificial. Pero en el caso del Estado, esta interlocución corre el riesgo de devenir obediencia. ¿Quién programa a quién cuando el funcionario acepta sin revisión la predicción del algoritmo? ¿Cuándo una recomendación se transforma en sentencia? El problema no es sólo técnico, es ontológico.


Los sistemas inteligentes no sólo hacen; también definen lo que debe hacerse. Y en esa capacidad de establecer prioridades, jerarquías, alertas o riesgos, construyen una visión del mundo que escapa al escrutinio democrático. Como advertía Hannah Arendt (1958), el mayor peligro no proviene de las decisiones autoritarias, sino de las decisiones sin autor.


Desde el uso de sistemas predictivos para asignar beneficios sociales hasta los experimentos de automatización judicial, el nuevo Leviatán digital no necesita garrote: basta con la estadística. Y eso abre una grieta fundamental en nuestra arquitectura institucional. ¿Podemos seguir hablando de justicia cuando esta se mide por regresiones lineales y no por principios deliberativos?


Cartografía de una paradoja ética: más eficiente, menos humano

Los beneficios, desde luego, son evidentes: mayor eficiencia operativa, reducción de costos, personalización de servicios, mejor capacidad predictiva. Pero esos mismos beneficios podrían ocultar su costo simbólico: la deshumanización del vínculo entre ciudadano y Estado.


Si el algoritmo decide quién merece atención médica primero, o a qué escuela debe ir un niño según su perfil de datos, ¿dónde queda la agencia humana?, ¿dónde la capacidad de disenso, de excepción, de error? Como recuerda Paul Ricoeur, el verdadero sentido de la justicia reside en “la interrupción de la lógica de equivalencias” (Ricoeur, 1995). Y la IA, por diseño, busca equivalencias, patrones, correlaciones. Todo lo que la justicia —y la ética pública— no puede reducir sin traicionarse.


En sociedades donde la exclusión se programa y el sesgo se automatiza, la IA no representa una solución sino una aceleración de las fallas sistémicas. Es el código como espejo invertido de nuestras desigualdades. Una infraestructura que no es neutral, sino ideológica. Un nuevo tipo de poder: invisible, inapelable, y en muchos casos, irreversible.


Tal vez haya llegado el momento de recordar que no todo lo que puede ser automatizado debe serlo. Que el gobierno, para ser verdaderamente público, debe seguir siendo humano. Que el algoritmo debe servir al ciudadano y no reemplazarlo. Que la ética no puede subcontratarse a la eficiencia.


Y entonces cabe preguntar, no como tecnócratas ni como juristas, sino como ciudadanos:

¿qué sucede cuando el Estado se convierte en software y la justicia en interfaz?


Referencia base:

Observatorio de Innovación del Sector Público (2023). Inteligencia artificial en el sector público: Una introducción. OCDE. https://irp.cdn-website.com/81280eda/files/uploaded/OPSI-AI-Primer-Spanish.pdf

コメント


Mantente al día con nuestra Newsletter

© 2025 by Anáhuac Human & Nonhuman Communication Lab. Powered and secured by Universidad Anáhuac México

bottom of page