Ir al contenido principal

La IA en la gestión pública centroamericana

¿Estamos pensando… o delegando?

La IA en la gestión pública centroamericana y el riesgo de perder el juicio crítico

Por Jesse J. De León ORCID 0009-0009-1746-8682


Publicado en la revista quincenal del ICAP — 15 de diciembre 2025


Arte de la película:  Inteligencia Artificial   DreamWorks Pictures  Amblin Entertainment

Introducción

Si tenemos suerte, la inteligencia artificial (IA) ha entrado a las oficinas públicas centroamericanas con promesas de eficiencia, transparencia y modernización. Pero hay una pregunta que pocos se hacen: ¿estamos usando la IA para tomar mejores decisiones… o para dejar de tomarlas? Una investigación reciente con 102 profesionales, académicos, estudiantes y servidores públicos entre ellos, revela un fenómeno inquietante: casi la mitad delega el análisis y la redacción a la IA, y un tercio se siente ansioso si no tiene acceso a ella por una semana. Aunque esa cifra no sea una muestra significativa, es un reflejo de lo que puede ocurrir en las oficinas públicas de nuestra región. 

Este artículo explora el riesgo de una dependencia cognitiva silenciosa y propone cuatro criterios prácticos para que la IA fortalezca —no sustituya— el juicio humano en la administración pública.

la tentación de la eficiencia

Imaginemos a una alcaldesa que recibe una propuesta de inversión para un sistema de riego en una comunidad afectada por sequía. En lugar de leer los estudios técnicos y hablar con los productores, pide a su asistente de IA que:

1.    Resuma los documentos,

2.    Genere una matriz de pros y contras,

3.    Escriba el dictamen de aprobación.

4.    En 8 minutos, tiene listo un informe impecable.

5.    Lo firma.

Y nadie cuestiona que el terreno propuesto es un humedal protegido.

Este no es un caso hipotético. Es una variante moderna de los trágicos episodios de “Death by GPS”, donde conductores siguieron ciegamente instrucciones algorítmicas hasta sumergir sus autos en lagos o colapsar puentes en desuso. Hoy, los algoritmos no solo nos dicen cómo llegar… también nos indican qué decidir. Y eso, en la gestión pública, es donde debe encenderse la alerta.

¿Delegar o potenciar? Dos caminos para la IA en lo público

Nuestra encuesta a profesionales centroamericanos muestra un patrón claro:

Actividad

% Delegación

Redacción de informes, oficios, decretos

40,4 %

Análisis de datos o información

48,1 %

Traducción de documentos

30,8 %

Navegación (Google Maps, Waze)

44,2 %

Toma de decisiones importantes

9,6 %

A primera vista, parece tranquilizador: casi nadie dice que usa IA para decidir lo crítico.
Pero miremos más profundo:

  • El 46,2 % la usa para “identificar puntos ciegos en su análisis”,
  • El 42,3 % para “verificar la lógica de sus argumentos”,
  • El 38,5 % para “organizar información compleja antes de analizarla”.

Esto revela una delegación indirecta pero real: la IA no decide por el servidor público… pero sí diseña el marco en el que él decide. Es el arquitecto invisible del razonamiento. El peligro no está en el uso de la IA. Está en la pérdida gradual de la capacidad de cuestionarla. Como señala la Dra. Mara Dierssen, presidenta del Consejo Español del Cerebro: “Cuando delegamos en exceso, dejamos en manos de la IA el procesamiento de la información y perdemos la oportunidad de fortalecer la memoria, el pensamiento crítico y la resolución autónoma de problemas.”

 

Lecciones de “Death by GPS” para la administración pública:

En 2022, un hombre en Carolina del Norte perdió la vida tras ser guiado por su GPS hacia un puente colapsado. El sistema no falló técnicamente: simplemente no había sido actualizado. Pero el conductor ignoró lo que sus ojos le decían: no hay puente. Confío más en el algoritmo que en su propio juicio. La neurociencia confirma que este fenómeno va más allá de lo simbólico. Un estudio de Dahmani (2023) demostró que los usuarios intensivos de GPS dejan de construir mapas mentales del entorno. Su cerebro atrofia circuitos del hipocampo relacionados con la orientación espacial.

¿Y en el ámbito cognitivo?
Un estudio de Gerlich (2025) con 666 participantes encontró una correlación fuerte y negativa (r = –0.68, p < 0.001) entre el uso frecuente de IA y las puntuaciones en pruebas de pensamiento crítico.


Es decir: más IA , menos capacidad para detectar sesgos, evaluar fuentes o construir argumentos sólidos.

Y la vulnerabilidad es generacional: los jóvenes (17–25 años), con mayor exposición temprana a la IA, mostraron los niveles más altos de dependencia… y las puntuaciones más bajas en pensamiento autónomo.

 

Tres casos reales donde la IA puede ayudar… o dañar

Caso 1: IA como amplificador
Un equipo del Ministerio de Salud usó IA para analizar 10 años de reportes de brotes epidemiológicos y detectar patrones estacionales. Luego, con esos insights, diseñó una campaña anticipada de vacunación en zonas de alto riesgo.
→ La IA procesó datos; los humanos interpretaron, decidieron y actuaron.

Caso 2: IA como sustituto
Una unidad de compras públicas adoptó un sistema de IA para evaluar ofertas. El algoritmo priorizaba el menor precio… y descartaba proveedores locales por no cumplir con formatos digitales estandarizados.
Resultado: contratos más baratos, pero con menor impacto social y mayor rotación de proveedores.
→ La IA decidió dentro de sus límites; los humanos dejaron de cuestionar los criterios.

Caso 3: IA como validador (el más peligroso)
Una oficina municipal usó IA para redactar un informe sobre violencia contra la mujer. El modelo, entrenado con datos sesgados, minimizó la incidencia de violencia psicológica y enfatizó la económica.
El equipo lo revisó superficialmente: “suena coherente”.
→ La IA no solo generó contenido; también validó un sesgo como verdad.

 

Cuatro recomendaciones prácticas para gobiernos locales y nacionales

No se trata de prohibir la IA. Se trata de usarla con conciencia. Aquí, cuatro acciones concretas —probadas en contextos reales— para evitar la delegación pasiva:

1. Protocolo de “verificación humana obligatoria”

Antes de aprobar cualquier decisión crítica (contrataciones, políticas sociales, presupuesto), exija un formato de juicio crítico con tres preguntas:

  • ¿Qué asumió la IA al generar esta recomendación?
  • ¿Qué información omitió o no pudo procesar?
  • ¿Qué sesgos podrían estar presentes en los datos de entrada?

Este protocolo ya se prueba en ciudades de Estonia y Canadá, con reducción del 30 % en errores de interpretación de datos.

2. Formación en “autonomía tecnológica”

No basta enseñar a usar ChatGPT. Hay que enseñar a pensar frente a él.
Incorpore en los programas de capacitación para servidores públicos módulos como:

  • “Cómo detectar un sesgo algorítmico en 5 minutos”,
  • “Ejercicios sin IA: redactar un oficio, analizar una tabla, diseñar una matriz SWOT”,
  • “El arte de decir ‘no’ a lo que la IA sugiere —y justificarlo”.

3. Diseñar sistemas que pregunten, no que respondan

En lugar de interfaces que entregan un informe listo, promueva herramientas que:

  • Planteen contraargumentos (“¿y si los datos estuvieran incompletos?”),
  • Exijan justificación (“¿por qué eligió este criterio?”),
  • Ofrezcan múltiples versiones (“aquí hay 3 formas de redactar este decreto: ¿Cuál refleja mejor su intención?”).

Ejemplo: la herramienta “CritiQ”, usada en el gobierno de Singapur, obliga al usuario a contestar al menos dos preguntas de reflexión antes de generar un texto final.

4. Fomentar una cultura de “desconexión deliberada”

Proponga días mensuales de “gestión analógica”:

  • Reuniones sin pantallas, con pizarrón y post-its,
  • Redacción de borradores a mano,
  • Análisis de casos sin acceso a IA.

Esto no es nostalgia. Es entrenamiento cognitivo —como ir al gimnasio para el cerebro.

 

En conclusión, el juicio humano no es un cuello de botella… es el valor añadido y aunque la IA pueda procesar millones de datos en segundos, solo el ser humano puede decidir qué es justo, qué es urgente, qué es sostenible. En la era algorítmica, la verdadera eficiencia no está en hacer más rápido… sino en pensar mejor. Por eso, el pensamiento crítico, la empatía y el coraje ético, entre otros, es lo que ninguna máquina puede sustituir… pero sí atrofiar, si dejamos de ejercitarlo.

Como escribí en mi investigación: “No se trata de rechazar la IA. Se trata de recordar quiénes somos cuando ella no está.” Porque al final, la medida de una administración pública no será cuán bien usa la tecnología… sino cuán capaz es de atender las necesidades de la población y llevarles desarrollo a través de la tecnología sin perder el rumbo.

 

Nota del autor:

Este artículo se basa en una investigación más amplia titulada “La inteligencia artificial como prótesis cognitiva: ventajas, limitaciones y riesgos de una dependencia creciente” (De León, 2025), disponible en 2026. jesse7deleon.blogspot.com

 

Comentarios

Paty ha dicho que…
Lo felicito por su análisis a cerca de este tema, la influencia de IA 😳
Jesse De león ha dicho que…
Gracias por tomarte el tiempo de leer este blog. Espero que te sirvan los contenidos del mismo o nuestro ayudante el "chatbot". Saludos

Entradas populares de este blog

Pan y Circo: De gladiadores a corredores

  Pan y Circo: De gladiadores a corredores El viejo truco de los gobernantes   Es un truco tan viejo como Roma. Cuando el pueblo crecía y el erario se volvía botín para el despilfarro, los gobernantes temían al descontento popular. ¿La fórmula para calmar a la multitud? Pan y circo. El emperador Vespasiano mandó a construir el Coliseo, y su hijo Tito lo inauguró con cien días de juegos. Luchas de gladiadores, batallas navales y espectáculos sangrientos mantenían a la gente entretenida, mientras el pan gratuito llenaba los estómagos. Distracción masiva para ocultar problemas reales. Más de dos mil años después, la historia se repite en Guatemala. La ciudad crece en altura y en vehículos, pero no en desarrollo. El resultado: un tráfico insoportable que colapsa con la primera llovizna. Un trayecto de 40 minutos se convierte fácilmente en dos horas de frustración. ¿Y cuál es la respuesta oficial? Circo. Carreras de 10k, 15k y 20k que maquillan las calles por unas horas...

Del vaso familiar al colapso hospitalario

del vaso familiar al colapso hospitalario  Un impuesto para las bebidas carbonatadas y la industria del azucar...  Publicado en la Revista del Instituto Centroamericano de Administración Pública      En los años 80`s especialmente los domingos se reunía toda la familia a la hora de la comida y en las celebraciones o fiestas de cumpleaños, el momento más esperado era cuando se servía la soda. En casa, un litro de soda alcanzaba para toda la familia (4 – 5 integrantes). Con el tiempo, la industria modificó  el habito de los consumidores  invirtiendo en negocios externos para  incrementar las ventas de la soda (producto principal),  re diseñando los vasos. En muchos supermercados empieza la venta de vasos con mayor capacidad a los que se hacían anteriormente y las familias sustituyeron paulatinamente sus vajillas por estos nuevos productos y sin darse cuenta, el litro de soda alcanzaba para menos vasos, por lo que era indispensable comprar dos...

Gobernanza estratégica para la protección del mandato democrático

            Gobernanza estratégica para la protección                          del mandato democrático Resumen Ejecutivo En la administración pública contemporánea, el riesgo no desaparece: se gestiona. Cada decisión adoptada por una autoridad política tiene implicaciones jurídicas, presupuestarias y administrativas que pueden proyectarse años después de haber concluido el mandato. El verdadero liderazgo público no consiste únicamente en tomar decisiones audaces, sino en asegurar que dichas decisiones sean técnica y jurídicamente sostenibles. La gestión del riesgo administrativo se convierte así en un mecanismo de blindaje institucional que protege tanto al Estado como al titular político. 1. El riesgo administrativo como realidad estructural Toda entidad pública opera dentro de un entramado normativo complejo. Contrataciones, ejecución presupuestaria, reformas organizacionales o cambios regul...

PUBLICIDAD

PUBLICIDAD

📲 Compartir en WhatsApp