Ir al contenido principal

La IA en la gestión pública centroamericana

¿Estamos pensando… o delegando?

La IA en la gestión pública centroamericana y el riesgo de perder el juicio crítico

Por Jesse J. De León ORCID 0009-0009-1746-8682


Publicado en la revista quincenal del ICAP — 15 de diciembre 2025


Arte de la película:  Inteligencia Artificial   DreamWorks Pictures  Amblin Entertainment

Introducción

Si tenemos suerte, la inteligencia artificial (IA) ha entrado a las oficinas públicas centroamericanas con promesas de eficiencia, transparencia y modernización. Pero hay una pregunta que pocos se hacen: ¿estamos usando la IA para tomar mejores decisiones… o para dejar de tomarlas? Una investigación reciente con 102 profesionales, académicos, estudiantes y servidores públicos entre ellos, revela un fenómeno inquietante: casi la mitad delega el análisis y la redacción a la IA, y un tercio se siente ansioso si no tiene acceso a ella por una semana. Aunque esa cifra no sea una muestra significativa, es un reflejo de lo que puede ocurrir en las oficinas públicas de nuestra región. 

Este artículo explora el riesgo de una dependencia cognitiva silenciosa y propone cuatro criterios prácticos para que la IA fortalezca —no sustituya— el juicio humano en la administración pública.

la tentación de la eficiencia

Imaginemos a una alcaldesa que recibe una propuesta de inversión para un sistema de riego en una comunidad afectada por sequía. En lugar de leer los estudios técnicos y hablar con los productores, pide a su asistente de IA que:

1.    Resuma los documentos,

2.    Genere una matriz de pros y contras,

3.    Escriba el dictamen de aprobación.

4.    En 8 minutos, tiene listo un informe impecable.

5.    Lo firma.

Y nadie cuestiona que el terreno propuesto es un humedal protegido.

Este no es un caso hipotético. Es una variante moderna de los trágicos episodios de “Death by GPS”, donde conductores siguieron ciegamente instrucciones algorítmicas hasta sumergir sus autos en lagos o colapsar puentes en desuso. Hoy, los algoritmos no solo nos dicen cómo llegar… también nos indican qué decidir. Y eso, en la gestión pública, es donde debe encenderse la alerta.

¿Delegar o potenciar? Dos caminos para la IA en lo público

Nuestra encuesta a profesionales centroamericanos muestra un patrón claro:

Actividad

% Delegación

Redacción de informes, oficios, decretos

40,4 %

Análisis de datos o información

48,1 %

Traducción de documentos

30,8 %

Navegación (Google Maps, Waze)

44,2 %

Toma de decisiones importantes

9,6 %

A primera vista, parece tranquilizador: casi nadie dice que usa IA para decidir lo crítico.
Pero miremos más profundo:

  • El 46,2 % la usa para “identificar puntos ciegos en su análisis”,
  • El 42,3 % para “verificar la lógica de sus argumentos”,
  • El 38,5 % para “organizar información compleja antes de analizarla”.

Esto revela una delegación indirecta pero real: la IA no decide por el servidor público… pero sí diseña el marco en el que él decide. Es el arquitecto invisible del razonamiento. El peligro no está en el uso de la IA. Está en la pérdida gradual de la capacidad de cuestionarla. Como señala la Dra. Mara Dierssen, presidenta del Consejo Español del Cerebro: “Cuando delegamos en exceso, dejamos en manos de la IA el procesamiento de la información y perdemos la oportunidad de fortalecer la memoria, el pensamiento crítico y la resolución autónoma de problemas.”

 

Lecciones de “Death by GPS” para la administración pública:

En 2022, un hombre en Carolina del Norte perdió la vida tras ser guiado por su GPS hacia un puente colapsado. El sistema no falló técnicamente: simplemente no había sido actualizado. Pero el conductor ignoró lo que sus ojos le decían: no hay puente. Confío más en el algoritmo que en su propio juicio. La neurociencia confirma que este fenómeno va más allá de lo simbólico. Un estudio de Dahmani (2023) demostró que los usuarios intensivos de GPS dejan de construir mapas mentales del entorno. Su cerebro atrofia circuitos del hipocampo relacionados con la orientación espacial.

¿Y en el ámbito cognitivo?
Un estudio de Gerlich (2025) con 666 participantes encontró una correlación fuerte y negativa (r = –0.68, p < 0.001) entre el uso frecuente de IA y las puntuaciones en pruebas de pensamiento crítico.


Es decir: más IA , menos capacidad para detectar sesgos, evaluar fuentes o construir argumentos sólidos.

Y la vulnerabilidad es generacional: los jóvenes (17–25 años), con mayor exposición temprana a la IA, mostraron los niveles más altos de dependencia… y las puntuaciones más bajas en pensamiento autónomo.

 

Tres casos reales donde la IA puede ayudar… o dañar

Caso 1: IA como amplificador
Un equipo del Ministerio de Salud usó IA para analizar 10 años de reportes de brotes epidemiológicos y detectar patrones estacionales. Luego, con esos insights, diseñó una campaña anticipada de vacunación en zonas de alto riesgo.
→ La IA procesó datos; los humanos interpretaron, decidieron y actuaron.

Caso 2: IA como sustituto
Una unidad de compras públicas adoptó un sistema de IA para evaluar ofertas. El algoritmo priorizaba el menor precio… y descartaba proveedores locales por no cumplir con formatos digitales estandarizados.
Resultado: contratos más baratos, pero con menor impacto social y mayor rotación de proveedores.
→ La IA decidió dentro de sus límites; los humanos dejaron de cuestionar los criterios.

Caso 3: IA como validador (el más peligroso)
Una oficina municipal usó IA para redactar un informe sobre violencia contra la mujer. El modelo, entrenado con datos sesgados, minimizó la incidencia de violencia psicológica y enfatizó la económica.
El equipo lo revisó superficialmente: “suena coherente”.
→ La IA no solo generó contenido; también validó un sesgo como verdad.

 

Cuatro recomendaciones prácticas para gobiernos locales y nacionales

No se trata de prohibir la IA. Se trata de usarla con conciencia. Aquí, cuatro acciones concretas —probadas en contextos reales— para evitar la delegación pasiva:

1. Protocolo de “verificación humana obligatoria”

Antes de aprobar cualquier decisión crítica (contrataciones, políticas sociales, presupuesto), exija un formato de juicio crítico con tres preguntas:

  • ¿Qué asumió la IA al generar esta recomendación?
  • ¿Qué información omitió o no pudo procesar?
  • ¿Qué sesgos podrían estar presentes en los datos de entrada?

Este protocolo ya se prueba en ciudades de Estonia y Canadá, con reducción del 30 % en errores de interpretación de datos.

2. Formación en “autonomía tecnológica”

No basta enseñar a usar ChatGPT. Hay que enseñar a pensar frente a él.
Incorpore en los programas de capacitación para servidores públicos módulos como:

  • “Cómo detectar un sesgo algorítmico en 5 minutos”,
  • “Ejercicios sin IA: redactar un oficio, analizar una tabla, diseñar una matriz SWOT”,
  • “El arte de decir ‘no’ a lo que la IA sugiere —y justificarlo”.

3. Diseñar sistemas que pregunten, no que respondan

En lugar de interfaces que entregan un informe listo, promueva herramientas que:

  • Planteen contraargumentos (“¿y si los datos estuvieran incompletos?”),
  • Exijan justificación (“¿por qué eligió este criterio?”),
  • Ofrezcan múltiples versiones (“aquí hay 3 formas de redactar este decreto: ¿Cuál refleja mejor su intención?”).

Ejemplo: la herramienta “CritiQ”, usada en el gobierno de Singapur, obliga al usuario a contestar al menos dos preguntas de reflexión antes de generar un texto final.

4. Fomentar una cultura de “desconexión deliberada”

Proponga días mensuales de “gestión analógica”:

  • Reuniones sin pantallas, con pizarrón y post-its,
  • Redacción de borradores a mano,
  • Análisis de casos sin acceso a IA.

Esto no es nostalgia. Es entrenamiento cognitivo —como ir al gimnasio para el cerebro.

 

En conclusión, el juicio humano no es un cuello de botella… es el valor añadido y aunque la IA pueda procesar millones de datos en segundos, solo el ser humano puede decidir qué es justo, qué es urgente, qué es sostenible. En la era algorítmica, la verdadera eficiencia no está en hacer más rápido… sino en pensar mejor. Por eso, el pensamiento crítico, la empatía y el coraje ético, entre otros, es lo que ninguna máquina puede sustituir… pero sí atrofiar, si dejamos de ejercitarlo.

Como escribí en mi investigación: “No se trata de rechazar la IA. Se trata de recordar quiénes somos cuando ella no está.” Porque al final, la medida de una administración pública no será cuán bien usa la tecnología… sino cuán capaz es de atender las necesidades de la población y llevarles desarrollo a través de la tecnología sin perder el rumbo.

 

Nota del autor:

Este artículo se basa en una investigación más amplia titulada “La inteligencia artificial como prótesis cognitiva: ventajas, limitaciones y riesgos de una dependencia creciente” (De León, 2025), disponible en 2026. jesse7deleon.blogspot.com

 

Comentarios

Paty ha dicho que…
Lo felicito por su análisis a cerca de este tema, la influencia de IA 😳
Jesse De león ha dicho que…
Gracias por tomarte el tiempo de leer este blog. Espero que te sirvan los contenidos del mismo o nuestro ayudante el "chatbot". Saludos

PUBLICIDAD

PUBLICIDAD

📲 Compartir en WhatsApp