¿Estamos pensando… o delegando?
La IA en la gestión pública centroamericana y
el riesgo de perder el juicio crítico
Por Jesse J. De León ORCID 0009-0009-1746-8682
Publicado en la revista quincenal del ICAP — 15 de diciembre 2025
Arte de la película: Inteligencia Artificial DreamWorks Pictures Amblin Entertainment
Introducción
Si
tenemos suerte, la inteligencia artificial (IA) ha entrado a las oficinas
públicas centroamericanas con promesas de eficiencia, transparencia y
modernización. Pero hay una pregunta que pocos se hacen: ¿estamos usando la IA
para tomar mejores decisiones… o para dejar de tomarlas? Una investigación
reciente con 102 profesionales, académicos, estudiantes y servidores públicos entre
ellos, revela un fenómeno inquietante: casi la mitad delega el análisis y la
redacción a la IA, y un tercio se siente ansioso si no tiene acceso a ella por
una semana. Aunque esa cifra no sea una muestra significativa, es un reflejo de lo que puede ocurrir en las oficinas públicas de nuestra región.
Este artículo
explora el riesgo de una dependencia cognitiva silenciosa y propone cuatro
criterios prácticos para que la IA fortalezca —no sustituya— el juicio humano
en la administración pública.
la tentación
de la eficiencia
Imaginemos a
una alcaldesa que recibe una propuesta de inversión para un sistema de riego en
una comunidad afectada por sequía. En lugar de leer los estudios técnicos y
hablar con los productores, pide a su asistente de IA que:
1.
Resuma
los documentos,
2.
Genere
una matriz de pros y contras,
3.
Escriba
el dictamen de aprobación.
4.
En
8 minutos, tiene listo un informe impecable.
5.
Lo
firma.
Y
nadie cuestiona que el terreno propuesto es un humedal protegido.
Este no es un caso hipotético. Es una variante moderna de los trágicos episodios de “Death by GPS”, donde conductores siguieron ciegamente instrucciones algorítmicas hasta sumergir sus autos en lagos o colapsar puentes en desuso. Hoy, los algoritmos no solo nos dicen cómo llegar… también nos indican qué decidir. Y eso, en la gestión pública, es donde debe encenderse la alerta.
¿Delegar o
potenciar? Dos caminos para la IA en lo público
Nuestra
encuesta a profesionales centroamericanos muestra un patrón claro:
|
Actividad |
% Delegación |
|
Redacción de informes, oficios, decretos |
40,4 % |
|
Análisis de datos o información |
48,1 % |
|
Traducción de documentos |
30,8 % |
|
Navegación (Google Maps, Waze) |
44,2 % |
|
Toma de decisiones importantes |
9,6 % |
A primera
vista, parece tranquilizador: casi nadie dice que usa IA para decidir lo
crítico.
Pero miremos más profundo:
- El 46,2 % la usa para “identificar
puntos ciegos en su análisis”,
- El 42,3 % para “verificar la
lógica de sus argumentos”,
- El 38,5 % para “organizar
información compleja antes de analizarla”.
Esto revela una
delegación indirecta pero real: la IA no decide por el servidor público…
pero sí diseña el marco en el que él decide. Es el arquitecto invisible del
razonamiento. El peligro no está en el uso de la IA. Está en la pérdida gradual
de la capacidad de cuestionarla. Como señala la Dra. Mara Dierssen, presidenta
del Consejo Español del Cerebro: “Cuando delegamos en exceso, dejamos en
manos de la IA el procesamiento de la información y perdemos la oportunidad de
fortalecer la memoria, el pensamiento crítico y la resolución autónoma de
problemas.”
Lecciones de
“Death by GPS” para la administración pública:
En
2022, un hombre en Carolina del Norte perdió la vida tras ser guiado por su GPS
hacia un puente colapsado. El sistema no falló técnicamente: simplemente no
había sido actualizado. Pero el conductor ignoró lo que sus ojos le decían: no
hay puente. Confío más en el algoritmo que en su propio juicio. La
neurociencia confirma que este fenómeno va más allá de lo simbólico. Un estudio
de Dahmani (2023) demostró que los usuarios intensivos de GPS dejan de
construir mapas mentales del entorno. Su cerebro atrofia circuitos del
hipocampo relacionados con la orientación espacial.
¿Y en el ámbito
cognitivo?
Un estudio de Gerlich (2025) con 666 participantes encontró una correlación
fuerte y negativa (r = –0.68, p < 0.001) entre el uso frecuente de IA y las
puntuaciones en pruebas de pensamiento crítico.
Es decir: más IA , menos capacidad para detectar sesgos, evaluar fuentes o
construir argumentos sólidos.
Y la
vulnerabilidad es generacional: los jóvenes (17–25 años), con mayor exposición
temprana a la IA, mostraron los niveles más altos de dependencia… y las
puntuaciones más bajas en pensamiento autónomo.
Tres casos
reales donde la IA puede ayudar… o dañar
Caso 1: IA
como amplificador
Un equipo del Ministerio de Salud usó IA para analizar 10 años de reportes de
brotes epidemiológicos y detectar patrones estacionales. Luego, con esos
insights, diseñó una campaña anticipada de vacunación en zonas de alto riesgo.
→ La IA procesó datos; los humanos interpretaron, decidieron y actuaron.
Caso 2: IA
como sustituto
Una unidad de compras
públicas adoptó un sistema de IA para evaluar ofertas. El algoritmo priorizaba
el menor precio… y descartaba proveedores locales por no cumplir con formatos
digitales estandarizados.
Resultado: contratos más baratos, pero con menor impacto social y mayor
rotación de proveedores.
→ La IA decidió dentro de sus límites; los humanos dejaron de cuestionar
los criterios.
Caso 3: IA
como validador (el más peligroso)
Una oficina municipal usó IA para redactar un informe sobre violencia contra la
mujer. El modelo, entrenado con datos sesgados, minimizó la incidencia de
violencia psicológica y enfatizó la económica.
El equipo lo revisó superficialmente: “suena coherente”.
→ La IA no solo generó contenido; también validó un sesgo como verdad.
Cuatro
recomendaciones prácticas para gobiernos locales y nacionales
No se trata de
prohibir la IA. Se trata de usarla con conciencia. Aquí, cuatro acciones
concretas —probadas en contextos reales— para evitar la delegación pasiva:
1. Protocolo
de “verificación humana obligatoria”
Antes de
aprobar cualquier decisión crítica (contrataciones, políticas sociales,
presupuesto), exija un formato de juicio crítico con tres preguntas:
- ¿Qué asumió la IA al generar esta
recomendación?
- ¿Qué información omitió o no pudo
procesar?
- ¿Qué sesgos podrían estar presentes
en los datos de entrada?
Este protocolo
ya se prueba en ciudades de Estonia y Canadá, con reducción del 30 % en errores
de interpretación de datos.
2. Formación
en “autonomía tecnológica”
No basta
enseñar a usar ChatGPT. Hay que enseñar a pensar frente a él.
Incorpore en los programas de capacitación para servidores públicos módulos
como:
- “Cómo detectar un sesgo algorítmico
en 5 minutos”,
- “Ejercicios sin IA: redactar un
oficio, analizar una tabla, diseñar una matriz SWOT”,
- “El arte de decir ‘no’ a lo que la
IA sugiere —y justificarlo”.
3. Diseñar
sistemas que pregunten, no que respondan
En lugar de
interfaces que entregan un informe listo, promueva herramientas que:
- Planteen contraargumentos (“¿y si
los datos estuvieran incompletos?”),
- Exijan justificación (“¿por qué
eligió este criterio?”),
- Ofrezcan múltiples versiones (“aquí
hay 3 formas de redactar este decreto: ¿Cuál refleja mejor su
intención?”).
Ejemplo: la
herramienta “CritiQ”, usada en el gobierno de Singapur, obliga al
usuario a contestar al menos dos preguntas de reflexión antes de generar un
texto final.
4. Fomentar
una cultura de “desconexión deliberada”
Proponga días
mensuales de “gestión analógica”:
- Reuniones sin pantallas, con
pizarrón y post-its,
- Redacción de borradores a mano,
- Análisis de casos sin acceso a IA.
Esto no es
nostalgia. Es entrenamiento cognitivo —como ir al gimnasio para el cerebro.
En conclusión,
el juicio humano no es un cuello de botella… es el valor añadido y aunque la IA
pueda procesar millones de datos en segundos, solo el ser humano puede decidir qué
es justo, qué es urgente, qué es sostenible. En la era algorítmica, la
verdadera eficiencia no está en hacer más rápido… sino en pensar mejor. Por
eso, el pensamiento crítico, la empatía y el coraje ético, entre otros, es lo
que ninguna máquina puede sustituir… pero sí atrofiar, si dejamos de
ejercitarlo.
Como escribí en
mi investigación: “No se trata de rechazar la IA. Se trata de recordar
quiénes somos cuando ella no está.” Porque al final, la medida de una
administración pública no será cuán bien usa la tecnología… sino cuán capaz es
de atender las necesidades de la población y llevarles desarrollo a través de
la tecnología sin perder el rumbo.
Nota del autor:
Este artículo
se basa en una investigación más amplia titulada “La inteligencia artificial
como prótesis cognitiva: ventajas, limitaciones y riesgos de una dependencia
creciente” (De León, 2025), disponible en 2026. jesse7deleon.blogspot.com

Comentarios