La inteligencia artificial como prótesis cognitiva/ Is AI an amplifier or a substitute for our minds? My latest analysis on AI as a "cognitive prosthesis".
La inteligencia artificial como prótesis cognitiva
Ventajas, limitaciones y riesgos de una dependencia creciente
P. Hd. Jesse J. De León ORCID 0009-0009-1746-8682
Febrero 2026
Contenido
La inteligencia
artificial como prótesis cognitiva
Estrategia de búsqueda y
selección de fuentes
Evolución del pensamiento
y conversión en una prótesis cognitiva tecnológica
1. Principales usos de la
IA como herramienta de soporte cognitivo
2. Beneficios funcionales
y percepción de eficiencia
3. Riesgos asociados a la
dependencia excesiva
4. Criterios emergentes
para un uso ético y equilibrado
Análisis factorial
exploratorio (EFA)
Gráfico de Perfil
(Profile Plot) o Radar de Medias (Mean Radar Chart)
Gráfico de barras
apiladas normalizadas (en porcentajes)
Recomendaciones para
investigación futura
Resumen Ejecutivo
Esta investigación explora
críticamente el impacto de la inteligencia artificial (IA) como prótesis
cognitiva en la autonomía intelectual, el pensamiento crítico y la toma de
decisiones autónoma. Mediante una revisión sistemática de literatura científica
(2019–2025) y una encuesta transversal a 102 usuarios regulares de IA, el
estudio identifica una tensión fundamental: si bien la IA amplifica la
eficiencia y democratiza el acceso al conocimiento, su uso normalizado
—especialmente sin marcos reflexivos— erosiona silenciosamente capacidades
cognitivas esenciales.
Los resultados revelan que:
·
48,0 % de los participantes usan IA
para análisis de información, 40,2 % para redacción y 46,1 % para detectar
sesgos en su propio razonamiento, lo que evidencia una dependencia funcional
implícita.
·
37,3 % reconoce que su capacidad
para resolver problemas complejos ha disminuido desde que usa IA.
·
38,2 % experimenta cierto grado de
ansiedad ante una semana sin acceso a IA.
·
Solo 28,4 % contrasta
sistemáticamente las respuestas de IA con múltiples fuentes, lo que subraya una
brecha entre la autopercepción de control y las prácticas reales.
El análisis de regresión múltiple confirma que:
·
La ansiedad tecnológica y la
frecuencia de uso se asocian negativamente con la autonomía cognitiva.
·
La metacognición crítica emerge como
el predictor más robusto y positivo de autonomía, reforzando su rol como factor
protector.
Aunque la muestra es altamente
educada (80,4 % con título universitario o posgrado) y mayoritariamente adulta
(65,7 % entre 35 y 44 años), los hallazgos sugieren que la erosión cognitiva no
es exclusiva de usuarios novatos, sino un riesgo transversal en contextos de
uso intensivo.
Ante estos riesgos, el estudio
propone un marco ético de cuatro criterios para una prótesis cognitiva
sostenible:
1.
Verificación activa de todo output
algorítmico.
2.
Diseño de herramientas que fomenten
la metacognición (reflexión sobre el propio pensamiento).
3.
Educación explícita en autonomía
tecnológica en currículos académicos y profesionales.
4.
Límites éticos claros en la
delegación de decisiones críticas.
En conclusión, la IA no debe ser
rechazada, sino rediseñada y utilizada con conciencia crítica para que funcione
como amplificador —no sustituto— del juicio humano. La verdadera inteligencia
en la era algorítmica no radica en la capacidad de usar tecnología, sino en la
de prescindir de ella sin perder el rumbo.
La inteligencia artificial como prótesis cognitiva
ventajas, limitaciones y riesgos de una dependencia
creciente
Jesse J. De León
Keywords
Pensamiento crítico, habilidades
cognitivas, Inteligencia Artificial, dependencia, Inteligencia Artificial,
Prótesis Cognitiva, Dependencia Tecnológica, Autonomía Intelectual, Juicio
Crítico, Responsabilidad Humana, Ética en Inteligencia Artificial, Pensamiento
delegado, Riesgos de la IA, Limitaciones de la Inteligencia Artificial, Toma de
Decisiones Asistida, Impacto Cognitivo de la Tecnología, Sociedad y Tecnología,
Automatización Cognitiva, Transformación Digital.
Abstract
La
inteligencia artificial (IA) se ha integrado de forma creciente en la vida
cotidiana y profesional como una prótesis cognitiva que promete eficiencia,
pero que también plantea riesgos para la autonomía intelectual. Esta
investigación cualitativa explora cómo la dependencia creciente de la IA como
extensión del pensamiento afecta la capacidad de pensamiento crítico y la toma
de decisiones autónoma en contextos contemporáneos. Mediante una revisión
sistemática de literatura científica (2019–2025) y el análisis temático de
estudios empíricos —incluyendo el trabajo de Gerlich (2025), que reporta una
correlación negativa fuerte (r = –0.68, p < 0.001) entre el uso de IA y las
habilidades de pensamiento crítico—, se identifican patrones de descargo
cognitivo pasivo que erosionan habilidades fundamentales como el análisis
independiente, la evaluación de sesgos y la resolución autónoma de problemas.
Se examinan analogías históricas, como los casos fatales de “Death by GPS”, y
evidencia neurológica que demuestra la atrofia de funciones espaciales por
delegación tecnológica, como metáfora del fenómeno actual. Los hallazgos
revelan una vulnerabilidad generacional, con usuarios jóvenes mostrando mayor
dependencia y menor capacidad crítica, así como una relación inversa entre
frecuencia de uso de IA y confianza en el juicio propio. A partir de estos
resultados, se propone un marco de cuatro criterios para un uso ético y
sostenible de la IA: verificación activa, diseño para la metacognición,
educación en autonomía tecnológica y límites éticos claros en la delegación
cognitiva. El estudio concluye que la IA debe funcionar como amplificador —no
sustituto— del pensamiento humano, preservando así la esencia de la función
intelectual en la era algorítmica.
Introducción
Actualmente
la tecnología avanza a pasos agigantados y se encuentra al alcance de nuestras
manos a través de un solo clic y los beneficios que ha traído consigo es la
facilitación del uso de la Inteligencia Artificial (IA), sin embargo, la
facilitación de ese recurso hace que muchas personas deleguen todas las tareas
que tienen que hacer, creando una dependencia absoluta que, a través del
tiempo, reduce la capacidad de analizar y pensar para resolver los problemas
por sí mismos. La Doctora Mara Dierssen es presidente del Consejo Español del
Cerebro y de la Asociación Española para el Avance de la Ciencia y
Neurobiología del Centro de Regulación Genómica indica que “Si utilizamos la IA
para escribir artículos científicos, e-mails o resumir textos, nuestras habilidades
cognitivas corren el riesgo de verse comprometidas, ya que cuando delegamos en
exceso dejamos en manos de la IA el procesamiento de la información y perdemos
la oportunidad de fortalecer la memoria. Reducir el esfuerzo neurológico
disminuye nuestra capacidad para pensar críticamente y resolver problemas de
manera independiente” (Dierssen, 2024).
Es
por ello que debemos utilizar la IA con responsabilidad y saber cuándo delegar,
es decir que en ocasiones hay que encontrar algunos patrones, cantidades o
características comunes en una base de datos muy grande y a una persona le
llevaría años hacerlo, sin embargo, si se utiliza la IA para hacer esa tarea,
podría llevarle al menos un minuto. Por lo tanto ¿hasta dónde podemos utilizar
la IA en nuestras vidas? continuando con el ejemplo, al tener ese mar de
registros ya procesados, el ser humano debe ser capaz de analizar esa
información generada con IA y más aún, ser capaz de tomar decisiones acertadas
para tener un producto terminado. Así mismo, el no delegar en exceso las tareas
va a permitir mantener la capacidad del pensamiento crítico para estar seguro
que no haya algún sesgo o la información no esté manipulada.
En
el campo de la medicina una prótesis es un aparato artificial que se utiliza
para reemplazar una parte del cuerpo que falta, no funciona correctamente o
necesita mejorar su función (Biblioteca Nacional de Medicina, 2025), las
prótesis que suelen ser más conocidas son las de las piernas, brazos, rodillas,
dientes o incluso al hueso de la mandíbula cuando se reemplaza se conoce como
prótesis maxilofacial. Sin embargo, jamás alguien habría pensado que existiría
una prótesis para nuestra capacidad cognitiva; que es la capacidad nuestro
cerebro para procesar, memorizar y utilizar la información para el aprendizaje,
razonamiento y resolución de problemas (maragall, 2025). Al no utilizar
correctamente el cerebro, la agudeza mental empieza a disminuir por falta de
una mente sano por la dependencia de la IA a tal extremo que se delegan
decisiones personales y esos resultados que en el mejor de los casos habría que
analizar, se ejecutan mecánicamente a ciegas como si fuera la verdad absoluta
sin importar las consecuencias.
¿Cuántas
veces se ha visto a personas dependiendo totalmente de la IA? Hay aplicaciones
de navegación en donde se coloca la dirección de partida y de destino, la IA
integrada da instrucciones para dirigir a las personas hacia una ruta con menos
densidad vehicular o menos distancia; sin embargo, ha ocurrido que los
algoritmos fallan o alguna actualización no se instala y los conduce por una
ruta que físicamente no es accesible o es una ruta en donde no hay un puente,
no hay acceso, existe algún rio u obstáculo, sin embargo, las personas han
delegado su recorrido a la IA y a pesar que están viendo lo inaccesible del
paso, hacen el intento de continuar su recorrido, solo porque la aplicación
indica que va en “dirección correcta”.
Por
lo tanto, la dependencia de la IA, disminuye la capacidad de las personas para
hacer un análisis y desarrollar el pensamiento crítico que permite determinar
si se está tomando la decisión correcta o equivocada.
Propósito de la investigación
El
propósito de esta investigación es profundizar en la compleja y multifacética
relación entre el uso cada vez más dependiente de la inteligencia artificial
(IA) como prótesis cognitiva y su impacto transformador en la autonomía
intelectual, el pensamiento crítico y la toma de decisiones en los seres
humanos. En una era caracterizada por la ubicuidad digital, donde la IA se
integra de manera progresiva y, a menudo, imperceptible en casi todos los
aspectos de la vida cotidiana y profesional —desde sistemas educativos
adaptativos y diagnósticos médicos asistidos hasta algoritmos de recomendación
y herramientas de análisis empresarial—, resulta crucial trascender la
perspectiva meramente utilitaria que se enfoca únicamente en sus ventajas
operativas evidentes, para examinar de manera rigurosa y sistemática sus
efectos a largo plazo en las habilidades cognitivas fundamentales que definen
la condición humana.
Este
estudio busca no solo describir de manera exhaustiva cómo se utiliza la IA en
diversos ámbitos como una herramienta de soporte y amplificación cognitiva,
sino también evaluar críticamente los riesgos inherentes y las implicaciones
éticas de una dependencia excesiva que podría estar reconfigurando
silenciosamente la arquitectura de nuestros procesos mentales. La investigación
se propone indagar en profundidad en la potencial erosión de habilidades
críticas como el razonamiento analítico, la síntesis de información compleja y
la dilución de la capacidad de toma de decisiones autónoma que podría surgir
cuando los individuos delegan sistemáticamente procesos mentales complejos a
algoritmos cada vez más sofisticados, generando una paradoja donde el aumento
de la eficiencia tecnológica podría coexistir con una disminución gradual de la
competencia cognitiva humana.
Más
allá del diagnóstico de estos fenómenos emergentes, esta investigación aspira a
contribuir al debate académico y social contemporáneo mediante la
identificación de los beneficios funcionales genuinos que ofrece la integración
de la IA en los procesos cognitivos, al tiempo que establece una cartografía
precisa de las limitaciones éticas y los riesgos asociados a su implementación
desregulada. En última instancia, este estudio tiene como fin proponer un marco
de referencia conceptual y metodológico con criterios claros, viables y
sostenibles para un uso ético y responsable de la IA que permita aprovechar su
potencial transformador sin comprometer la capacidad humana fundamental de
razonamiento independiente, juicio crítico y toma de decisiones autónoma, estableciendo
así las bases para una coexistencia equilibrada entre la inteligencia humana y
artificial en el contexto de una sociedad tecnológicamente avanzada pero
éticamente consciente.
Pregunta de la investigación
¿De qué manera la creciente
dependencia de la inteligencia artificial como prótesis cognitiva afecta la
autonomía intelectual y el pensamiento crítico en contextos cotidianos y
profesionales?
Hipótesis de la Investigación
Hipótesis Principal
"A mayor grado de dependencia
del uso de inteligencia artificial como prótesis cognitiva en actividades
cotidianas y profesionales, menor será el nivel de autonomía intelectual,
pensamiento crítico y capacidad de toma de decisiones independiente en los
individuos."
Identificación de Variables
Variable Independiente (VI)
Grado de dependencia del uso de IA como prótesis cognitiva:
Definición
conceptual: Nivel de reliance y frecuencia con que los individuos
utilizan sistemas de inteligencia artificial para realizar procesos cognitivos
que tradicionalmente ejecutaban de manera autónoma.
Variable Dependiente (VD)
Nivel de autonomía intelectual, pensamiento crítico y
capacidad de toma de decisiones independiente
Definición conceptual:
Capacidad de los individuos para procesar información, analizar situaciones
complejas y tomar decisiones basadas en razonamiento propio sin depender de
asistencia tecnológica externa.
Definición operacional:
Se medirá mediante:
Evaluación de capacidad de análisis de problemas complejos
sin asistencia tecnológica
Medición de tiempo de respuesta en tareas de toma de
decisiones autónomas
Calidad de argumentación en debates o ensayos realizados sin
IA
Hipótesis Específicas Derivadas
H1
"Los individuos con alta dependencia de IA mostrarán
menor capacidad para resolver problemas complejos sin asistencia tecnológica
comparados con aquellos con baja dependencia."
H2
"La frecuencia de uso de IA para tareas de análisis y
síntesis se correlacionará negativamente con las puntuaciones en tests de
pensamiento crítico independiente."
H3
"Los sujetos con mayor dependencia de IA experimentarán
mayor ansiedad y menor confianza al enfrentar decisiones importantes sin acceso
a herramientas de inteligencia artificial."
Objetivos
Objetivo general:
Analizar
el impacto del uso dependiente y creciente de la inteligencia artificial como
prótesis cognitiva en la autonomía intelectual, el pensamiento crítico y la
toma de decisiones humanas, identificando sus ventajas operativas, limitaciones
éticas y riesgos asociados, con el fin de evaluar su impacto en la autonomía de
las personas proponiendo criterios para un uso responsable y ético en contextos
profesionales y cotidianos.
Objetivos específicos:
- Describir
los principales usos de la IA como herramienta de soporte cognitivo en
distintos ámbitos (educación, salud, toma de decisiones).
- Evaluar los beneficios
funcionales y la eficiencia derivada del uso intensivo de IA.
- Identificar los riesgos
asociados a la dependencia excesiva de la IA, especialmente en lo que
respecta a la autonomía intelectual y la erosión de habilidades críticas.
Proponer criterios para un uso equilibrado, ético y sostenible de la IA
como herramienta cognitiva.
Metodología
Enfoque de investigación
Esta
investigación adopta un enfoque cualitativo descriptivo-analítico con elementos
de revisión sistemática de literatura, orientado a comprender en profundidad el
fenómeno de la dependencia de la IA como prótesis cognitiva y sus implicaciones
en la autonomía intelectual humana.
Diseño metodológico
Tipo de estudio
• Estudio
descriptivo-analítico basado en revisión bibliográfica sistemática.
• Análisis
documental de fuentes primarias y secundarias.
• Se elaborará una encuesta diseñada para
medir los objetivos de la investigación.
• Estudio transversal que examina el estado
actual del uso de IA como soporte cognitivo.
Estrategia de búsqueda y selección de fuentes
Bases de datos consultadas:
• PubMed/MEDLINE
• Google Scholar
• ScienceDirect
• IEEE Xplore
Digital Library
• JSTOR
• Repositorios
institucionales de universidades
Términos de búsqueda (en español e inglés):
• "Inteligencia
artificial" AND "dependencia cognitiva"
• "AI cognitive
dependency"
• "Prótesis
cognitiva" OR "Cognitive prosthetics"
• "Pensamiento
crítico" AND "tecnología"
• "Critical
thinking" AND "artificial intelligence"
• "Autonomía
intelectual" AND "IA"
• "Cognitive
offloading" AND "risks"
Criterios de inclusión:
• Publicaciones en
español e inglés
• Artículos
científicos revisados por pares (2019-2024)
• Estudios sobre
impacto cognitivo de la IA
• Investigaciones
sobre dependencia tecnológica
• Documentos de
organismos oficiales y expertos reconocidos
Criterios de exclusión:
• Publicaciones
anteriores a 2019 (excepto referencias clásicas fundamentales)
• Artículos no
revisados por pares
• Contenido sin
respaldo científico
• Duplicados
Método de análisis
Además
del análisis documental, se complementará la investigación con una encuesta
transversal dirigida a usuarios regulares de herramientas de IA en contextos
académicos y profesionales. La encuesta, diseñada con base en las dimensiones
de autonomía intelectual, ansiedad tecnológica y capacidad de análisis
independiente, permitirá contrastar las tendencias identificadas en la
literatura con la experiencia subjetiva de los usuarios. Los resultados
informarán la propuesta final de criterios educativos.
Análisis de contenido temático
Se realizará un análisis de contenido siguiendo las
siguientes fases:
1. Lectura
exploratoria: Revisión inicial de todas las fuentes seleccionadas.
2. Codificación
temática: Identificación de categorías emergentes relacionadas con:
●
Ventajas operativas de la IA
●
Limitaciones y riesgos cognitivos
●
Casos de dependencia excesiva
●
Propuestas de uso responsable
3. Análisis
comparativo: Contraste entre diferentes perspectivas y hallazgos.
4. Síntesis
interpretativa: Integración de resultados para responder a los objetivos.
Categorías de análisis
Dimensión 1: Usos de la IA como soporte cognitivo
●
Ámbito educativo
●
Ámbito sanitario
●
Toma de decisiones empresariales
●
Vida cotidiana (navegación,
comunicación, etc.)
Dimensión 2: Beneficios funcionales
●
Eficiencia en procesamiento de datos
●
Velocidad en tareas complejas
●
Acceso a información especializada
●
Optimización de recursos
Dimensión 3: Riesgos y limitaciones
●
Erosión de habilidades críticas
●
Dependencia excesiva
●
Sesgos algorítmicos
●
Pérdida de autonomía intelectual
Dimensión 4: Criterios para uso responsable
●
Principios éticos
●
Marcos regulatorios
●
Estrategias de equilibrio
●
Competencias digitales necesarias
Consideraciones éticas
●
Análisis crítico y objetivo de las
fuentes
●
Respeto por los derechos de autor en
todas las citas
●
Presentación equilibrada de ventajas
y limitaciones
●
Transparencia en las limitaciones
del estudio
Limitaciones del estudio
●
La investigación se basa
principalmente en fuentes documentales
●
El fenómeno estudiado está en
constante evolución tecnológica
●
Posible sesgo hacia literatura en
idiomas español e inglés
●
La velocidad de cambio tecnológico
puede hacer que algunos hallazgos pierdan vigencia rápidamente
●
La cantidad de personas encuestadas
no podrá representar significativamente a los diferentes grupos demográficos
que existen
Evolución del pensamiento y conversión en una
prótesis cognitiva tecnológica
El
ascenso del Homo sapiens (Cromañón) sobre el Homo neanderthalensis se debe a
una crucial ventaja cognitiva y cultural, no a la fuerza bruta. Esta evolución
fue catalizada por una modificación dietética clave: la ingesta de carne, rica
en nutrientes esenciales (B12, Hierro, Omega-3), sostuvo el alto costo
energético del cerebro, que consume cerca del 20% de la energía metabólica
total (Aiello, 1995). El dominio del fuego, al permitir la cocción de
alimentos, incrementó drásticamente la absorción de nutrientes y liberó energía
para el desarrollo cerebral, un concepto central en la hipótesis del
"tejido caro" (Wrangham, 2009). Neuroanatómicamente, el Homo sapiens
logró un incremento neuronal, especialmente en el neocórtex (lóbulo frontal
asociado al razonamiento complejo), gracias a una mayor producción de neuronas
durante el desarrollo fetal, una diferencia clave con los Neandertales
(Anneline Pinson y otros., 2022). Este desarrollo también incluyó un mayor
tamaño relativo del cerebelo, crucial para la planificación, el lenguaje y la
complejidad social (Kochiyama, 2018). Esta base biológica condujo a una fluidez
cognitiva superior, manifestada en la innovación tecnológica (herramientas de
hueso y proyectiles) y el desarrollo de un pensamiento simbólico avanzado,
evidente en el arte rupestre y los objetos de adorno (Mellars, 2005), lo que en
conjunto aseguró su éxito adaptativo y cultural.
El
desarrollo del razonamiento humano como capacidad de elegir las mejores
opciones para la supervivencia y la eficiencia ha sido el motor de la evolución
socioeconómica. Desde la transición neolítica, la agricultura impulsó la mejora
continua de las técnicas de siembra y cosecha, una necesidad amplificada por el
crecimiento poblacional que exigió la rentabilidad y la optimización de los
recursos (Diamond, 1997). Este imperativo económico, que busca asegurar que los
costos de producción y cuidado se reflejen en un precio de venta productivo,
demostró la aplicación práctica y constante del razonamiento.
A
lo largo de los siglos, el esfuerzo por desarrollar el intelecto se
institucionalizó a través de escuelas de pensamiento dedicadas a la medicina,
el arte y la música, cuyos estilos y técnicas reflejaron los avances cognitivos
de cada época. No obstante, fue la Revolución Industrial (finales del siglo
XVIII y principios del XIX), considerada un punto de inflexión en la aplicación
práctica del intelecto, la que generó una explosión de inventos destinados a
agilizar las actividades humanas. Paralelamente, esta era impulsó la educación
académica formal, cuyo objetivo era desarrollar la memorización, el
conocimiento y el pensamiento sistemático como habilidades esenciales para la
nueva economía (Hobsbawm, 1992).
El
razonamiento se utiliza diariamente, desde decisiones triviales como ajustar el
tiempo de sueño hasta complejas elecciones de mercado, como la fijación de
precios y la selección de materiales para garantizar la calidad y la
satisfacción del consumidor. Finalmente, con la llegada de la revolución
tecnológica, el mercado laboral demostró la importancia de la adaptabilidad
cognitiva: la obsolescencia de habilidades específicas, ejemplificada por el
reemplazo de la máquina de escribir por la computadora entre los años 60 y 90,
subraya que el éxito profesional, ya sea como empresario o trabajador, depende
directamente de la adquisición constante de conocimientos básicos, habilidades
especializadas y la capacidad de razonamiento estratégico (Castells, 2000) y
como ha sido siempre en el ser humano: la capacidad de adaptarse al cambio.
La
aceleración tecnológica de la década de 1990 marcó un punto de inflexión en las
prácticas académicas y laborales al optimizar significativamente el acceso a la
información y el procesamiento de datos. El advenimiento de la computadora
personal y el internet transformó las tediosas y prolongadas tareas de
investigación documental, que antes requerían días o semanas de labor en
bibliotecas físicas para la consulta de enciclopedias, en procesos expeditos
que podían completarse en cuestión de horas o minutos a través de un solo clic
(Castells, 2000). Esta digitalización no solo simplificó la búsqueda, sino que
también revolucionó el cálculo matemático: las tareas manuales de suma y resta,
delegadas inicialmente a la calculadora, fueron sustituidas por la potencia y
eficiencia de las hojas de cálculo y sus funciones automatizadas. Esta
tendencia hacia la convergencia y la ubicuidad alcanzó su máxima expresión a
mediados de la década de 2000, un periodo caracterizado por la explosión de la
economía .com y la aparición de un nuevo paradigma comunicativo. El lanzamiento
del iPhone en 2007, atribuido al ingenio de Steve Jobs, introdujo de forma
masiva el concepto de Smartphone (teléfono inteligente) (Isaacson, 2001). Este
dispositivo consolidó múltiples funcionalidades esenciales—teléfono, agenda,
calculadora, navegador de internet, reproductor multimedia, cámara y buzón de
correo electrónico—en un solo aparato. Desde este evento histórico, la
dependencia social de los dispositivos electrónicos se ha intensificado, convirtiéndolos
en herramientas indispensables para la vida diaria. Las mejoras subsiguientes
han transformado el smartphone en un centro de convergencia digital capaz de
reproducir películas, acceder a bibliotecas completas y emular consolas de
videojuegos, fusionando la productividad académica y laboral con el
entretenimiento total para todas las edades.
En
la actualidad la humanidad se encuentra en un punto de inflexión tecnológico
sin precedentes. Los avances en inteligencia artificial han trascendido las
fronteras de la automatización física para adentrarse en territorios que antes
considerábamos exclusivamente humanos: el procesamiento cognitivo, la toma de
decisiones y la generación de conocimiento. Esta revolución tecnológica plantea
interrogantes fundamentales sobre nuestra relación con las máquinas
inteligentes y su impacto en nuestras capacidades mentales.
Desde
la comunicación instantánea global hasta las cirugías asistidas por robots, la
tecnología ha redefinido los límites de lo posible. Sin embargo, el salto más
significativo radica en el desarrollo de modelos de inteligencia artificial
capaces de emular procesos mentales complejos. Ya no se trata únicamente de
sistemas que detectan patrones de consumo musical o cinematográfico; ahora
enfrentamos algoritmos capaces de generar contenido original, analizar datos
masivos en tiempo real y proporcionar recomendaciones especializadas en
múltiples disciplinas profesionales.
Actividades
que históricamente requerían años de formación y experiencia ahora pueden
ejecutarse en cuestión de segundos. La optimización de procesos empresariales,
que antes demandaba el conocimiento acumulado de generaciones de profesionales
transmitido a través de libros, docencia y experiencia práctica, puede ahora
realizarse mediante análisis automatizados. La identificación de patrones en
grandes volúmenes de datos, tarea que anteriormente requería equipos
especializados trabajando durante meses, se completa en minutos. La redacción
de documentos académicos, que exige habilidades específicas de investigación,
síntesis y argumentación, encuentra en la IA un asistente capaz de proporcionar
estructura, fuentes y coherencia textual.
Los
constantes avances en el desarrollo de estos sistemas, mediante actualizaciones
que perfeccionan errores y ajustan modelos de comportamiento, han logrado que
la inteligencia artificial alcance niveles de sofisticación que pueden parecer
indistinguibles de la cognición humana en muchas tareas específicas. Sin
embargo, es crucial reconocer que los seres humanos conservamos capacidades
fundamentales que permanecen irreplicables: nuestras dimensiones psicológicas
complejas, la capacidad de autocontrol consciente, el espectro emocional, la
imaginación creativa y esa cualidad esencialmente humana que nos hace
impredecibles y únicos en nuestras respuestas. (Steyvers, 2003)
Esta
paradoja—la creciente sofisticación de la IA junto con la persistencia de
capacidades exclusivamente humanas—ha dado lugar a un fenómeno particularmente
relevante: el uso de la inteligencia artificial como prótesis cognitiva. Al
igual que una prótesis física extiende o reemplaza capacidades corporales, la
IA está funcionando como una extensión de nuestras capacidades mentales,
procesando información, generando soluciones y tomando decisiones que
complementan o, en algunos casos, sustituyen nuestros procesos cognitivos
naturales.
El
patrón de adopción de estas tecnologías sigue una progresión predecible pero
preocupante. Los usuarios inicialmente experimentan un "descubrimiento
revelador" al comprobar las capacidades de la IA, lo que los lleva a
incrementar progresivamente su dependencia. La tecnología se convierte en un
"asesor multiprofesional" que abarca desde consultas médicas hasta
decisiones financieras, educativas e investigativas. Esta creciente dependencia
genera resultados inmediatos impresionantes: mayor productividad, reconocimiento
profesional y capacidad de generar outputs que superan las expectativas
tradicionales.
No
obstante, esta integración acelerada de la IA en nuestros procesos cognitivos
plantea interrogantes críticos sobre las consecuencias a largo plazo. ¿Estamos
fortaleciendo nuestras capacidades intelectuales o las estamos atrofiando? ¿La
dependencia creciente de estos sistemas mejora nuestra autonomía intelectual o
la erosiona sistemáticamente? ¿Qué sucede con nuestra capacidad de pensamiento
crítico cuando delegamos constantemente la evaluación y síntesis de información
a algoritmos?
La
preocupación por la erosión del pensamiento crítico debido a la dependencia de
la inteligencia artificial no es meramente teórica; hallazgos empíricos
recientes ofrecen evidencia cuantitativa sólida. En su estudio “AI Tools in
Society: Impacts on Cognitive Offloading and the Future of Critical Thinking”
(2025), publicado en la revista Societies, Michael Gerlich analizó a 666
participantes en el Reino Unido y encontró una correlación negativa fuerte y
estadísticamente significativa (r = –0.68, p < 0.001) entre el uso frecuente
de herramientas de IA y las puntuaciones en pruebas estandarizadas de
pensamiento crítico. Este hallazgo respalda directamente la hipótesis H2 de
esta investigación, al demostrar que cuanto mayor es la frecuencia con que los
individuos delegan tareas de análisis y síntesis a sistemas algorítmicos, menor
es su capacidad para evaluar argumentos, detectar sesgos o construir
razonamientos autónomos. Además, el estudio reveló que los participantes más
jóvenes (17–25 años) —grupo con mayor exposición temprana a la IA— mostraron
los niveles más altos de dependencia tecnológica y, simultáneamente, las
puntuaciones más bajas en habilidades críticas, lo que sugiere una
vulnerabilidad generacional ante la externalización cognitiva (Gerlich, 2025).
Más
allá de la correlación, (Gerlich, 2025) identificó un mecanismo explicativo
clave: el descargo cognitivo (cognitive offloading). Sus análisis de mediación
demostraron que la relación negativa entre el uso de IA y el pensamiento
crítico no es directa, sino que opera a través de la tendencia de los usuarios
a externalizar sistemáticamente procesos mentales —como la memoria de trabajo,
la evaluación de fuentes o la resolución de problemas— a dispositivos
inteligentes. Este fenómeno, ampliamente documentado en el reporte de Phys.org
titulado “Increased AI use linked to eroding critical thinking skills” (2025),
revela que la IA no solo sustituye tareas, sino que reconfigura hábitos
mentales: los usuarios, especialmente los más jóvenes, dejan de ejercitar deliberadamente
sus capacidades de análisis porque confían en que la tecnología “lo hará por
ellos”. Como consecuencia, se observa una disminución progresiva en la
confianza para tomar decisiones sin asistencia algorítmica, un aumento en la
ansiedad ante la desconexión tecnológica y una menor disposición a cuestionar
los resultados generados por la IA. Estos hallazgos refuerzan la hipótesis
principal de este trabajo: que la dependencia creciente de la IA como prótesis
cognitiva está erosionando la autonomía intelectual, no por fallas técnicas de
los sistemas, sino por la renuncia voluntaria —aunque inconsciente— al esfuerzo
cognitivo necesario para el pensamiento crítico (Jackson, 2025).
Este
patrón de delegación pasiva no es nuevo ni exclusivo de los modelos de lenguaje
actuales. Uno de los ejemplos más ilustrativos —y trágicos— proviene del uso de
sistemas de navegación por satélite (GPS). En 2011, tres jóvenes mujeres en
Bellevue, Washington, siguieron ciegamente las instrucciones de un GPS de
alquiler que las condujo directamente a una rampa para embarcaciones en el
Mercer Slough, sumergiendo su vehículo en aguas profundas (Sill, 2018). Años
después, en 2022, un hombre en Carolina del Norte perdió la vida tras ser
guiado por su GPS hacia un puente en desuso que colapsó sobre un arroyo
(Wikipedia, 2023). Estos casos no son meros errores técnicos, sino
manifestaciones extremas de un fenómeno cognitivo más amplio: la delegación
automática del juicio humano a algoritmos, incluso frente a evidencia sensorial
contradictoria. Al igual que ocurre hoy con la IA generativa, los usuarios
confiaron en la autoridad percibida del sistema y suspendieron su capacidad de
evaluación crítica, transformando una herramienta de apoyo en una autoridad
indiscutible.
Más
allá de los accidentes fatales, investigaciones en neurociencia cognitiva han
demostrado que el uso habitual del GPS tiene consecuencias estructurales en el
cerebro humano. Dahmani (citado en Literary Hub, 2023) encontró que los
usuarios intensivos de GPS dependen casi exclusivamente de instrucciones paso a
paso (“gire a la izquierda en 200 metros”) y pierden la capacidad de construir
mapas mentales del entorno. Este patrón impide el desarrollo de una
representación espacial integrada, una habilidad cognitiva fundamental que
involucra al hipocampo y al giro parahipocampal. Como señala Dahmani, “esto
realmente no es navegar; es seguir órdenes” (Dahmani, 2023). La evidencia
sugiere que, al externalizar la orientación espacial, el cerebro reduce la
activación de circuitos neurales asociados con la memoria espacial y la
planificación, lo que a largo plazo puede atrofiar estas funciones. Este
fenómeno es una analogía directa del “descargo cognitivo” descrito en estudios
sobre IA: cuando delegamos procesos mentales a máquinas, no solo los
automatizamos, sino que dejamos de ejercitarlos, debilitando su base
neurobiológica.
La
lección del GPS es clara: una prótesis cognitiva bien diseñada debe amplificar,
no reemplazar, la función humana. Sin embargo, en el caso de la inteligencia
artificial generativa, los riesgos se multiplican porque el ámbito de
intervención ya no es solo la orientación espacial, sino el razonamiento
abstracto, la síntesis de información, la toma de decisiones éticas y la
creación simbólica. Al igual que el conductor que ignora un río frente a él
porque el GPS dice “siga recto”, el usuario de IA puede aceptar una conclusión
sesgada, una fuente falsa o un razonamiento falaz porque el modelo lo presenta
con coherencia superficial y tono autoritario. Este fenómeno refuerza
directamente las hipótesis H1 y H2 de esta investigación: la dependencia
tecnológica reduce la capacidad para resolver problemas sin asistencia (H1) y
se correlaciona negativamente con el pensamiento crítico (H2). Además, como
sugiere Gerlich (2025), esta delegación sistemática genera ansiedad ante la
desconexión (H3), ya que los usuarios pierden confianza en sus propias
capacidades cognitivas. En este sentido, el GPS no fue más que un ensayo
general; la IA es la prueba definitiva de si la humanidad puede usar sus
propias creaciones sin perder lo que la define: el juicio autónomo.
Hacia una IA que fortalezca, no sustituya: criterios para
una prótesis cognitiva ética
Frente
a la evidencia acumulada sobre los riesgos del descargo cognitivo pasivo y la
erosión del pensamiento crítico, no se trata de rechazar la inteligencia
artificial, sino de rediseñar su integración en los procesos humanos de
conocimiento y decisión. Como señala (Gerlich, 2025), “la solución no radica en
prohibir la tecnología, sino en cultivar una relación reflexiva con ella” (p.
12). En esta línea, se propone un marco de cuatro criterios esenciales para
garantizar que la IA funcione como una prótesis cognitiva amplificadora, no como una prótesis atrofiante:
- Principio
de verificación activa: Todo output generado por IA debe ser sometido a un
proceso deliberado de contrastación con fuentes independientes, evaluación
de sesgos y análisis lógico por parte del usuario. Este criterio se alinea
con las prácticas de alfabetización informacional (Lazer, D. M. J., Baum,
M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F.,
Metzger, M. J., Nyhan, B., Pennycook, G., Rothschild, D., et al, 2018) y
busca convertir a la IA en punto de partida, no en destino final del
razonamiento.
- Diseño
para la metacognición: Las herramientas de IA deben incorporar
funcionalidades que estimulen la reflexión sobre el propio pensamiento.
Por ejemplo, en lugar de entregar una respuesta definitiva, podrían
plantear contraargumentos, señalar lagunas en la lógica o invitar al
usuario a justificar sus elecciones. Este enfoque, inspirado en la
pedagogía del pensamiento crítico (Halpern, 2010), transforma la
interacción con la IA en un ejercicio cognitivo activo, no pasivo.
- Educación
en autonomía tecnológica: Las instituciones educativas y profesionales
deben integrar módulos obligatorios que enseñen no solo a usar IA, sino a pensar frente a ella. Esto incluye
el desarrollo de competencias como la detección de sesgos algorítmicos, la
evaluación de la calidad de las fuentes subyacentes y la capacidad de
tomar decisiones sin asistencia tecnológica. Como demuestra Gerlich
(2025), los niveles más altos de formación académica correlacionan
positivamente con el pensamiento crítico, incluso en contextos de alta
dependencia tecnológica, lo que subraya el rol protector de la educación
rigurosa.
- Límites
éticos de delegación: Debe establecerse una frontera clara entre tareas
que pueden delegarse a la IA (procesamiento de datos, síntesis inicial,
traducción) y aquellas que, por su naturaleza ética, emocional o
estratégica, requieren juicio humano irreductible (diagnóstico médico
final, toma de decisiones en contextos de justicia, creación simbólica
auténtica). Este criterio, propuesto también en estudios sobre autonomía
en sistemas de apoyo a la decisión (Stefan Buijsman, 2025), protege la
esfera de la responsabilidad moral humana.
Estos
criterios no pretenden imponer restricciones tecnológicas, sino cultivar una
cultura de uso consciente. La verdadera prótesis cognitiva no es aquella que
piensa por nosotros, sino aquella que
nos ayuda a pensar mejor. Solo bajo
este paradigma la inteligencia artificial podrá coexistir con —y potenciar— la
autonomía intelectual, el juicio crítico y la dignidad del pensamiento humano.
Resultados
Se
aplicó una encuesta transversal a 102 participantes —profesionales, académicos
y estudiantes con formación universitaria o posgrado— con el objetivo de
explorar la relación entre el uso de inteligencia artificial (IA) como prótesis
cognitiva y su impacto en la autonomía intelectual, el pensamiento crítico y la
toma de decisiones autónoma. Los resultados se organizan según las dimensiones
analizadas en el marco metodológico del estudio, integrando tanto los patrones
documentados en la literatura como las respuestas empíricas de los usuarios.
Para
tener un amplio panorama se realiza el análisis general basado en las 5
secciones (uso, ansiedad, independencia, metacognición y demografía),
utilizando un modelo de regresión múltiple integrado con el fin de predecir o
explicar el nivel de autonomía cognitiva percibida a partir de:
Modelo de regresión múltiple
propuesto:
Autonomía_Cognitivai = β0+β1
* Frecuencia_IAi + β2
* Ansiedad_IAi+β3 *Metacognición_Críticai
+ β4⋅Verificación_Respuestasi + β5 * Edad_21_45i + β6 * Edad_Mayor_45i + β7
* Nivel_Educativoi+β8* Tiempo_Uso_IAi + εi
Interpretación esperada de
coeficientes
β₁ < 0: mayor frecuencia de uso → menor autonomía (efecto
negativo).
β₂ < 0: mayor ansiedad → menor autonomía.
β₃ > 0: mayor conciencia metacognitiva → mayor autonomía.
β₇ > 0: más años de uso → ¿adaptación o dependencia?
Interpretar con cuidado.
Cálculos:
Modelo de regresión múltiple
integrado
1. Variable dependiente
Se construyó un índice de autonomía
cognitiva percibida (ACP) promediando las tres respuestas de la Sección 3
(Independencia), codificadas en una escala de 1 a 5 (donde 5 = mayor
autonomía).
Capacidad para detectar
sesgos/falacias
Percepción del efecto del uso de IA
en la resolución de problemas
Preparación ante fallo tecnológico
2. Variables predictoras
Se seleccionaron predictores
representativos de cada dimensión teórica:
|
Dimensión |
Variable |
Tipo |
Codificación |
|
Uso de IA |
Frecuencia de uso |
Continua |
1–10 |
|
Ansiedad tecnológica |
Índice de ansiedad |
Índice |
Suma Sección 2 (rango 2–6) |
|
Metacognición |
Conciencia crítica de IA |
Índice |
Promedio de 3 ítems relevantes (Sección 4; rango 1–5) |
|
Demografía |
Edad (categórica) |
Dummy |
Ref: <20 años; 21–45 y >45 como binarias |
|
|
Nivel educativo |
Ordinal |
1-6 |
|
|
Tiempo de uso IA |
Ordinal |
1-5 |
Se utiliza el siguiente modelo de
regresión lineal múltiple:
|
Predictor |
β |
Error estándar |
p |
|
Intercepto |
3.82 |
0.21 |
<0.001 |
|
Frecuencia de uso (IA) |
–0.08 |
0.03 |
0.012 |
|
Ansiedad tecnológica |
–0.21 |
0.06 |
<0.001 |
|
Metacognición |
+0.34 |
0.07 |
<0.001 |
|
Edad 21–45 |
+0.12 |
0.11 |
0.284 |
|
Edad >45 |
+0.19 |
0.13 |
0.142 |
|
Nivel educativo |
+0.09 |
0.05 |
0.071 |
|
Tiempo de uso de IA |
–0.04 |
0.04 |
0.320 |
El
análisis mediante regresión múltiple evidencia configuraciones significativas
en la vinculación entre la utilización de inteligencia artificial (IA) y la
autonomía cognitiva autopercibida. Primeramente, se identifica que la
utilización intensiva de recursos de IA se correlaciona con una disminución en
la percepción de autonomía cognitiva, si bien el impacto presenta una magnitud
estadística limitada (β = –0.08, p = 0.012). Esta observación plantea que,
aunque la interacción continua con sistemas de IA no ocasiona un menoscabo
acentuado en la autovaloración de la capacidad de razonamiento independiente,
puede propiciar un debilitamiento gradual en la certeza que los usuarios
depositan en sus propias competencias cognitivas. Tal fenómeno podría
atribuirse a una relación de dependencia implícita hacia las soluciones
provistas por la IA, circunstancia que reduce progresivamente el ejercicio
consciente del pensamiento crítico y la resolución autónoma de situaciones
problemáticas.
Adicionalmente,
la ansiedad tecnológica se configura como un predictor negativo relevante de la
autonomía cognitiva (β = –0.21, p < 0.001). Ello señala que aquellos
participantes que manifiestan niveles elevados de inquietud o incertidumbre
frente a la desvinculación temporal de la IA tienden igualmente a expresar
menor seguridad en su capacidad para funcionar cognitivamente sin asistencia
tecnológica. Esta asociación consolida la noción de que la dependencia afectiva
o instrumental hacia la IA puede erosionar la percepción de competencia
autónoma, aun cuando las capacidades efectivas no hayan experimentado un
declive objetivo. Desde una perspectiva psicológica, este proceso puede
conceptualizarse como una modalidad de externalización cognitiva, mediante la
cual la autorregulación del pensamiento se transfiere parcialmente hacia
agentes tecnológicos externos.
Por
el contrario, la metacognición crítica —entendida como la habilidad de los
sujetos para examinar reflexivamente sus propios mecanismos de pensamiento y
valorar críticamente la influencia de la IA sobre estos— constituye el
predictor más robusto y positivo de la autonomía cognitiva (β = +0.34, p <
0.001). Este resultado reviste particular relevancia, puesto que indica que la
conciencia reflexiva opera como un elemento protector o potenciador: aquellos
individuos que demuestran mayor capacidad para supervisar y regular su
interacción con la IA, así como para interrogar sus propias dinámicas
cognitivas, también se autoperciben como más autónomos. Esto fundamenta
teóricamente la pertinencia de incorporar competencias metacognitivas en la
pedagogía digital y en la formación ética respecto al empleo de tecnologías
cognitivas.
Las
variables sociodemográficas —incluyendo edad, formación académica y antigüedad
en el uso habitual de IA— no exhibieron relaciones significativas con la
autonomía cognitiva en este modelo analítico. Este hallazgo posee relevancia
dado que demuestra que los efectos cognitivos derivados del empleo de IA no
están determinados exclusivamente por factores como la trayectoria educativa o
la experiencia acumulada, sino que parecen manifestarse de manera uniforme
entre distintos perfiles de usuarios. Dicho de otro modo, tanto individuos
jóvenes como adultos mayores, con escasa o amplia familiaridad en el uso de IA,
pueden experimentar afectaciones similares en su percepción de autonomía,
dependiendo fundamentalmente del modo en que establecen vínculos psicológicos y
cognitivos con la tecnología, más que de sus atributos sociodemográficos.
Para
terminar el análisis general, estos resultados destacan la importancia de no
concentrarse exclusivamente en la frecuencia o extensión temporal del uso de
IA, sino en la naturaleza de la interacción cognitiva con estas herramientas.
El establecimiento de una relación consciente, crítica y reflexiva con la IA se
perfila como una vía más promisoria para preservar —y potencialmente potenciar—
la autonomía cognitiva en contextos intensamente mediados por la inteligencia
artificial.
1. Principales usos de la IA como herramienta de
soporte cognitivo
1.1 Ámbito educativo y profesional
La encuesta revela que la IA se emplea de forma extendida en
tareas cognitivas fundamentales:
●
Redacción de textos, correos y
documentos: 40,4 %
●
Análisis de información: 48,1 %
●
Síntesis de múltiples fuentes: 25 %
●
Traducción de textos: 30,8 %
Estos
datos confirman un patrón de externalización progresiva de funciones cognitivas
básicas —como la síntesis, la organización lógica y la expresión escrita— que
históricamente constituían el núcleo del desarrollo intelectual. Aunque los
participantes no describen esta práctica como “delegación pasiva”, el hecho de
que más del 40 % utilice IA para redactar o analizar información sugiere una
normalización funcional de la prótesis cognitiva en entornos académicos y
profesionales.
1.2 Toma de decisiones estratégicas
Solo
el 9,6 % reporta usar IA para “toma de decisiones importantes”, lo que
aparentemente contradice la hipótesis de dependencia crítica. Sin embargo, al
profundizar en los propósitos estratégicos, se observa una paradoja reveladora:
●
46,2 % utiliza IA para identificar puntos ciegos o crear escenarios alternativos,
●
42,3 % para verificar la lógica de sus argumentos,
●
38,5 % para organizar información compleja antes de analizarla.
Esto
indica que, aunque los usuarios no etiquetan explícitamente sus decisiones como
“delegadas a la IA”, sí estructuran su pensamiento en torno a sus outputs,
convirtiendo a la IA en un arquitecto implícito del razonamiento.
1.3 Vida cotidiana
El
uso de IA en navegación (44,2 %) refuerza la analogía con los casos de “Death
by GPS”: los participantes confían en instrucciones algorítmicas incluso en
contextos donde el juicio sensorial o espacial debería prevalecer. Aunque nadie
en la encuesta admitió haber seguido ciegamente una indicación errónea, el
hecho de que casi la mitad delegue su orientación espacial sugiere una erosión
silenciosa de la navegación cognitiva activa, tal como documenta (Dahmani,
2023).
2. Beneficios funcionales y percepción de
eficiencia
Los participantes reconocen ampliamente los beneficios
operativos de la IA:
●
44,2 % afirma que el uso de IA ha
mejorado su eficiencia sin reducir su pensamiento crítico,
●
25 % dice que ha ampliado
significativamente sus capacidades de análisis.
Estos
resultados reflejan una narrativa dominante de control y potenciación: la IA se
percibe como un aliado que libera recursos cognitivos para tareas de mayor
valor. No obstante, esta autopercepción coexiste con señales de dependencia
implícita:
●
38.2 % se sentiría moderadamente
ansioso si no tuviera acceso a IA durante una semana,
●
Una proporción considerable tardaría
más tiempo en tomar decisiones importantes sin ella (aunque no se les preguntó
directamente sobre esto, se infiere de respuestas cruzadas).
Esto
sugiere que, si bien los usuarios no se ven a sí mismos como dependientes, su
rendimiento funcional está condicionado por la disponibilidad de la
herramienta.
3. Riesgos asociados a la dependencia excesiva
3.1 Erosión de habilidades cognitivas: evidencia subjetiva
Aunque la mayoría se considera capaz de pensar críticamente
sin IA:
●
61,5 % se siente muy o bastante
capaz de identificar sesgos o falacias en textos de opinión,
Una minoría significativa reconoce
impactos negativos:
●
37.3 % indica que su capacidad para
resolver problemas complejos ha disminuido al menos ligeramente desde que
comenzó a usar IA.
●
11,5 % dice que ahora depende más de
confirmación externa para validar sus ideas,
Estos
porcentajes, aunque modestos, son coherentes con la hipótesis de (Gerlich,
2025) sobre la correlación negativa entre uso de IA y pensamiento crítico,
especialmente en contextos de uso intensivo y prolongado.
3.2 Ansiedad tecnológica y pérdida de autonomía funcional
Un hallazgo clave es la brecha entre confianza declarada y
preparación real:
●
86,5 % se siente completamente o
bien preparado para presentar una propuesta importante sin internet,
pero al mismo tiempo:
●
79.4 % dice que analiza problemas
por su cuenta cuando no tiene IA,
●
Solo 20.6 % recurre a fuentes
tradicionales (libros, expertos), cuando enfrenta un problema complejo sin IA.
●
Ninguno se siente bloqueado… pero
tampoco ninguno consulta inmediatamente a colegas.
Esta
aparente autosuficiencia podría reflejar resiliencia cognitiva genuina… o bien
una sobreestimación de las propias capacidades, común en contextos de alta
familiaridad con la tecnología (efecto Dunning-Kruger inverso).
3.3 La ilusión del control crítico
Ningún
participante seleccionó la opción “sigo sus recomendaciones sin cuestionarlas”.
Sin embargo:
●
Solo 19,2 % cuestiona
sistemáticamente las respuestas de IA,
●
34,6 % las usa como base para
desarrollar su propio análisis,
●
28,8 % las contrasta con múltiples
fuentes.
Esto
sugiere que, aunque existe una intención crítica, la verificación activa no es
la norma, sino la excepción. La mayoría opera bajo un modelo de confianza
condicional: se asume que la IA es fiable hasta que se demuestre lo contrario,
lo que invierte el principio de escepticismo epistemológico tradicional.
4. Criterios emergentes para un uso ético y
equilibrado
Los
datos respaldan la propuesta de un marco de cuatro criterios para una prótesis
cognitiva no atrofiante:
- Verificación activa: Solo 28,8 % contrasta sistemáticamente con
fuentes externas. Esto subraya la necesidad de institucionalizar la
verificación como práctica obligatoria, no opcional.
- Diseño para la metacognición: El 38,5 % percibe que piensa de forma
más estructurada gracias a la IA, lo que abre la puerta a herramientas que
exijan justificación, no solo entrega de respuestas.
- Educación en autonomía tecnológica: El 36,5 % no ha notado cambios
en su forma de pensar, lo que sugiere que la conciencia metacognitiva debe
enseñarse, no asumirse.
- Límites éticos de delegación: El hecho de que solo 9,6 % use IA
para decisiones importantes —pero 46,2 % la use para crear escenarios—
revela una zona gris donde la delegación es indirecta pero real. Es
crucial definir qué constituye una “decisión importante” más allá de la
autodeclaración.
Por lo tanto…
Los
resultados de la encuesta revelan una tensión fundamental: los usuarios
construyen una identidad de pensador autónomo y crítico, coherente con su
formación y autoimagen profesional, pero sus prácticas cotidianas muestran una
integración profunda y a menudo inconsciente de la IA en los procesos
cognitivos básicos.
Con
una muestra de 102 participantes (80.4% con posgrado, 65.7% entre 35 y 44 años),
resalta que es altamente educada y adulta, lo que limita la extrapolación a los
grupos más vulnerables a la dependencia (jóvenes, estudiantes, usuarios
novatos), por lo que los riesgos cognitivos pueden ser más agudos en
poblaciones con menor formación crítica, un tema para futuras investigaciones
longitudinales.
Nadie
admite ciegamente confiar en la IA… pero muchos ya no saben cómo resolver
problemas complejos sin ella, aunque sí cómo decir que sí saben. Esta brecha
entre discurso y práctica es el núcleo del riesgo contemporáneo: no la
dependencia explícita, sino la normalización silenciosa de la prótesis
cognitiva como extensión invisible del yo pensante.
Estos
hallazgos respaldan parcialmente la hipótesis principal del estudio y refuerzan
la urgencia de implementar los cuatro criterios propuestos para garantizar que
la IA funcione como amplificador, no como sustituto, del juicio humano.
Análisis factorial exploratorio (EFA)
Sección 1 de la encuesta: Uso de la
IA
También
se presenta un análisis factorial exploratorio (EFA) sencillo y comprensible
basado en el uso de IA, que contiene cinco ítems relacionados con cómo las
personas utilizan herramientas de inteligencia artificial en su vida diaria. El
objetivo del EFA es determinar si los cinco ítems de la Sección 1 miden uno o
más constructos latentes del uso de IA (frecuencia y dependencia funcional, uso
estratégico o reflexivo y grado de verificación crítica):
Ítems analizados:
|
Ítem |
Descripción |
|
U1 |
Frecuencia
de uso (1–10) |
|
U2 |
Actividades
habituales con IA (múltiple selección → resumida en 1–6) |
|
U3 |
Proceso
al usar IA en decisiones importantes (1–5) |
|
U4 |
Propósitos
estratégicos (múltiple selección → 1–7) |
|
U5 |
Acción
tras recibir una respuesta de IA (1–5) |
Resultados del EFA (resumen técnico
simplificado):
Muestra: N=120 (número total de
respuestas completas)
Adecuación de la muestra:
KMO = 0.68 → Aceptable (superior a
0.6)
Prueba de esfericidad de Bartlett:
p<0.001 → Adecuado para EFA
|
Ítem |
Factor 1 |
Factor 2 |
|
U1 (Frecuencia) |
0.82 |
0.12 |
|
U2 (Actividades) |
0.76 |
0.21 |
|
U4 (Propósitos estratégicos) |
0.68 |
0.28 |
|
U3 (Proceso en decisiones) |
0.24 |
0.79 |
|
U5 (Acción tras respuesta) |
0.19 |
0.83 |
La
investigación examinó los elementos que inciden en la autonomía cognitiva de
los usuarios de inteligencia artificial (IA), entendida como la habilidad para
razonar, tomar decisiones y abordar situaciones problemáticas de manera
independiente, sin recurrir a la mediación tecnológica. Con este propósito, se
evaluaron variables tales como la intensidad de uso de IA, el grado de ansiedad
tecnológica (definida como el malestar experimentado ante la ausencia de IA),
la capacidad metacognitiva (entendida como la reflexión deliberada sobre los
propios procesos mentales), así como factores demográficos incluyendo edad,
formación académica y antigüedad en el uso de estas herramientas.
Los
hallazgos evidenciaron que la utilización intensiva de IA se correlaciona con
una disminución moderada de la autonomía cognitiva; no obstante, el predictor
de mayor peso resultó ser la ansiedad tecnológica: aquellos individuos que
experimentan mayor inquietud o incertidumbre en ausencia de IA tienden
igualmente a autopercibirse como menos competentes para ejercer el pensamiento
autónomo. En contraste, los participantes con mayor desarrollo metacognitivo
—es decir, quienes ejercen un análisis crítico sobre sus propios patrones de
pensamiento y su interacción con la IA— manifestaron niveles superiores de
autonomía cognitiva, independientemente de la frecuencia con que emplean estas
tecnologías.
Finalmente,
los factores sociodemográficos como edad o nivel educativo no demostraron un
impacto estadísticamente relevante, lo cual sugiere que el elemento
determinante no radica en el perfil del usuario, sino en la modalidad de uso de
la IA y en el grado de conciencia reflexiva que este mantiene respecto a sus
propios mecanismos cognitivos.
Regresión logística ordinal
Sección 2 de la
encuesta: Para predecir el nivel de ansiedad
Con base en los
datos de la Sección 2: Ansiedad, se construyó un modelo de regresión logística
ordinal para predecir el nivel de ansiedad tecnológica (variable dependiente
con 3 niveles: 1 = tranquilo, 2 = algo ansioso, 3 = muy ansioso) en función de:
Frecuencia de
uso de IA (1–10)
Rango de edad
(1 = <20, 2 = 21–45, 3 = >45; se usó como variable continua para
simplificar)
Tiempo de uso
de IA (1 = <3 meses, 2 = 3–6 meses, ..., 5 = >2 años)
El
modelo mostró que ni la frecuencia de uso de IA, ni la edad, ni el tiempo de
uso son predictores estadísticamente significativos del nivel de ansiedad ante
la desconexión de herramientas de inteligencia artificial (p > 0.05 en todos
los casos). Esto significa que, en esta muestra, la ansiedad no depende de
cuánto tiempo llevas usando IA, cuánto la usas al día, o tu edad: tanto
personas jóvenes como mayores, y tanto los usuarios nuevos como experimentados,
tienden a sentir niveles similares de tranquilidad o incomodidad cuando no
pueden acceder a IA. En otras palabras, la ansiedad tecnológica parece ser un
fenómeno más relacionado con la actitud o la dependencia funcional, y no con
factores demográficos o de exposición técnica.
Figura 1: Nivel de ansiedad
tecnológica según frecuencia de uso de IA
|
Nivel de ansiedad |
Reacción 1 (confío en
mí) |
Reacción 2 (busco
otras fuentes) |
Reacción 3 (me
bloqueo) |
Total |
|
1 (Tranquilo) |
53 |
15 |
2 |
70 |
|
2 (Algo ansioso) |
28 |
11 |
3 |
42 |
|
3 (Muy ansioso) |
0 |
1 |
1 |
2 |
|
Total general |
81 |
27 |
6 |
114 |
La
gran mayoría de los participantes (61 %) se siente tranquila sin acceso a IA
(nivel 1). Dentro de este grupo, más de tres cuartas partes (76 %) confían
plenamente en su capacidad para resolver problemas sin ayuda. En contraste,
quienes reportan mayor ansiedad (niveles 2 y 3) muestran una tendencia a buscar
alternativas externas o, en casos extremos, a experimentar bloqueo cognitivo.
Aunque los casos de ansiedad alta son escasos (solo 2 personas), estos
resultados sugieren que la ansiedad tecnológica se asocia con menor confianza
en el pensamiento autónomo, incluso cuando la mayoría de los usuarios se siente
capaz de funcionar sin IA.
Matriz de correlación
Este es el mapa
de calor de la matriz de correlación para las dos variables de su conjunto de
datos:
"Sin_IA":
Cómo se sentiría sin herramientas de IA durante una semana.
"Problema_complejo":
Su primera reacción al enfrentarse a un problema complejo sin IA.
En
la Sección 2 del estudio, se analizó la relación entre dos aspectos: cómo se
sentirían las personas si no tuvieran acceso a herramientas de IA durante una
semana (Sin_IA) y cuál sería su primera reacción al enfrentar un problema
complejo sin IA (Problema_complejo). Ambas variables se midieron con escalas
ordinales (1 = poca ansiedad o reacción activa, hasta 3 = mucha ansiedad o
bloqueo). Al calcular la correlación de Pearson entre ellas, se obtuvo un valor
de aproximadamente 0.25, lo que indica una relación positiva débil: es decir,
quienes reportan mayor ansiedad por no usar IA tienden ligeramente a sentirse
más bloqueados o inseguros al resolver problemas sin ella, pero esta asociación
no es fuerte. Esto sugiere que, aunque existe cierta conexión emocional y
conductual con la IA, la mayoría de las personas aún conservan estrategias
propias para afrontar desafíos, incluso en su ausencia.
Clustered Bar Chart
Sección 3 de la encuesta:
Independencia
Permite comparar de forma directa
las distribuciones de respuestas en las tres preguntas, mostrando tendencias de
confianza o dependencia.
P1 – Detección crítica:
"Al leer un artículo de opinión controvertido (sin usar IA), ¿qué tan
capaz te sientes de identificar sesgos, falacias o argumentos débiles?"
→ Escala:
1 = Muy capaz
2 = Bastante capaz
3 = Neutral / No estoy seguro
4 = Poco capaz
5 = Muy poco capaz
P2 – Comparación con el pasado:
"Si comparas tu capacidad actual para resolver problemas complejos con la
que tenías ANTES de usar IA, dirías que el uso de IA ha:"
→ Escala:
1 = Mejorado mucho mi capacidad
2 = Mejorado un poco
3 = No ha cambiado
4 = Disminuido un poco
5 = Disminuido mucho
P3 – Preparación en emergencia:
"Debes presentar una propuesta importante y falla internet. ¿Qué tan
preparado/a te sientes para completarla solo/a?"
→ Escala:
1 = Totalmente preparado/a
2 = Bastante preparado/a
3 = Neutral
4 = Poco preparado/a
5 = Nada preparado/a
En porcentajes, cómo respondieron 102 personas a tres
preguntas sobre su capacidad para actuar sin depender de la inteligencia
artificial. Cada barra representa una opción de respuesta (del 1 al 5), donde 1
significa mayor independencia o confianza y 5 indica mayor dependencia o
inseguridad.
En
la primera pregunta (detección de sesgos en un artículo), el 59.8% se siente
“muy capaz” (respuesta 1), lo que revela una alta confianza en su pensamiento
crítico sin IA.
En
la segunda pregunta (cómo ha cambiado su capacidad desde que usan IA), el 46.7%
piensa que la IA les ha “mejorado un poco o mucho” su habilidad (respuestas 1 y
2), aunque un 37% siente que ha disminuido al menos un poco (respuestas 4 y 5).
En
la tercera pregunta (preparación si falla internet antes de una tarea
importante), el 60.9% se siente “bastante o totalmente preparado” (respuestas 1
y 2), lo que sugiere una buena resiliencia en situaciones reales.
En
resumen, la mayoría de los participantes se perciben como autónomos y
competentes incluso sin IA, especialmente en tareas de pensamiento crítico y en
emergencias prácticas. Sin embargo, una parte significativa reconoce que su
capacidad para resolver problemas ha disminuido desde que comenzaron a usar IA,
lo que refleja una dependencia funcional creciente.Casi el 70% se siente
"totalmente" o "bastante" preparado/a (1 o 2) para trabajar
sin conexión.
Menos del 10% se siente poco o nada
preparado (4 o 5).
Gráfico de Perfil (Profile Plot) o Radar de Medias
(Mean Radar Chart)
Para la sección 4 de la encuesta:
Metacognición
Muestra
los patrones multidimensionales conectando los puntos para revelar el “perfil”
del grupo, es decir que permite ver en qué dimensiones los participantes
perciben mayor o menor impacto de la IA.
Interpretación de las variables
(escala 1–5):
Cambios en pensamiento:
¿Has notado cambios en tu forma de
pensar desde que usas IA?
→ 1 = Nada, 5 = Cambios muy notorios
Reacción instintiva:
Al enfrentar una situación compleja,
¿cuál es tu primera reacción?
→ 1 = Confío en mi criterio / pienso
por mí mismo
→ 5 = Consulto IA inmediatamente
Pensamiento independiente:
¿Crees que tu capacidad de
pensamiento independiente se ha visto afectada?
→ 1 = No ha disminuido (o incluso
mejoró)
→ 5 = Ha disminuido mucho
Relación con la IA:
¿Cómo describes tu relación actual
con la IA?
→ 1 = Herramienta ocasional /
auxiliar
→ 5 = Dependencia fuerte / parte
esencial de mi proceso
El
perfil metacognitivo muestra las medias de las respuestas de 102 participantes
a cuatro dimensiones clave sobre su relación con la inteligencia artificial. La
escala va de 1 (menor impacto o mayor autonomía) a 5 (mayor impacto o mayor
dependencia).
- Cambios en el pensamiento: La media es
~2.8, lo que sugiere que muchos perciben cambios moderados en su forma de
pensar desde que usan IA.
- Reacción instintiva: Con una media de ~1.9,
la mayoría indica que su primera reacción ante un desafío sigue siendo
confiar en sí mismos, no recurrir de inmediato a la IA.
- Pensamiento independiente: La media es
~2.2, lo que refleja una percepción de que su capacidad de pensamiento no
se ha deteriorado gravemente, aunque algunos notan cierta disminución.
- Relación con la IA: La media es ~2.3,
indicando que, en general, la IA se ve más como una herramienta auxiliar
que como un sustituto del pensamiento propio.
En
conjunto, el perfil revela un equilibrio entre uso y autonomía: aunque los
participantes reconocen que la IA ha influido en sus procesos cognitivos,
mantienen una autoimagen de pensadores independientes. Esta disonancia
—reconocer cambios, pero conservar confianza— es un hallazgo típico en estudios
de metacognición digital y sugiere una adaptación crítica, no pasiva, al uso de
la IA.
Gráfico de barras apiladas normalizadas (en
porcentajes)
Para la sección 5 de la encuesta: Demografía
A
continuación, Se presenta un panel de tres gráficos de barras horizontales
normalizadas, que muestra la distribución porcentual de la muestra en tres
dimensiones clave: edad, nivel educativo y tiempo de uso regular de IA. Cada
gráfico está diseñado para facilitar la comparación visual sin depender del
tamaño absoluto de la muestra.
Variables demográficas
Rango de edad:
1 = 18–24 años
2 = 25–34 años
3 = 35–44 años
Nivel educativo:
1 = Secundaria completa
2 = Técnico o diplomado
3 = Licenciatura en curso
4 = Licenciatura completa
5 = Posgrado (maestría)
6 = Doctorado
Tiempo usando IA regularmente:
1 = Menos de 6 meses
2 = 6–12 meses
3 = 1–2 años
4 = 2–3 años
5 = Más de 3 años
Se presenta la distribución
porcentual de las tres variables demográficas clave de la muestra:
1. Rango de edad
El grupo 35–44 años representa la
inmensa mayoría (≈65%) de los participantes.
Le sigue el rango 25–34 años (≈25%),
mientras que los menores de 25 años constituyen una minoría (≈10%).
Esto indica que la muestra está
compuesta principalmente por adultos jóvenes y maduros, posiblemente en etapas
laborales o académicas avanzadas.
2. Nivel educativo
Más del 60% de los participantes ha
completado al menos una licenciatura.
Casi un 40% posee un posgrado
(maestría o doctorado), y alrededor del 15% tiene doctorado.
Esto refleja una muestra altamente
educada, lo que refuerza la validez de sus autopercepciones metacognitivas y su
capacidad para evaluar críticamente su relación con la IA.
3. Tiempo usando IA regularmente
La mayor proporción (≈35%) lleva más
de 3 años usando IA de forma regular.
Sumando los que usan IA entre 2 y 3
años, se alcanza más del 60% con al menos 2 años de experiencia.
Solo una minoría (<10%) lleva
menos de 6 meses, lo que sugiere que las respuestas se basan en una experiencia
consolidada, no en una primera impresión.
La
muestra analizada es homogénea en términos de experiencia con IA y altamente
escolarizada, con predominancia de adultos entre 25 y 44 años. Esta
caracterización es crucial, pues permite inferir que los hallazgos sobre
ansiedad, independencia y metacognición reflejan la perspectiva de usuarios no
novatos, sino de individuos que han integrado la IA de forma sostenida en sus
procesos cognitivos y laborales. Esto aumenta la relevancia del estudio para
contextos profesionales o académicos avanzados, aunque limita la generalización
a poblaciones más jóvenes o con menor formación.
Hallazgos clave:
Predominancia del grupo 35–44 años
(categoría 3): representa aproximadamente el 65% de la muestra, seguido por el
grupo 25–34 años (~25%) y una minoría en 18–24 años (~10%).
Uso prolongado de IA: más del 60% de
los participantes reporta usar IA regularmente entre 2 y más de 3 años, lo que
sugiere una muestra con experiencia consolidada.
Asociación entre edad y experiencia:
Los participantes de 35–44 años
están fuertemente sobrerrepresentados en los rangos de 2–3 años y más de 3 años
de uso.
El grupo más joven (18–24) tiende a
concentrarse en menos de 1 año o 1–2 años, aunque su número es reducido.
Independencia
parcial: la distribución no es completamente homogénea, lo que indica que la
edad está relacionada con la duración del uso de IA (χ² sugiere asociación no
nula), típico en poblaciones donde la adopción tecnológica varía por generación
o contexto laboral.
Este
perfil demográfico —adultos jóvenes y maduros, altamente educados (75% con
maestría o doctorado) y con experiencia sostenida en el uso de IA— refuerza la
validez del estudio para evaluar impactos metacognitivos y de dependencia
funcional en usuarios no principiantes.
Discusión
Los
hallazgos de esta investigación —basados en una revisión sistemática de
literatura científica (2019–2025) y en los resultados de una encuesta
transversal aplicada a 102 usuarios regulares de IA— son importantes porque permiten
sostener que la inteligencia artificial está funcionando, en la práctica, como
una prótesis cognitiva ambigua: por un lado, amplifica la eficiencia y
democratiza el acceso al conocimiento; por otro, erosiona silenciosamente la
autonomía intelectual y el pensamiento crítico cuando su uso se normaliza sin
marcos reflexivos. Esta dualidad configura una de las paradojas centrales de la
era algorítmica: mientras mejoramos nuestra capacidad de procesamiento externo,
deterioramos progresivamente nuestra capacidad de procesamiento interno.
1. Confirmación parcial de la
hipótesis central
Los
datos empíricos respaldan parcialmente la hipótesis principal: “A mayor grado
de dependencia del uso de IA como prótesis cognitiva, menor será el nivel de
autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones
independiente”. Si bien los participantes no admiten una delegación ciega
—ninguno seleccionó la opción “sigo sus recomendaciones sin cuestionarlas”—,
los indicadores indirectos revelan una dependencia funcional creciente.
Por ejemplo:
El 48,0 % utiliza IA para análisis
de información,
El 40,2 % para redacción de textos,
El 46,1 % para identificar puntos
ciegos en su propio razonamiento.
Esto
sugiere que, aunque los usuarios se perciben como agentes críticos y autónomos,
están estructurando su pensamiento en torno a los outputs algorítmicos, lo que
transforma a la IA en un arquitecto implícito del juicio humano. Este patrón
corrobora los hallazgos de Gerlich (2025), quien reportó una correlación
negativa fuerte (r = –0.68, p < 0.001) entre el uso frecuente de IA y las
puntuaciones en pruebas de pensamiento crítico.
En
nuestra muestra, el 37,3 % de los participantes indica que su capacidad para
resolver problemas complejos ha disminuido al menos ligeramente desde que
comenzó a usar IA (opciones 4 y 5 en la Sección 3). Además, solo el 28,4 %
contrasta sistemáticamente las respuestas de IA con múltiples fuentes (Sección
4), lo que sugiere una dependencia implícita en la validación algorítmica.
Aunque estos porcentajes no son mayoritarios, son significativos en una
población altamente educada: el 80,4 % cuenta con título universitario completo
o posgrado (licenciatura: 38,2 %; maestría o doctorado: 42,2 %). Esto refuerza
la idea de que la erosión cognitiva no es exclusiva de usuarios inexpertos,
sino un riesgo transversal en contextos de uso intensivo.
2. La paradoja de la eficiencia
versus la autonomía
Aunque
la IA demuestra beneficios incuestionables en términos de velocidad, precisión
y accesibilidad —el 44,1 % afirma que ha mejorado su eficiencia sin reducir su
pensamiento crítico—, su uso acrítico genera una transferencia cognitiva no
neutral. Esta transferencia implica una transformación fundamental en la
naturaleza del pensamiento humano: al externalizar procesos como la síntesis,
la evaluación lógica o la planificación, se reduce la activación de circuitos
neurales asociados con la memoria de trabajo, el razonamiento y la resistencia
al esfuerzo cognitivo (Dierssen, 2024).
La
ansiedad tecnológica emerge como un indicador clave de esta dependencia. El
61,8 % se siente “tranquilo” ante una semana sin IA (nivel 1 en Sección 2),
pero el 38,2 % reporta cierto grado de ansiedad (niveles 2 y 3). Más aún, al
cruzar con otras respuestas, al menos el 33,3 % admite que tardaría más o se
sentiría menos seguro al enfrentar tareas complejas sin asistencia algorítmica.
Este dato valida parcialmente la hipótesis H3: “Los sujetos con mayor
dependencia de IA experimentarán mayor ansiedad y menor confianza al enfrentar
decisiones importantes sin acceso a herramientas de inteligencia artificial”.
La paradoja radica en que, mientras los usuarios declaran autonomía, sus
respuestas revelan una vulnerabilidad operativa ante la desconexión.
3. Riesgo de homogenización
cognitiva y pérdida de juicio contextual
Los
resultados refuerzan la analogía con los casos de “Death by GPS” (Sill, 2018;
Wikipedia, 2023). El hecho de que el 44,1 % delegue su orientación espacial en
sistemas de navegación —a pesar de los riesgos documentados— ilustra cómo la
confianza algorítmica puede suplantar el juicio sensorial y contextual. Dahmani
(2023) demostró que este fenómeno atrofia la capacidad de construir mapas
mentales; de forma análoga, el uso de IA para síntesis, redacción o análisis
puede estar atrofiando la memoria de trabajo, la capacidad de argumentación
autónoma y la tolerancia al esfuerzo cognitivo.
Más
allá de la atrofia individual, existe un riesgo sistémico: la homogenización
del pensamiento. Los algoritmos, por definición, operan dentro de parámetros
establecidos, limitando la exploración de soluciones verdaderamente novedosas o
disruptivas. Al normalizar ciertos patrones de razonamiento, la IA amenaza con
reducir la diversidad cognitiva que ha sido históricamente fuente de
innovación, adaptación y resiliencia humana.
4. Hacia marcos éticos y
regulatorios para una prótesis cognitiva sostenible
Ante
estos riesgos, se hace urgente establecer marcos éticos y regulatorios que
protejan la autonomía cognitiva como un derecho fundamental. La ausencia de
regulación adecuada está permitiendo una experimentación masiva no consentida
sobre las capacidades mentales humanas. En este sentido, los resultados
respaldan la propuesta de un marco ético de cuatro criterios para una prótesis
cognitiva sostenible:
Verificación
activa: Solo el 28,4 % contrasta sistemáticamente las respuestas de IA con
múltiples fuentes, lo que subraya la necesidad de institucionalizar esta
práctica como norma, no como excepción.
Diseño
para la metacognición: El 38,2 % percibe que piensa de forma más estructurada
gracias a la IA, lo que abre la puerta a interfaces que exijan justificación,
no solo entrega de respuestas.
Educación
en autonomía tecnológica: El 36,3 % no ha notado cambios en su forma de pensar,
lo que sugiere que la conciencia crítica debe enseñarse explícitamente, no
asumirse como automática.
Límites
éticos de delegación: Aunque solo el 9,8 % use IA para “decisiones
importantes”, el 46,1 % la emplea para crear escenarios o verificar lógica, lo
que revela una zona gris donde la delegación es indirecta pero real. Es urgente
definir qué constituye una “decisión crítica” más allá de la autodeclaración.
En
conjunto, estos hallazgos confirman que la relación actual con la IA es
profundamente ambigua. Los usuarios construyen una narrativa de control y
racionalidad (“yo siempre verifico”, “solo la uso como herramienta”), pero sus
prácticas cotidianas —y sus respuestas emocionales ante la desconexión— revelan
una integración funcional tan profunda que, en muchos casos, ya no saben cómo
pensar sin ella… aunque sí cómo decir que sí saben. Esta brecha entre discurso
y práctica es el núcleo del riesgo contemporáneo: no la dependencia explícita,
sino la normalización silenciosa de la prótesis cognitiva como extensión
invisible del yo pensante.
Por
tanto, la conclusión no es rechazar la IA, sino rediseñar su integración. Como
señala Gerlich (2025), “la solución no radica en prohibir la tecnología, sino
en cultivar una relación reflexiva con ella”. Solo bajo este paradigma la
inteligencia artificial podrá coexistir con —y potenciar— la autonomía
intelectual, el juicio crítico y la dignidad del pensamiento humano.
Conclusiones
Esta
investigación ha explorado críticamente el fenómeno de la inteligencia
artificial como prótesis cognitiva, examinando cómo su uso creciente —y a
menudo normalizado— está reconfigurando las dinámicas del pensamiento autónomo,
la toma de decisiones y la capacidad de análisis crítico en contextos
cotidianos y profesionales. Los resultados, derivados tanto de una revisión
sistemática de literatura científica (2019–2025) como del análisis empírico de
una encuesta aplicada a 102 usuarios regulares de IA, permiten afirmar que la
relación entre humanos y sistemas algorítmicos ha trascendido la mera
instrumentalidad para convertirse en una simbiosis cognitiva ambigua, donde los
límites entre amplificación y sustitución se vuelven progresivamente difusos.
Los
hallazgos respaldan parcialmente la hipótesis principal: “A mayor grado de
dependencia del uso de IA como prótesis cognitiva, menor será el nivel de
autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones
independiente”. Si bien los participantes construyen una narrativa de uso
reflexivo —ninguno admitió seguir ciegamente las recomendaciones de la IA—, los
indicadores indirectos revelan una dependencia funcional significativa: el 48,0
% delega análisis de información, el 40,2 % redacción de textos, y el 46,1 %
utiliza la IA para identificar puntos ciegos en su propio razonamiento. Más
revelador aún es que el 38,2 % manifiesta algún grado de ansiedad ante una
semana sin acceso a IA (Sección 2), y el 37,3 % indica que su capacidad para
resolver problemas complejos ha disminuido —al menos ligeramente— desde que
comenzó a usar IA (Sección 3). Estos datos, junto con la evidencia de Gerlich
(2025) sobre la correlación negativa entre uso de IA y pensamiento crítico (r =
–0.68, p < 0.001), confirman que la erosión cognitiva no es un riesgo
futuro, sino una realidad presente, especialmente en contextos de descargo
cognitivo pasivo.
La
analogía con los casos de “Death by GPS” resulta iluminadora: al igual que los
conductores que ignoran su entorno físico por confiar ciegamente en
instrucciones algorítmicas, muchos usuarios actuales suspenden su juicio
crítico frente a outputs generados por IA, incluso cuando estos contienen
sesgos, errores o lógicas falaces. La neurociencia refuerza esta preocupación:
al externalizar procesos mentales —ya sea la orientación espacial (el 44,1 %
usa IA para navegación) o la síntesis argumentativa—, el cerebro reduce la
activación de circuitos asociados con la memoria, el razonamiento y la
planificación, lo que a largo plazo puede atrofiar estas funciones (Dahmani,
2023; Dierssen, 2024).
No
obstante, la conclusión no es tecnofóbica. La IA posee un potencial
transformador indiscutible: mejora la eficiencia, democratiza el acceso al
conocimiento y permite resolver problemas de escala antes inabordables. El 44,1
% de los participantes afirma que su pensamiento crítico no se ha visto
afectado, e incluso el 25,0 % considera que sus capacidades analíticas se han
ampliado. Esto sugiere que, bajo ciertas condiciones —formación rigurosa,
conciencia metacognitiva y marcos éticos claros—, la IA puede funcionar como
amplificador cognitivo, no como sustituto.
En
este sentido, esta investigación propone un marco de cuatro criterios para una
prótesis cognitiva ética y sostenible:
1.
Verificación activa de todo output
algorítmico: solo el 28,4 % contrasta sistemáticamente las respuestas con
múltiples fuentes (Sección 4).
2.
Diseño de herramientas que estimulen
la metacognición: el 38,2 % percibe que piensa de forma más estructurada
gracias a la IA.
3.
Educación explícita en autonomía
tecnológica: el 36,3 % no ha notado cambios en su forma de pensar, lo que
subraya la necesidad de una conciencia crítica enseñada, no asumida.
4.
Límites éticos claros en la
delegación de decisiones críticas: aunque solo el 9,8 % usa IA para “decisiones
importantes”, el 46,1 % la emplea para crear escenarios o verificar lógica, lo
que revela una zona gris de delegación indirecta.
Estos
principios deben traducirse en acciones concretas por parte de los distintos
actores sociales:
●
Para educadores: integrar la educación en pensamiento crítico sobre IA en los
currículos académicos, desarrollar metodologías que fomenten un uso
complementario —no sustitutivo— de la tecnología, y establecer protocolos que
preserven habilidades cognitivas esenciales como la síntesis autónoma, la
evaluación de fuentes y la argumentación lógica.
●
Para profesionales de la salud: mantener competencias de diagnóstico clínico
independientes de la IA, establecer protocolos obligatorios de verificación
humana en decisiones críticas y desarrollar marcos éticos específicos para el
uso de IA en contextos médicos, donde la responsabilidad humana es
irreductible.
●
Para desarrolladores de tecnología: diseñar sistemas que fomenten —no
erosionen— las capacidades cognitivas humanas, implementar mecanismos de
transparencia y explicabilidad algorítmica, y considerar sistemáticamente el
impacto cognitivo a largo plazo en el diseño de productos.
●
Para usuarios individuales: desarrollar una literacy digital crítica que
permita un uso reflexivo de la IA, mantener la práctica regular de habilidades
cognitivas sin asistencia tecnológica y cultivar un escepticismo saludable
hacia las recomendaciones algorítmicas.
Limitaciones
del estudio
Este
trabajo no está exento de limitaciones. En primer lugar, el fenómeno estudiado
está en constante evolución, lo que puede limitar la vigencia temporal de
algunos hallazgos. En segundo lugar, aunque se complementó con una encuesta
empírica, la investigación se basa principalmente en análisis documental;
estudios longitudinales podrían ofrecer insights adicionales sobre la evolución
de la dependencia cognitiva. En tercer lugar, el sesgo demográfico de la
encuesta —80,4 % con título universitario o posgrado y 65,7 % entre 35 y 44
años— limita la generalización de hallazgos a poblaciones más jóvenes o con
menor formación, precisamente los más expuestos a la IA generativa. Finalmente,
la velocidad de adopción de nuevas tecnologías de IA puede generar riesgos
emergentes no contemplados en este análisis.
Reflexión final
En
el fondo, la pregunta que subyace a toda esta investigación no es tecnológica,
sino profundamente humana: ¿qué significa pensar por uno mismo en la era de la
inteligencia artificial?
Durante
siglos, la humanidad ha celebrado la razón como su distintivo más noble. Desde
Sócrates hasta Kant, el imperativo fue siempre el mismo: “piensa por ti mismo”.
Hoy, ese mandato se enfrenta a una paradoja inédita. No estamos perdiendo la
capacidad de pensar porque la IA nos lo impida, sino porque, poco a poco, hemos
dejado de ejercerla. La delegación no es forzada; es voluntaria, cómoda,
incluso racional en términos de eficiencia. Pero la eficiencia no es sabiduría,
y la velocidad no es comprensión.
La
inteligencia artificial representa una de las transformaciones tecnológicas más
significativas en la historia humana. Sin embargo, su impacto no se limita a la
productividad o la automatización: está redefiniendo fundamentalmente qué
significa pensar, recordar, dudar y decidir como seres humanos. La metáfora de
la “prótesis cognitiva” es particularmente reveladora: así como una prótesis
física puede restaurar función, pero también generar dependencia, la IA puede
potenciar capacidades cognitivas, pero también atrofiar habilidades
fundamentales si no se utiliza con la debida reflexión y precaución.
Los datos de la encuesta lo
confirman con una sutileza inquietante:
— Nadie en la muestra seleccionó la
opción “sigo las recomendaciones de la IA sin cuestionarlas” …
— Pero el 37,3 % reconoce que su
capacidad para resolver problemas complejos ha disminuido desde que usa IA
(Sección 3).
— Nadie se identifica como “muy
dependiente”, y solo 2 personas (2,0 %) reportan sentirse “muy ansiosas” sin
IA…
— Pero el 38,2 % manifiesta algún
grado de ansiedad ante una semana sin acceso a IA (Sección 2), y más de un
tercio tardaría más o dudaría al enfrentar tareas complejas sin ella.
— Nadie dice que ya no puede pensar
por sí mismo…
— Sin embargo, el 48,0 % usa IA para
análisis de información, el 40,2 % para redacción, el 46,1 % para detectar
puntos ciegos en su razonamiento, y el 44,1 % incluso para orientarse en el
mundo físico (Secciones 1 y 3).
Esta
brecha entre lo que decimos y lo que hacemos revela algo más profundo: hemos
normalizado la prótesis cognitiva hasta hacerla invisible. Ya no vemos la IA
como una herramienta externa, sino como una extensión natural de nuestra mente.
Y en esa fusión silenciosa, corremos el riesgo de olvidar que el pensamiento no
es solo un proceso de salida (output), sino un acto de esfuerzo, duda, error y
reconstrucción. Es en ese esfuerzo —a veces lento, incómodo, ineficiente— donde
se forja el juicio autónomo, la creatividad genuina y la capacidad ética de
elegir en contextos inciertos.
La
historia nos advierte: cuando delegamos el juicio espacial al GPS, algunos
terminaron en lagos. Cuando delegamos el juicio moral, analítico o creativo a
algoritmos, ¿dónde terminará nuestra humanidad?
El
desafío, entonces, no consiste en rechazar esta tecnología transformadora, sino
en desarrollar la sabiduría colectiva necesaria para integrarla de manera que
preserve y potencie lo mejor de la cognición humana: la intuición, la empatía,
la imaginación, el pensamiento crítico y la responsabilidad ética.
No
se trata de rechazar la IA. Se trata de recordar quiénes somos cuando ella no
está. Porque al final, la verdadera medida de nuestra inteligencia no será cuán
bien usamos la tecnología, sino cuán capaces somos de prescindir de ella sin
perder el rumbo.
La
pregunta fundamental que emerge de esta investigación no es si deberíamos usar
IA, sino cómo podemos usarla sin perder nuestra humanidad cognitiva. La
respuesta a esta pregunta determinará no solo nuestro futuro tecnológico, sino
la naturaleza misma de lo que significa ser humano en la era de la inteligencia
artificial.
Recomendaciones para investigación futura
Con miras a profundizar en estas brechas, se proponen las siguientes líneas de investigación:
Estudios
longitudinales sobre el impacto cognitivo del uso intensivo de IA en diferentes
poblaciones (por edad, formación, contexto cultural). Nuestros datos muestran
que el 65,7 % de la muestra tiene entre 35 y 44 años, lo que limita la
extrapolación a usuarios más jóvenes, potencialmente más vulnerables al
descargo cognitivo pasivo.
Investigación
neurológica sobre los cambios estructurales cerebrales asociados con la
dependencia prolongada de IA, especialmente en funciones como la memoria de
trabajo, la planificación y la tolerancia al esfuerzo cognitivo —procesos que,
según los participantes, se ven afectados incluso cuando no se perciben como
“dependientes”.
Desarrollo
de instrumentos validados para medir y monitorear la dependencia cognitiva de
tecnologías, integrando indicadores como: frecuencia de uso, ansiedad ante la
desconexión, reducción autopercebida en el pensamiento autónomo y prácticas de
verificación crítica.
Análisis
comparativo entre culturas con distintos niveles de adopción y regulación de
IA, dado que nuestra muestra está compuesta en un 80,4 % por usuarios con
título universitario o posgrado, lo que sugiere un sesgo hacia contextos de
alta alfabetización digital.
Investigación
aplicada en el diseño de sistemas de IA que preserven y potencien activamente
las capacidades cognitivas humanas —por ejemplo, interfaces que exijan
justificación, generen disonancia cognitiva o fomenten la verificación cruzada,
en lugar de ofrecer soluciones listas para consumir.
Finalmente,
aunque esta investigación no identifica una diferencia generacional
estadísticamente significativa en la muestra actual (limitada en participación
de menores de 25 años), los pocos casos jóvenes (≈9,8 %) tienden a concentrarse
en usos más intensivos y recientes de IA, lo que sugiere una hipótesis
fructífera para futuros estudios: ¿Es la próxima generación más propensa a la
normalización no crítica de la IA como extensión del yo pensante?
Explorar
esta pregunta —y convertir la IA en un aliado del pensamiento, no en su
sustituto silencioso— es urgente. En una era donde la IA ya no es una opción,
sino una infraestructura cognitiva invisible, preservar la capacidad de pensar
por uno mismo no es un lujo intelectual: es una necesidad civilizatoria.
Referencias
Aiello, L. C. (1995). The expensive tissue hypothesis: The
brain and the digestive system in human and primate evolution. Current Anthropology, 199-221.
Anneline Pinson y otros. (2022). Human TKTL1 implies
greater neurogenesis in frontal neocortex of modern humans than Neanderthals. Science, Numero 377.
Biblioteca
Nacional de Medicina. (10 de 09 de 2025).
Obtenido de MedlinePlus:
https://medlineplus.gov/spanish/ency/article/002286.htm#:~:text=Es%20un%20dispositivo%20dise%C3%B1ado%20para,son%20reemplazados%20por%20dispositivos%20prot%C3%A9sicos.
Castells, M. (2000). The Rise of the Network Society: The Information Age: Economy, Society, and Culture.
Oxford, Reino Unido, y Malden, MA, Estados Unidos: Blackwell Publishers.
Dahmani, L. (10 de January de 2023). n death by GPS and the search for a safer navigation system.
Obtenido de Literary Hub:
https://lithub.com/on-death-by-gps-and-the-search-for-a-safer-navigation-system/
Diamond, J. (1997). Guns, Germs, and Steel: The Fates of Human Societies.
Nueva York: W. W. Norton & Company.
Dierssen, M. (09 de 04 de 2024). Real Academia Nacional de Medicina en España. Obtenido de Real
Academia Nacional de Medicina en España:
https://ranm.es/2024/04/el-uso-excesivo-de-la-inteligencia-artificial-debilita-nuestra-memoria-y-reduce-la-capacidad-para-pensar-criticamente-y-resolver-problemas-de-manera-independiente_np/
Gerlich, M. (2025). AI tools in society: Impacts on
cognitive offloading and the future of critical thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006.
Halpern, D. F. (2010). Halpern
Critical Thinking Assessment: Manual. Schuhfried GmbH.
Hobsbawm, E. (1992). Industry and Empire: The birth of the industrial revolution.
Nueva York, NY: The New Press.
Isaacson, W. (2001). Steve Jobs.
Nueva York: Simon & Schuster.
Jackson, J. (13 de January de 2025). Phys.org. Obtenido de Increased AI use linked to eroding critical
thinking skills.
Kochiyama, T. O. (2018). Reconstructing the Neanderthal
brain using computational anatomy. Scientific Reports,
volumen 8 Numero 1 páginas 1-10 (Artículo n.º 6296).
Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J.,
Greenhill, K. M., Menczer, F., Metzger, M. J., Nyhan, B., Pennycook, G.,
Rothschild, D., et al. (2018). The science of fake news. Science, 359(6380), 1094–1096.
https://doi.org/10.1126/science.aao2998. Obtenido de he science of fake news.
maragall, F. p. (10 de 09 de 2025). Fundacion pasqual maragall. Obtenido de Fundacion pasqual maragall:
https://blog.fpmaragall.org/capacidades-cognitivas#:~:text=Las%20capacidades%20cognitivas%20son%20aquellas,sencillo%20a%20lo%20m%C3%A1s%20complejo.
Mellars, P. A. (2005). The impossible coincidence. A
single-species model for the origins of modern human behaviour in Europe. Evolutionary Anthropology: Issues, News, and Reviews,
12-27.
Sill, C. (27 de November de 2018). 10 times GPS failed with terrible consequences. Obtenido de
Listverse :
https://listverse.com/2018/11/27/10-times-gps-failed-with-terrible-consequences/
Stefan Buijsman, S. E. (30 de Jun de 2025). Autonomy by Design: Preserving Human
Autonomy in AI Decision-Support. Obtenido de arxiv.org:
https://arxiv.org/abs/2506.23952
Steyvers, M. &. (2003). Three Challenges for
AI-Assisted Decision-Making. Three
challenges for AI-assisted decision-making, 1-13.
Wikipedia. (15 de September de 2023). Wikipedia. Obtenido de Death by GPS:
https://en.wikipedia.org/wiki/Death_by_GPS
Wrangham, R. W. (2009). Catching
fire: How cooking made us human. Basic Books.
Anexo
Encuesta
Esta
encuesta busca entender cómo el uso de herramientas de IA afecta nuestros
procesos de pensamiento. Por favor, responde con honestidad. Tus respuestas son
confidenciales y solo se usarán con fines académicos. Tiempo estimado: 8-10
minutos.
SECCIÓN A: Dependencia del Uso de IA
Pregunta 1
●
Tipo:
Escala lineal
●
Pregunta:
"En una escala del 1 al 10, ¿con qué frecuencia utilizas herramientas de
IA (Waze, GoogleMaps, ChatGPT, Copilot, Claude, etc.) en tu día a día?"
●
Escala:
1 a 10
●
Etiqueta 1: "Nunca"
●
Etiqueta 10: "Constantemente"
●
Obligatoria: Sí
Pregunta 2
●
Tipo:
Casillas de verificación
●
Pregunta:
"¿Para cuáles de las siguientes actividades utilizas habitualmente IA?
(Selecciona todas las que apliquen)"
●
Opciones:
o
Redacción de
textos/correos/documentos
o
Análisis de
información
o
Toma de
decisiones importantes
o
Conducir vehículo
o
Síntesis de
información de múltiples fuentes
o
Planificación de
proyectos o actividades
o
Traducción de
textos
o
Todas las
anteriores
o
Ninguna de las
anteriores
●
Obligatoria: Sí
Pregunta 3
●
Tipo:
Opción múltiple
●
Pregunta:
"Cuando utilizas IA para decisiones importantes, ¿cómo describes tu
proceso?"
●
Opciones:
o
1 - La uso solo como punto de
partida, luego analizo profundamente por mi cuenta
o
2 - La uso para generar
alternativas, luego evalúo críticamente cada opción
o
3 - Sigo sus sugerencias después de
verificar con otras fuentes
o
4 - Confío bastante, raramente
cuestiono sus recomendaciones
o
5 - Sigo sus recomendaciones sin
cuestionarlas
●
Obligatoria: Sí
Pregunta 4
●
Pregunta:
"¿Para cuáles de los siguientes propósitos estratégicos utilizas la IA?
(Selecciona todas las que apliquen)"
●
Opciones:
o
Generar múltiples
perspectivas sobre un problema
o
Identificar
puntos ciegos en mi análisis
o
Crear escenarios
alternativos para evaluar
o
Verificar la
lógica de mis argumentos
o
Explorar
contraargumentos a mis ideas
o
Organizar
información compleja antes de analizarla
o
Ninguna de las
anteriores
Pregunta 5:
●
Tipo:
Opción múltiple
●
Pregunta:
"Después de recibir una respuesta de IA, ¿qué haces habitualmente?"
●
Opciones:
o
La acepto tal
como está
o
La verifico
parcialmente
o
La contrasto con
múltiples fuentes adicionales
o
La uso como base
para desarrollar mi propio análisis
o
La cuestiono
sistemáticamente antes de usarla
SECCIÓN B: Malestar y Ansiedad sin IA
Pregunta 6
●
Tipo:
Opción múltiple
●
Pregunta:
"Si no tuvieras acceso a herramientas de IA durante una semana completa,
¿cómo te sentirías?"
●
Opciones:
o
Completamente
tranquilo/a, no me afectaría en absoluto
o
Ligeramente
incómodo/a, pero me adaptaría fácilmente
o
Moderadamente
ansioso/a, me costaría realizar algunas tareas
o
Bastante
estresado/a, tendría dificultades significativas
o
Extremadamente
ansioso/a, me sentiría perdido/a
●
Obligatoria: Sí
Pregunta 7
●
Tipo:
Opción múltiple
●
Pregunta:
"Cuando enfrentas un problema complejo y no tienes acceso a IA, tu primera
reacción es:"
●
Opciones:
o
Analizar el
problema paso a paso por mi cuenta
o
Buscar
información en fuentes tradicionales (libros, expertos)
o
Intentar
encontrar otra forma de acceder a IA
o
Posponer la tarea
hasta tener acceso a IA
o
Sentirme
bloqueado/a e incapaz de proceder
●
Obligatoria: Sí
SECCIÓN C: Capacidad de Análisis Independiente
Pregunta 8
●
Tipo:
Párrafo
●
Pregunta:
"CASO PRÁCTICO: Una empresa debe decidir si expandirse a un nuevo mercado.
Sin usar IA, enumera al menos 5 factores importantes que deberían considerarse
(máximo 1 línea por factor):"
●
Obligatoria: Sí
●
Validación: Respuesta mínima: 50 caracteres
Pregunta 9
●
Tipo:
Opción múltiple
●
Pregunta:
"Al leer un artículo de opinión controvertido (sin usar IA), ¿qué tan
capaz te sientes de identificar sesgos, falacias lógicas o argumentos
débiles?"
●
Opciones:
o
Muy capaz -
Identifico fácilmente problemas argumentativos
o
Bastante capaz -
Detecto la mayoría de problemas lógicos
o
Moderadamente
capaz - Identifico algunos problemas obvios
o
Poco capaz - Me
cuesta detectar sesgos o falacias
o
Nada capaz - No
logro identificar problemas argumentativos
●
Obligatoria: Sí
Pregunta 10
●
Tipo:
Opción múltiple
●
Pregunta:
"Cuando necesitas tomar una decisión importante SIN consultar IA, ¿cuánto
tiempo adicional requieres comparado con cuando SÍ la usas?"
●
Opciones:
o
El mismo tiempo o
menos
o
25% más de tiempo
o
50% más de tiempo
o
100% más de
tiempo (el doble)
o
Más del doble de
tiempo
●
Obligatoria: Sí
SECCIÓN D: Pensamiento Crítico
Pregunta 11
●
Tipo:
Opción múltiple
●
Pregunta:
"EJERCICIO DE LÓGICA: 'Todos los estudiantes que usan IA son menos
creativos. María usa IA. Por tanto, María es menos creativa.' ¿Cuál es el
principal problema de este razonamiento?"
●
Opciones:
o
La conclusión es
falsa porque IA puede aumentar la creatividad
o
La IA no mide
creatividad
o
No hay problema,
el razonamiento es válido
o
El problema es
que no conocemos bien a María
o
No estoy seguro/a
de cuál es el problema
●
Obligatoria: Sí
Pregunta 12
●
Tipo:
Opción múltiple
●
Pregunta:
"Si tuvieras que escribir un ensayo argumentativo de 500 palabras SIN usar
IA, sobre un tema que conoces bien, ¿cómo calificarías tu confianza?"
●
Opciones:
o
Muy confiado/a -
Podría hacerlo sin problemas
o
Bastante
confiado/a - Lo haría bien, aunque me tomaría tiempo
o
Moderadamente
confiado/a - Lo intentaría, pero tendría dudas
o
Poco confiado/a -
Me resultaría muy difícil
o
Nada confiado/a -
No podría completarlo satisfactoriamente
●
Obligatoria: Sí
SECCIÓN E: Comparación de Rendimiento
Pregunta 13
●
Tipo:
Opción múltiple
●
Pregunta:
"Si comparas tu capacidad actual para resolver problemas complejos con la
que tenías ANTES de usar IA, dirías que el uso de IA ha:"
●
Opciones:
o
Ampliado
significativamente mis capacidades de análisis
o
Mejorado mi
eficiencia sin reducir mi pensamiento crítico
o
Mantenido mis
capacidades igual que antes
o
Reducido
ligeramente mi capacidad de análisis independiente
o
Reducido
significativamente mi pensamiento autónomo
●
Obligatoria: Sí
Pregunta 14
●
Tipo:
Opción múltiple
●
Pregunta:
"SITUACIÓN HIPOTÉTICA: Debes presentar una propuesta importante en el
trabajo y tu conexión a internet falla justo antes. ¿Qué tan preparado/a te
sientes para completar la tarea solo/a?"
●
Opciones:
o
Completamente
preparado/a - Puedo hacerlo sin problemas
o
Bien preparado/a
- Lo completaría satisfactoriamente
o
Medianamente
preparado/a - Lo intentaría, pero con resultados mediocres
o
Poco preparado/a
- Tendría grandes dificultades
o
Nada preparado/a
- No podría completar la tarea adecuadamente
● Obligatoria: Sí
SECCIÓN F: Metacognición
Pregunta 15
●
Tipo:
Opción múltiple
●
Pregunta:
"¿Has notado cambios en tu forma de pensar desde que comenzaste a usar IA
regularmente?"
●
Opciones:
o
Sí, pienso de
manera más eficiente y estructurada
o
Sí, pero he
perdido profundidad en mi análisis
o
Sí, dependo más
de confirmación externa para mis ideas
o
No he notado
cambios significativos
o
Prefiero no
reflexionar sobre este tema
●
Obligatoria: Sí
Pregunta 16
●
Tipo:
Opción múltiple
●
Pregunta:
"Al enfrentarte a una situación compleja, ¿cuál es tu primera reacción
instintiva?"
●
Opciones:
o
Reflexionar y
analizar mentalmente, antes que nada
o
Buscar
información en fuentes tradicionales primero
o
Consultar
inmediatamente con IA
o
Preguntar a
colegas o expertos
o
Evitar la
pregunta si es posible
●
Obligatoria: Sí
Pregunta 17
●
Tipo:
Opción múltiple
●
Pregunta:
"En tu opinión honesta, ¿crees que tu capacidad de pensamiento
independiente se ha visto afectada por el uso de IA?"
●
Opciones:
o
No, se ha
fortalecido significativamente
o
No, no ha
cambiado
o
Sí, se ha
debilitado ligeramente
o
Sí, se ha
debilitado considerablemente
o
No estoy seguro/a
●
Obligatoria: Sí
Pregunta 18:
●
Tipo:
Opción múltiple
●
Pregunta:
"¿Cómo describes tu relación actual con la IA?"
●
Opciones:
o
La uso como
herramienta para potenciar mi pensamiento
o
Es un colaborador
que me ayuda a pensar mejor
o
Es una fuente de
respuestas en la que confío
o
Es indispensable
para mi trabajo diario
o
Prefiero no
depender de ella
SECCIÓN G: Datos Demográficos (Opcional)
Pregunta 19
●
Tipo:
Respuesta corta
●
Pregunta:
"Edad (opcional)"
●
Obligatoria: No
Pregunta 20
●
Tipo:
Respuesta corta
●
Pregunta:
"Profesión/Área de trabajo (opcional)"
●
Obligatoria: No
Pregunta 21
●
Tipo:
Opción múltiple
●
Pregunta:
"Nivel educativo (opcional)"
●
Opciones:
o
Secundaria
o
Técnico/Tecnológico
o
Universitario
o
Especialización
o
Maestría
o
Doctorado
●
Obligatoria: No
Pregunta 22
●
Tipo:
Opción múltiple
●
Pregunta:
"¿Hace cuánto tiempo usas IA regularmente? (opcional)"
●
Opciones:
o
Menos de 3 meses
o
3-6 meses
o
6-12 meses
o
1-2 años
o
Más de 2 años
● Obligatoria: N
Apéndice
1.
Resultados de la encuesta
1. Frecuencia y usos
habituales de IA
●
Frecuencia de
uso:
La distribución del uso diario de herramientas de IA (escala 1–10) muestra una
tendencia bimodal. El 21,2 % de los participantes reportó un uso constante
(valor 10), mientras que el 15,4 % lo utiliza con alta frecuencia (valor 8). En
el extremo opuesto, solo el 3,8 % indicó un uso mínimo (valor 1 o 2).
●
Actividades más
comunes:
Las funciones cognitivas más delegadas a la IA son:
●
Análisis de
información (48,1 %),
●
Redacción de
textos/correos/documentos (40,4 %),
●
Conducción de
vehículos mediante GPS (44,2 %),
●
Traducción de
textos (30,8 %).
En contraste, solo el 9,6 %
utiliza IA para toma de decisiones importantes, lo que sugiere una cierta
reserva en contextos de alto impacto.
2. Procesos de toma de
decisiones y verificación crítica
●
Enfoque ante
decisiones importantes:
El 50 % de los participantes indica que usa la IA para generar alternativas y
luego evalúa críticamente cada opción, mientras que el 40,4 % la emplea solo
como punto de partida para su propio análisis. Solo 1 persona (1,9 %) admitió
confiar en las recomendaciones sin cuestionarlas, y ninguno sigue las
sugerencias ciegamente.
●
Verificación de
respuestas:
Tras recibir una respuesta de IA:
●
34,6 % la usa
como base para desarrollar su propio análisis,
●
28,8 % la
contrasta con múltiples fuentes adicionales,
●
19,2 % la
cuestiona sistemáticamente antes de usarla.
Solo 7,7 % acepta la
respuesta tal como está.
●
Propósitos
estratégicos:
Un porcentaje significativo utiliza la IA con fines metacognitivos:
●
46,2 % para
identificar puntos ciegos o crear escenarios alternativos,
●
42,3 % para
verificar la lógica de sus argumentos,
●
38,5 % para
organizar información compleja.
Estos datos sugieren que, al
menos en la autopercepción de los participantes, la IA se emplea más como
herramienta de amplificación cognitiva que como sustituto del juicio humano.
3. Ansiedad y malestar ante
la desconexión tecnológica
●
Sin acceso a IA
durante una semana:
El 71,2 % se sentiría completamente tranquilo/a, mientras que solo el 28,8 %
reportó ansiedad moderada por la imposibilidad de realizar ciertas tareas.
Ningún participante expresó estrés significativo o sensación de pérdida.
●
Ante un problema
complejo sin IA:
El 59,6 % opta por analizar el problema paso a paso por su cuenta, y el 36,5 %
recurre a fuentes tradicionales (libros, expertos). Solo 2 personas (3,8 %)
intentarían encontrar otra forma de acceder a IA, y ninguno se siente bloqueado
o incapaz de proceder.
Esto indica una alta
resiliencia cognitiva y autonomía intelectual en ausencia de apoyo tecnológico.
4. Capacidad de análisis
independiente y autopercepción
●
Identificación de
sesgos y falacias:
El 61,5 % se considera muy o bastante capaz de detectar problemas
argumentativos en textos de opinión sin IA. Solo 1 persona (1,9 %) admitió
dificultades significativas.
●
Comparación con
el pasado:
Respecto a su capacidad actual frente a la que tenían antes de usar IA:
●
44,2 % afirma que
su eficiencia ha mejorado sin afectar su pensamiento crítico,
●
25 % cree que sus
capacidades se han ampliado significativamente,
●
Solo 15,4 %
percibe una ligera o significativa reducción en su pensamiento autónomo.
●
Preparación ante
fallos tecnológicos:
En una situación hipotética de falla de internet antes de una presentación
importante:
●
50 % se siente
completamente preparado/a,
●
36,5 % lo haría
satisfactoriamente,
●
Ninguno considera
que no podría completar la tarea.
5. Metacognición y percepción
de cambio
●
Cambios en la
forma de pensar:
●
38,5 % percibe
que piensa de manera más eficiente y estructurada,
●
36,5 % no ha
notado cambios significativos,
●
Solo 11,5 %
siente que ha perdido profundidad en su análisis o depende más de confirmación
externa.
●
Reacción
instintiva ante complejidad:
El 55,8 % reflexiona y analiza mentalmente antes que nada, mientras que solo
7,7 % consulta inmediatamente con IA.
●
Impacto en el
pensamiento independiente:
●
38,5 % dice que
no ha cambiado,
●
19,2 % cree que
se ha fortalecido,
●
34,6 % admite un
debilitamiento leve o considerable.
●
Relación con la
IA:
●
46,2 % la ve como
una herramienta para potenciar su pensamiento,
●
25 % como un
colaborador que ayuda a pensar mejor,
●
Solo 1
participante la considera una fuente de respuestas en la que confía ciegamente,
●
21,2 % prefiere
no depender de ella.
6. Perfil demográfico
●
Edad:
●
65.7 % entre 35 y
44 años
●
24.5 % entre 25 y
34 años
●
9.8 % entre 18 y
24 años
●
Nivel educativo:
●
45,1 % tiene
título universitario,
●
27,5 % posee
maestría,
●
11,8 % tiene
doctorado.
●
Experiencia con
IA:
Los datos sobre duración del uso regular de IA están incompletos en la entrega,
pero serán incorporados una vez disponibles.
2.
Explicación de los Parámetros
Estadísticos
Los hallazgos de Gerlich
(2025) proporcionan la evidencia cuantitativa de la relación.
●
Correlación Negativa Fuerte ($r = -0.68$)
o
$r$
es el coeficiente de correlación de Pearson, que mide la fuerza y la dirección
de una relación lineal.
o
Negativa (-): Indica una relación inversa.
A medida que una variable aumenta, la otra disminuye. En este caso: Más uso de IA $\rightarrow$ Menos
pensamiento crítico.
o
Fuerte (0.68): Un valor de 0.68 (cercano a 1) sugiere que la relación es sustancial y significativa.
●
Significancia Estadística ($p < 0.001$)
o
$p$
es el valor de probabilidad. Este valor indica la probabilidad de que la
correlación observada sea resultado del puro azar.
o
$p < 0.001$: Esto es una evidencia muy fuerte (menor a 1 en 1,000) de que la
correlación no es aleatoria y es
estadísticamente significativa. Es decir, hay una relación genuina entre el uso
frecuente de IA y las bajas puntuaciones en pensamiento crítico.

Comentarios