Ir al contenido principal

La inteligencia artificial como prótesis cognitiva/ Is AI an amplifier or a substitute for our minds? My latest analysis on AI as a "cognitive prosthesis".

 La inteligencia artificial como prótesis cognitiva

Ventajas, limitaciones y riesgos de una dependencia creciente

P. Hd. Jesse J. De León  ORCID 0009-0009-1746-8682 

Febrero 2026

Contenido

La inteligencia artificial como prótesis cognitiva. 1

Keywords. 1

Abstract. 1

Introducción. 2

Propósito de la investigación. 3

Pregunta de la investigación. 4

Hipótesis de la Investigación. 4

Objetivos. 5

Metodología. 5

Enfoque de investigación. 5

Diseño metodológico. 6

Estrategia de búsqueda y selección de fuentes. 6

Método de análisis. 6

Evolución del pensamiento y conversión en una prótesis cognitiva tecnológica. 8

Resultados. 14

1. Principales usos de la IA como herramienta de soporte cognitivo. 17

2. Beneficios funcionales y percepción de eficiencia. 17

3. Riesgos asociados a la dependencia excesiva. 18

4. Criterios emergentes para un uso ético y equilibrado. 19

Análisis factorial exploratorio (EFA). 20

Regresión logística ordinal 21

Matriz de correlación. 22

Clustered Bar Chart. 23

Gráfico de Perfil (Profile Plot) o Radar de Medias (Mean Radar Chart). 25

Gráfico de barras apiladas normalizadas (en porcentajes). 27

Discusión. 29

Conclusiones. 32

Reflexión final 34

Recomendaciones para investigación futura. 35

Referencias. 37

Anexo. 39

Apéndice. 48

 

Resumen Ejecutivo

Esta investigación explora críticamente el impacto de la inteligencia artificial (IA) como prótesis cognitiva en la autonomía intelectual, el pensamiento crítico y la toma de decisiones autónoma. Mediante una revisión sistemática de literatura científica (2019–2025) y una encuesta transversal a 102 usuarios regulares de IA, el estudio identifica una tensión fundamental: si bien la IA amplifica la eficiencia y democratiza el acceso al conocimiento, su uso normalizado —especialmente sin marcos reflexivos— erosiona silenciosamente capacidades cognitivas esenciales.

Los resultados revelan que:

·         48,0 % de los participantes usan IA para análisis de información, 40,2 % para redacción y 46,1 % para detectar sesgos en su propio razonamiento, lo que evidencia una dependencia funcional implícita.

·         37,3 % reconoce que su capacidad para resolver problemas complejos ha disminuido desde que usa IA.

·         38,2 % experimenta cierto grado de ansiedad ante una semana sin acceso a IA.

·         Solo 28,4 % contrasta sistemáticamente las respuestas de IA con múltiples fuentes, lo que subraya una brecha entre la autopercepción de control y las prácticas reales.

El análisis de regresión múltiple confirma que:

·         La ansiedad tecnológica y la frecuencia de uso se asocian negativamente con la autonomía cognitiva.

·         La metacognición crítica emerge como el predictor más robusto y positivo de autonomía, reforzando su rol como factor protector.

Aunque la muestra es altamente educada (80,4 % con título universitario o posgrado) y mayoritariamente adulta (65,7 % entre 35 y 44 años), los hallazgos sugieren que la erosión cognitiva no es exclusiva de usuarios novatos, sino un riesgo transversal en contextos de uso intensivo.

Ante estos riesgos, el estudio propone un marco ético de cuatro criterios para una prótesis cognitiva sostenible:

1.    Verificación activa de todo output algorítmico.

2.    Diseño de herramientas que fomenten la metacognición (reflexión sobre el propio pensamiento).

3.    Educación explícita en autonomía tecnológica en currículos académicos y profesionales.

4.    Límites éticos claros en la delegación de decisiones críticas.

En conclusión, la IA no debe ser rechazada, sino rediseñada y utilizada con conciencia crítica para que funcione como amplificador —no sustituto— del juicio humano. La verdadera inteligencia en la era algorítmica no radica en la capacidad de usar tecnología, sino en la de prescindir de ella sin perder el rumbo.


La inteligencia artificial como prótesis cognitiva

ventajas, limitaciones y riesgos de una dependencia creciente

Jesse J. De León

Keywords

Pensamiento crítico, habilidades cognitivas, Inteligencia Artificial, dependencia, Inteligencia Artificial, Prótesis Cognitiva, Dependencia Tecnológica, Autonomía Intelectual, Juicio Crítico, Responsabilidad Humana, Ética en Inteligencia Artificial, Pensamiento delegado, Riesgos de la IA, Limitaciones de la Inteligencia Artificial, Toma de Decisiones Asistida, Impacto Cognitivo de la Tecnología, Sociedad y Tecnología, Automatización Cognitiva, Transformación Digital.

Abstract

La inteligencia artificial (IA) se ha integrado de forma creciente en la vida cotidiana y profesional como una prótesis cognitiva que promete eficiencia, pero que también plantea riesgos para la autonomía intelectual. Esta investigación cualitativa explora cómo la dependencia creciente de la IA como extensión del pensamiento afecta la capacidad de pensamiento crítico y la toma de decisiones autónoma en contextos contemporáneos. Mediante una revisión sistemática de literatura científica (2019–2025) y el análisis temático de estudios empíricos —incluyendo el trabajo de Gerlich (2025), que reporta una correlación negativa fuerte (r = –0.68, p < 0.001) entre el uso de IA y las habilidades de pensamiento crítico—, se identifican patrones de descargo cognitivo pasivo que erosionan habilidades fundamentales como el análisis independiente, la evaluación de sesgos y la resolución autónoma de problemas. Se examinan analogías históricas, como los casos fatales de “Death by GPS”, y evidencia neurológica que demuestra la atrofia de funciones espaciales por delegación tecnológica, como metáfora del fenómeno actual. Los hallazgos revelan una vulnerabilidad generacional, con usuarios jóvenes mostrando mayor dependencia y menor capacidad crítica, así como una relación inversa entre frecuencia de uso de IA y confianza en el juicio propio. A partir de estos resultados, se propone un marco de cuatro criterios para un uso ético y sostenible de la IA: verificación activa, diseño para la metacognición, educación en autonomía tecnológica y límites éticos claros en la delegación cognitiva. El estudio concluye que la IA debe funcionar como amplificador —no sustituto— del pensamiento humano, preservando así la esencia de la función intelectual en la era algorítmica.

 

 

Introducción

Actualmente la tecnología avanza a pasos agigantados y se encuentra al alcance de nuestras manos a través de un solo clic y los beneficios que ha traído consigo es la facilitación del uso de la Inteligencia Artificial (IA), sin embargo, la facilitación de ese recurso hace que muchas personas deleguen todas las tareas que tienen que hacer, creando una dependencia absoluta que, a través del tiempo, reduce la capacidad de analizar y pensar para resolver los problemas por sí mismos. La Doctora Mara Dierssen es presidente del Consejo Español del Cerebro y de la Asociación Española para el Avance de la Ciencia y Neurobiología del Centro de Regulación Genómica indica que “Si utilizamos la IA para escribir artículos científicos, e-mails o resumir textos, nuestras habilidades cognitivas corren el riesgo de verse comprometidas, ya que cuando delegamos en exceso dejamos en manos de la IA el procesamiento de la información y perdemos la oportunidad de fortalecer la memoria. Reducir el esfuerzo neurológico disminuye nuestra capacidad para pensar críticamente y resolver problemas de manera independiente” (Dierssen, 2024).

Es por ello que debemos utilizar la IA con responsabilidad y saber cuándo delegar, es decir que en ocasiones hay que encontrar algunos patrones, cantidades o características comunes en una base de datos muy grande y a una persona le llevaría años hacerlo, sin embargo, si se utiliza la IA para hacer esa tarea, podría llevarle al menos un minuto. Por lo tanto ¿hasta dónde podemos utilizar la IA en nuestras vidas? continuando con el ejemplo, al tener ese mar de registros ya procesados, el ser humano debe ser capaz de analizar esa información generada con IA y más aún, ser capaz de tomar decisiones acertadas para tener un producto terminado. Así mismo, el no delegar en exceso las tareas va a permitir mantener la capacidad del pensamiento crítico para estar seguro que no haya algún sesgo o la información no esté manipulada.

En el campo de la medicina una prótesis es un aparato artificial que se utiliza para reemplazar una parte del cuerpo que falta, no funciona correctamente o necesita mejorar su función (Biblioteca Nacional de Medicina, 2025), las prótesis que suelen ser más conocidas son las de las piernas, brazos, rodillas, dientes o incluso al hueso de la mandíbula cuando se reemplaza se conoce como prótesis maxilofacial. Sin embargo, jamás alguien habría pensado que existiría una prótesis para nuestra capacidad cognitiva; que es la capacidad nuestro cerebro para procesar, memorizar y utilizar la información para el aprendizaje, razonamiento y resolución de problemas (maragall, 2025). Al no utilizar correctamente el cerebro, la agudeza mental empieza a disminuir por falta de una mente sano por la dependencia de la IA a tal extremo que se delegan decisiones personales y esos resultados que en el mejor de los casos habría que analizar, se ejecutan mecánicamente a ciegas como si fuera la verdad absoluta sin importar las consecuencias.

¿Cuántas veces se ha visto a personas dependiendo totalmente de la IA? Hay aplicaciones de navegación en donde se coloca la dirección de partida y de destino, la IA integrada da instrucciones para dirigir a las personas hacia una ruta con menos densidad vehicular o menos distancia; sin embargo, ha ocurrido que los algoritmos fallan o alguna actualización no se instala y los conduce por una ruta que físicamente no es accesible o es una ruta en donde no hay un puente, no hay acceso, existe algún rio u obstáculo, sin embargo, las personas han delegado su recorrido a la IA y a pesar que están viendo lo inaccesible del paso, hacen el intento de continuar su recorrido, solo porque la aplicación indica que va en “dirección correcta”.

Por lo tanto, la dependencia de la IA, disminuye la capacidad de las personas para hacer un análisis y desarrollar el pensamiento crítico que permite determinar si se está tomando la decisión correcta o equivocada.

 

Propósito de la investigación

 

El propósito de esta investigación es profundizar en la compleja y multifacética relación entre el uso cada vez más dependiente de la inteligencia artificial (IA) como prótesis cognitiva y su impacto transformador en la autonomía intelectual, el pensamiento crítico y la toma de decisiones en los seres humanos. En una era caracterizada por la ubicuidad digital, donde la IA se integra de manera progresiva y, a menudo, imperceptible en casi todos los aspectos de la vida cotidiana y profesional —desde sistemas educativos adaptativos y diagnósticos médicos asistidos hasta algoritmos de recomendación y herramientas de análisis empresarial—, resulta crucial trascender la perspectiva meramente utilitaria que se enfoca únicamente en sus ventajas operativas evidentes, para examinar de manera rigurosa y sistemática sus efectos a largo plazo en las habilidades cognitivas fundamentales que definen la condición humana.

Este estudio busca no solo describir de manera exhaustiva cómo se utiliza la IA en diversos ámbitos como una herramienta de soporte y amplificación cognitiva, sino también evaluar críticamente los riesgos inherentes y las implicaciones éticas de una dependencia excesiva que podría estar reconfigurando silenciosamente la arquitectura de nuestros procesos mentales. La investigación se propone indagar en profundidad en la potencial erosión de habilidades críticas como el razonamiento analítico, la síntesis de información compleja y la dilución de la capacidad de toma de decisiones autónoma que podría surgir cuando los individuos delegan sistemáticamente procesos mentales complejos a algoritmos cada vez más sofisticados, generando una paradoja donde el aumento de la eficiencia tecnológica podría coexistir con una disminución gradual de la competencia cognitiva humana.

Más allá del diagnóstico de estos fenómenos emergentes, esta investigación aspira a contribuir al debate académico y social contemporáneo mediante la identificación de los beneficios funcionales genuinos que ofrece la integración de la IA en los procesos cognitivos, al tiempo que establece una cartografía precisa de las limitaciones éticas y los riesgos asociados a su implementación desregulada. En última instancia, este estudio tiene como fin proponer un marco de referencia conceptual y metodológico con criterios claros, viables y sostenibles para un uso ético y responsable de la IA que permita aprovechar su potencial transformador sin comprometer la capacidad humana fundamental de razonamiento independiente, juicio crítico y toma de decisiones autónoma, estableciendo así las bases para una coexistencia equilibrada entre la inteligencia humana y artificial en el contexto de una sociedad tecnológicamente avanzada pero éticamente consciente.

 

Pregunta de la investigación

¿De qué manera la creciente dependencia de la inteligencia artificial como prótesis cognitiva afecta la autonomía intelectual y el pensamiento crítico en contextos cotidianos y profesionales?

Hipótesis de la Investigación

 

Hipótesis Principal

"A mayor grado de dependencia del uso de inteligencia artificial como prótesis cognitiva en actividades cotidianas y profesionales, menor será el nivel de autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones independiente en los individuos."

 

Identificación de Variables

 

Variable Independiente (VI)

Grado de dependencia del uso de IA como prótesis cognitiva:

Definición conceptual: Nivel de reliance y frecuencia con que los individuos utilizan sistemas de inteligencia artificial para realizar procesos cognitivos que tradicionalmente ejecutaban de manera autónoma.

 

Variable Dependiente (VD)

Nivel de autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones independiente

 

Definición conceptual: Capacidad de los individuos para procesar información, analizar situaciones complejas y tomar decisiones basadas en razonamiento propio sin depender de asistencia tecnológica externa.

Definición operacional: Se medirá mediante:

Evaluación de capacidad de análisis de problemas complejos sin asistencia tecnológica

Medición de tiempo de respuesta en tareas de toma de decisiones autónomas

Calidad de argumentación en debates o ensayos realizados sin IA

 

Hipótesis Específicas Derivadas

H1

"Los individuos con alta dependencia de IA mostrarán menor capacidad para resolver problemas complejos sin asistencia tecnológica comparados con aquellos con baja dependencia."

  

H2

"La frecuencia de uso de IA para tareas de análisis y síntesis se correlacionará negativamente con las puntuaciones en tests de pensamiento crítico independiente."

H3

"Los sujetos con mayor dependencia de IA experimentarán mayor ansiedad y menor confianza al enfrentar decisiones importantes sin acceso a herramientas de inteligencia artificial."

 

Objetivos

Objetivo general:

Analizar el impacto del uso dependiente y creciente de la inteligencia artificial como prótesis cognitiva en la autonomía intelectual, el pensamiento crítico y la toma de decisiones humanas, identificando sus ventajas operativas, limitaciones éticas y riesgos asociados, con el fin de evaluar su impacto en la autonomía de las personas proponiendo criterios para un uso responsable y ético en contextos profesionales y cotidianos.

Objetivos específicos:

  1. Describir los principales usos de la IA como herramienta de soporte cognitivo en distintos ámbitos (educación, salud, toma de decisiones).
  2. Evaluar los beneficios funcionales y la eficiencia derivada del uso intensivo de IA.
  3. Identificar los riesgos asociados a la dependencia excesiva de la IA, especialmente en lo que respecta a la autonomía intelectual y la erosión de habilidades críticas.

Proponer criterios para un uso equilibrado, ético y sostenible de la IA como herramienta cognitiva.

 

Metodología

 

Enfoque de investigación

Esta investigación adopta un enfoque cualitativo descriptivo-analítico con elementos de revisión sistemática de literatura, orientado a comprender en profundidad el fenómeno de la dependencia de la IA como prótesis cognitiva y sus implicaciones en la autonomía intelectual humana.

  

Diseño metodológico

Tipo de estudio

•    Estudio descriptivo-analítico basado en revisión bibliográfica sistemática.

•    Análisis documental de fuentes primarias y secundarias.

•    Se elaborará una encuesta diseñada para medir los objetivos de la investigación.

•    Estudio transversal que examina el estado actual del uso de IA como soporte cognitivo.

Estrategia de búsqueda y selección de fuentes

Bases de datos consultadas:

•    PubMed/MEDLINE

•    Google Scholar

•    ScienceDirect

•    IEEE Xplore Digital Library

•    JSTOR

•    Repositorios institucionales de universidades

Términos de búsqueda (en español e inglés):

•    "Inteligencia artificial" AND "dependencia cognitiva"

•    "AI cognitive dependency"

•    "Prótesis cognitiva" OR "Cognitive prosthetics"

•    "Pensamiento crítico" AND "tecnología"

•    "Critical thinking" AND "artificial intelligence"

•    "Autonomía intelectual" AND "IA"

•    "Cognitive offloading" AND "risks"

Criterios de inclusión:

•    Publicaciones en español e inglés

•    Artículos científicos revisados por pares (2019-2024)

•    Estudios sobre impacto cognitivo de la IA

•    Investigaciones sobre dependencia tecnológica

•    Documentos de organismos oficiales y expertos reconocidos

Criterios de exclusión:

•    Publicaciones anteriores a 2019 (excepto referencias clásicas fundamentales)

•    Artículos no revisados por pares

•    Contenido sin respaldo científico

•    Duplicados

 

Método de análisis

Además del análisis documental, se complementará la investigación con una encuesta transversal dirigida a usuarios regulares de herramientas de IA en contextos académicos y profesionales. La encuesta, diseñada con base en las dimensiones de autonomía intelectual, ansiedad tecnológica y capacidad de análisis independiente, permitirá contrastar las tendencias identificadas en la literatura con la experiencia subjetiva de los usuarios. Los resultados informarán la propuesta final de criterios educativos.

 

Análisis de contenido temático

Se realizará un análisis de contenido siguiendo las siguientes fases:

1.         Lectura exploratoria: Revisión inicial de todas las fuentes seleccionadas.

2.         Codificación temática: Identificación de categorías emergentes relacionadas con:

        Ventajas operativas de la IA

        Limitaciones y riesgos cognitivos

        Casos de dependencia excesiva

        Propuestas de uso responsable

3.         Análisis comparativo: Contraste entre diferentes perspectivas y hallazgos.

4.         Síntesis interpretativa: Integración de resultados para responder a los objetivos.

Categorías de análisis

Dimensión 1: Usos de la IA como soporte cognitivo

        Ámbito educativo

        Ámbito sanitario

        Toma de decisiones empresariales

        Vida cotidiana (navegación, comunicación, etc.)

Dimensión 2: Beneficios funcionales

        Eficiencia en procesamiento de datos

        Velocidad en tareas complejas

        Acceso a información especializada

        Optimización de recursos

Dimensión 3: Riesgos y limitaciones

        Erosión de habilidades críticas

        Dependencia excesiva

        Sesgos algorítmicos

        Pérdida de autonomía intelectual

Dimensión 4: Criterios para uso responsable

        Principios éticos

        Marcos regulatorios

        Estrategias de equilibrio

        Competencias digitales necesarias

Consideraciones éticas

        Análisis crítico y objetivo de las fuentes

        Respeto por los derechos de autor en todas las citas

        Presentación equilibrada de ventajas y limitaciones

        Transparencia en las limitaciones del estudio

 

Limitaciones del estudio

        La investigación se basa principalmente en fuentes documentales

        El fenómeno estudiado está en constante evolución tecnológica

        Posible sesgo hacia literatura en idiomas español e inglés

        La velocidad de cambio tecnológico puede hacer que algunos hallazgos pierdan vigencia rápidamente

        La cantidad de personas encuestadas no podrá representar significativamente a los diferentes grupos demográficos que existen

 

Evolución del pensamiento y conversión en una prótesis cognitiva tecnológica

 

El ascenso del Homo sapiens (Cromañón) sobre el Homo neanderthalensis se debe a una crucial ventaja cognitiva y cultural, no a la fuerza bruta. Esta evolución fue catalizada por una modificación dietética clave: la ingesta de carne, rica en nutrientes esenciales (B12, Hierro, Omega-3), sostuvo el alto costo energético del cerebro, que consume cerca del 20% de la energía metabólica total (Aiello, 1995). El dominio del fuego, al permitir la cocción de alimentos, incrementó drásticamente la absorción de nutrientes y liberó energía para el desarrollo cerebral, un concepto central en la hipótesis del "tejido caro" (Wrangham, 2009). Neuroanatómicamente, el Homo sapiens logró un incremento neuronal, especialmente en el neocórtex (lóbulo frontal asociado al razonamiento complejo), gracias a una mayor producción de neuronas durante el desarrollo fetal, una diferencia clave con los Neandertales (Anneline Pinson y otros., 2022). Este desarrollo también incluyó un mayor tamaño relativo del cerebelo, crucial para la planificación, el lenguaje y la complejidad social (Kochiyama, 2018). Esta base biológica condujo a una fluidez cognitiva superior, manifestada en la innovación tecnológica (herramientas de hueso y proyectiles) y el desarrollo de un pensamiento simbólico avanzado, evidente en el arte rupestre y los objetos de adorno (Mellars, 2005), lo que en conjunto aseguró su éxito adaptativo y cultural.

El desarrollo del razonamiento humano como capacidad de elegir las mejores opciones para la supervivencia y la eficiencia ha sido el motor de la evolución socioeconómica. Desde la transición neolítica, la agricultura impulsó la mejora continua de las técnicas de siembra y cosecha, una necesidad amplificada por el crecimiento poblacional que exigió la rentabilidad y la optimización de los recursos (Diamond, 1997). Este imperativo económico, que busca asegurar que los costos de producción y cuidado se reflejen en un precio de venta productivo, demostró la aplicación práctica y constante del razonamiento.

A lo largo de los siglos, el esfuerzo por desarrollar el intelecto se institucionalizó a través de escuelas de pensamiento dedicadas a la medicina, el arte y la música, cuyos estilos y técnicas reflejaron los avances cognitivos de cada época. No obstante, fue la Revolución Industrial (finales del siglo XVIII y principios del XIX), considerada un punto de inflexión en la aplicación práctica del intelecto, la que generó una explosión de inventos destinados a agilizar las actividades humanas. Paralelamente, esta era impulsó la educación académica formal, cuyo objetivo era desarrollar la memorización, el conocimiento y el pensamiento sistemático como habilidades esenciales para la nueva economía (Hobsbawm, 1992).

El razonamiento se utiliza diariamente, desde decisiones triviales como ajustar el tiempo de sueño hasta complejas elecciones de mercado, como la fijación de precios y la selección de materiales para garantizar la calidad y la satisfacción del consumidor. Finalmente, con la llegada de la revolución tecnológica, el mercado laboral demostró la importancia de la adaptabilidad cognitiva: la obsolescencia de habilidades específicas, ejemplificada por el reemplazo de la máquina de escribir por la computadora entre los años 60 y 90, subraya que el éxito profesional, ya sea como empresario o trabajador, depende directamente de la adquisición constante de conocimientos básicos, habilidades especializadas y la capacidad de razonamiento estratégico (Castells, 2000) y como ha sido siempre en el ser humano: la capacidad de adaptarse al cambio.

La aceleración tecnológica de la década de 1990 marcó un punto de inflexión en las prácticas académicas y laborales al optimizar significativamente el acceso a la información y el procesamiento de datos. El advenimiento de la computadora personal y el internet transformó las tediosas y prolongadas tareas de investigación documental, que antes requerían días o semanas de labor en bibliotecas físicas para la consulta de enciclopedias, en procesos expeditos que podían completarse en cuestión de horas o minutos a través de un solo clic (Castells, 2000). Esta digitalización no solo simplificó la búsqueda, sino que también revolucionó el cálculo matemático: las tareas manuales de suma y resta, delegadas inicialmente a la calculadora, fueron sustituidas por la potencia y eficiencia de las hojas de cálculo y sus funciones automatizadas. Esta tendencia hacia la convergencia y la ubicuidad alcanzó su máxima expresión a mediados de la década de 2000, un periodo caracterizado por la explosión de la economía .com y la aparición de un nuevo paradigma comunicativo. El lanzamiento del iPhone en 2007, atribuido al ingenio de Steve Jobs, introdujo de forma masiva el concepto de Smartphone (teléfono inteligente) (Isaacson, 2001). Este dispositivo consolidó múltiples funcionalidades esenciales—teléfono, agenda, calculadora, navegador de internet, reproductor multimedia, cámara y buzón de correo electrónico—en un solo aparato. Desde este evento histórico, la dependencia social de los dispositivos electrónicos se ha intensificado, convirtiéndolos en herramientas indispensables para la vida diaria. Las mejoras subsiguientes han transformado el smartphone en un centro de convergencia digital capaz de reproducir películas, acceder a bibliotecas completas y emular consolas de videojuegos, fusionando la productividad académica y laboral con el entretenimiento total para todas las edades.

En la actualidad la humanidad se encuentra en un punto de inflexión tecnológico sin precedentes. Los avances en inteligencia artificial han trascendido las fronteras de la automatización física para adentrarse en territorios que antes considerábamos exclusivamente humanos: el procesamiento cognitivo, la toma de decisiones y la generación de conocimiento. Esta revolución tecnológica plantea interrogantes fundamentales sobre nuestra relación con las máquinas inteligentes y su impacto en nuestras capacidades mentales.

Desde la comunicación instantánea global hasta las cirugías asistidas por robots, la tecnología ha redefinido los límites de lo posible. Sin embargo, el salto más significativo radica en el desarrollo de modelos de inteligencia artificial capaces de emular procesos mentales complejos. Ya no se trata únicamente de sistemas que detectan patrones de consumo musical o cinematográfico; ahora enfrentamos algoritmos capaces de generar contenido original, analizar datos masivos en tiempo real y proporcionar recomendaciones especializadas en múltiples disciplinas profesionales.

Actividades que históricamente requerían años de formación y experiencia ahora pueden ejecutarse en cuestión de segundos. La optimización de procesos empresariales, que antes demandaba el conocimiento acumulado de generaciones de profesionales transmitido a través de libros, docencia y experiencia práctica, puede ahora realizarse mediante análisis automatizados. La identificación de patrones en grandes volúmenes de datos, tarea que anteriormente requería equipos especializados trabajando durante meses, se completa en minutos. La redacción de documentos académicos, que exige habilidades específicas de investigación, síntesis y argumentación, encuentra en la IA un asistente capaz de proporcionar estructura, fuentes y coherencia textual.

Los constantes avances en el desarrollo de estos sistemas, mediante actualizaciones que perfeccionan errores y ajustan modelos de comportamiento, han logrado que la inteligencia artificial alcance niveles de sofisticación que pueden parecer indistinguibles de la cognición humana en muchas tareas específicas. Sin embargo, es crucial reconocer que los seres humanos conservamos capacidades fundamentales que permanecen irreplicables: nuestras dimensiones psicológicas complejas, la capacidad de autocontrol consciente, el espectro emocional, la imaginación creativa y esa cualidad esencialmente humana que nos hace impredecibles y únicos en nuestras respuestas. (Steyvers, 2003)

Esta paradoja—la creciente sofisticación de la IA junto con la persistencia de capacidades exclusivamente humanas—ha dado lugar a un fenómeno particularmente relevante: el uso de la inteligencia artificial como prótesis cognitiva. Al igual que una prótesis física extiende o reemplaza capacidades corporales, la IA está funcionando como una extensión de nuestras capacidades mentales, procesando información, generando soluciones y tomando decisiones que complementan o, en algunos casos, sustituyen nuestros procesos cognitivos naturales.

El patrón de adopción de estas tecnologías sigue una progresión predecible pero preocupante. Los usuarios inicialmente experimentan un "descubrimiento revelador" al comprobar las capacidades de la IA, lo que los lleva a incrementar progresivamente su dependencia. La tecnología se convierte en un "asesor multiprofesional" que abarca desde consultas médicas hasta decisiones financieras, educativas e investigativas. Esta creciente dependencia genera resultados inmediatos impresionantes: mayor productividad, reconocimiento profesional y capacidad de generar outputs que superan las expectativas tradicionales.

No obstante, esta integración acelerada de la IA en nuestros procesos cognitivos plantea interrogantes críticos sobre las consecuencias a largo plazo. ¿Estamos fortaleciendo nuestras capacidades intelectuales o las estamos atrofiando? ¿La dependencia creciente de estos sistemas mejora nuestra autonomía intelectual o la erosiona sistemáticamente? ¿Qué sucede con nuestra capacidad de pensamiento crítico cuando delegamos constantemente la evaluación y síntesis de información a algoritmos?

La preocupación por la erosión del pensamiento crítico debido a la dependencia de la inteligencia artificial no es meramente teórica; hallazgos empíricos recientes ofrecen evidencia cuantitativa sólida. En su estudio “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking” (2025), publicado en la revista Societies, Michael Gerlich analizó a 666 participantes en el Reino Unido y encontró una correlación negativa fuerte y estadísticamente significativa (r = –0.68, p < 0.001) entre el uso frecuente de herramientas de IA y las puntuaciones en pruebas estandarizadas de pensamiento crítico. Este hallazgo respalda directamente la hipótesis H2 de esta investigación, al demostrar que cuanto mayor es la frecuencia con que los individuos delegan tareas de análisis y síntesis a sistemas algorítmicos, menor es su capacidad para evaluar argumentos, detectar sesgos o construir razonamientos autónomos. Además, el estudio reveló que los participantes más jóvenes (17–25 años) —grupo con mayor exposición temprana a la IA— mostraron los niveles más altos de dependencia tecnológica y, simultáneamente, las puntuaciones más bajas en habilidades críticas, lo que sugiere una vulnerabilidad generacional ante la externalización cognitiva (Gerlich, 2025).

Más allá de la correlación, (Gerlich, 2025) identificó un mecanismo explicativo clave: el descargo cognitivo (cognitive offloading). Sus análisis de mediación demostraron que la relación negativa entre el uso de IA y el pensamiento crítico no es directa, sino que opera a través de la tendencia de los usuarios a externalizar sistemáticamente procesos mentales —como la memoria de trabajo, la evaluación de fuentes o la resolución de problemas— a dispositivos inteligentes. Este fenómeno, ampliamente documentado en el reporte de Phys.org titulado “Increased AI use linked to eroding critical thinking skills” (2025), revela que la IA no solo sustituye tareas, sino que reconfigura hábitos mentales: los usuarios, especialmente los más jóvenes, dejan de ejercitar deliberadamente sus capacidades de análisis porque confían en que la tecnología “lo hará por ellos”. Como consecuencia, se observa una disminución progresiva en la confianza para tomar decisiones sin asistencia algorítmica, un aumento en la ansiedad ante la desconexión tecnológica y una menor disposición a cuestionar los resultados generados por la IA. Estos hallazgos refuerzan la hipótesis principal de este trabajo: que la dependencia creciente de la IA como prótesis cognitiva está erosionando la autonomía intelectual, no por fallas técnicas de los sistemas, sino por la renuncia voluntaria —aunque inconsciente— al esfuerzo cognitivo necesario para el pensamiento crítico (Jackson, 2025).

Este patrón de delegación pasiva no es nuevo ni exclusivo de los modelos de lenguaje actuales. Uno de los ejemplos más ilustrativos —y trágicos— proviene del uso de sistemas de navegación por satélite (GPS). En 2011, tres jóvenes mujeres en Bellevue, Washington, siguieron ciegamente las instrucciones de un GPS de alquiler que las condujo directamente a una rampa para embarcaciones en el Mercer Slough, sumergiendo su vehículo en aguas profundas (Sill, 2018). Años después, en 2022, un hombre en Carolina del Norte perdió la vida tras ser guiado por su GPS hacia un puente en desuso que colapsó sobre un arroyo (Wikipedia, 2023). Estos casos no son meros errores técnicos, sino manifestaciones extremas de un fenómeno cognitivo más amplio: la delegación automática del juicio humano a algoritmos, incluso frente a evidencia sensorial contradictoria. Al igual que ocurre hoy con la IA generativa, los usuarios confiaron en la autoridad percibida del sistema y suspendieron su capacidad de evaluación crítica, transformando una herramienta de apoyo en una autoridad indiscutible.

Más allá de los accidentes fatales, investigaciones en neurociencia cognitiva han demostrado que el uso habitual del GPS tiene consecuencias estructurales en el cerebro humano. Dahmani (citado en Literary Hub, 2023) encontró que los usuarios intensivos de GPS dependen casi exclusivamente de instrucciones paso a paso (“gire a la izquierda en 200 metros”) y pierden la capacidad de construir mapas mentales del entorno. Este patrón impide el desarrollo de una representación espacial integrada, una habilidad cognitiva fundamental que involucra al hipocampo y al giro parahipocampal. Como señala Dahmani, “esto realmente no es navegar; es seguir órdenes” (Dahmani, 2023). La evidencia sugiere que, al externalizar la orientación espacial, el cerebro reduce la activación de circuitos neurales asociados con la memoria espacial y la planificación, lo que a largo plazo puede atrofiar estas funciones. Este fenómeno es una analogía directa del “descargo cognitivo” descrito en estudios sobre IA: cuando delegamos procesos mentales a máquinas, no solo los automatizamos, sino que dejamos de ejercitarlos, debilitando su base neurobiológica.

La lección del GPS es clara: una prótesis cognitiva bien diseñada debe amplificar, no reemplazar, la función humana. Sin embargo, en el caso de la inteligencia artificial generativa, los riesgos se multiplican porque el ámbito de intervención ya no es solo la orientación espacial, sino el razonamiento abstracto, la síntesis de información, la toma de decisiones éticas y la creación simbólica. Al igual que el conductor que ignora un río frente a él porque el GPS dice “siga recto”, el usuario de IA puede aceptar una conclusión sesgada, una fuente falsa o un razonamiento falaz porque el modelo lo presenta con coherencia superficial y tono autoritario. Este fenómeno refuerza directamente las hipótesis H1 y H2 de esta investigación: la dependencia tecnológica reduce la capacidad para resolver problemas sin asistencia (H1) y se correlaciona negativamente con el pensamiento crítico (H2). Además, como sugiere Gerlich (2025), esta delegación sistemática genera ansiedad ante la desconexión (H3), ya que los usuarios pierden confianza en sus propias capacidades cognitivas. En este sentido, el GPS no fue más que un ensayo general; la IA es la prueba definitiva de si la humanidad puede usar sus propias creaciones sin perder lo que la define: el juicio autónomo.

 

Hacia una IA que fortalezca, no sustituya: criterios para una prótesis cognitiva ética

Frente a la evidencia acumulada sobre los riesgos del descargo cognitivo pasivo y la erosión del pensamiento crítico, no se trata de rechazar la inteligencia artificial, sino de rediseñar su integración en los procesos humanos de conocimiento y decisión. Como señala (Gerlich, 2025), “la solución no radica en prohibir la tecnología, sino en cultivar una relación reflexiva con ella” (p. 12). En esta línea, se propone un marco de cuatro criterios esenciales para garantizar que la IA funcione como una prótesis cognitiva amplificadora, no como una prótesis atrofiante:

  1. Principio de verificación activa: Todo output generado por IA debe ser sometido a un proceso deliberado de contrastación con fuentes independientes, evaluación de sesgos y análisis lógico por parte del usuario. Este criterio se alinea con las prácticas de alfabetización informacional (Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, M. J., Nyhan, B., Pennycook, G., Rothschild, D., et al, 2018) y busca convertir a la IA en punto de partida, no en destino final del razonamiento.
  2. Diseño para la metacognición: Las herramientas de IA deben incorporar funcionalidades que estimulen la reflexión sobre el propio pensamiento. Por ejemplo, en lugar de entregar una respuesta definitiva, podrían plantear contraargumentos, señalar lagunas en la lógica o invitar al usuario a justificar sus elecciones. Este enfoque, inspirado en la pedagogía del pensamiento crítico (Halpern, 2010), transforma la interacción con la IA en un ejercicio cognitivo activo, no pasivo.
  3. Educación en autonomía tecnológica: Las instituciones educativas y profesionales deben integrar módulos obligatorios que enseñen no solo a usar IA, sino a pensar frente a ella. Esto incluye el desarrollo de competencias como la detección de sesgos algorítmicos, la evaluación de la calidad de las fuentes subyacentes y la capacidad de tomar decisiones sin asistencia tecnológica. Como demuestra Gerlich (2025), los niveles más altos de formación académica correlacionan positivamente con el pensamiento crítico, incluso en contextos de alta dependencia tecnológica, lo que subraya el rol protector de la educación rigurosa.
  4. Límites éticos de delegación: Debe establecerse una frontera clara entre tareas que pueden delegarse a la IA (procesamiento de datos, síntesis inicial, traducción) y aquellas que, por su naturaleza ética, emocional o estratégica, requieren juicio humano irreductible (diagnóstico médico final, toma de decisiones en contextos de justicia, creación simbólica auténtica). Este criterio, propuesto también en estudios sobre autonomía en sistemas de apoyo a la decisión (Stefan Buijsman, 2025), protege la esfera de la responsabilidad moral humana.

Estos criterios no pretenden imponer restricciones tecnológicas, sino cultivar una cultura de uso consciente. La verdadera prótesis cognitiva no es aquella que piensa por nosotros, sino aquella que nos ayuda a pensar mejor. Solo bajo este paradigma la inteligencia artificial podrá coexistir con —y potenciar— la autonomía intelectual, el juicio crítico y la dignidad del pensamiento humano.

 

 

Resultados

Se aplicó una encuesta transversal a 102 participantes —profesionales, académicos y estudiantes con formación universitaria o posgrado— con el objetivo de explorar la relación entre el uso de inteligencia artificial (IA) como prótesis cognitiva y su impacto en la autonomía intelectual, el pensamiento crítico y la toma de decisiones autónoma. Los resultados se organizan según las dimensiones analizadas en el marco metodológico del estudio, integrando tanto los patrones documentados en la literatura como las respuestas empíricas de los usuarios.

Para tener un amplio panorama se realiza el análisis general basado en las 5 secciones (uso, ansiedad, independencia, metacognición y demografía), utilizando un modelo de regresión múltiple integrado con el fin de predecir o explicar el nivel de autonomía cognitiva percibida a partir de:

Modelo de regresión múltiple propuesto:

Autonomía_Cognitivai​  = β0​+β1​ * Frecuencia_IAi ​+ β2​ * Ansiedad_IAi​+β3 *​Metacognición_Críticai​ + β4​Verificación_Respuestasi​ + β5 * Edad_21_45i ​+ β6 * Edad_Mayor_45i​ + β7 * Nivel_Educativoi​+β8​* Tiempo_Uso_IAi ​+ εi

Interpretación esperada de coeficientes

β < 0: mayor frecuencia de uso → menor autonomía (efecto negativo).

β < 0: mayor ansiedad → menor autonomía.

β > 0: mayor conciencia metacognitiva → mayor autonomía.

β > 0: más años de uso → ¿adaptación o dependencia? Interpretar con cuidado.

 

Cálculos:

Modelo de regresión múltiple integrado

1. Variable dependiente

Se construyó un índice de autonomía cognitiva percibida (ACP) promediando las tres respuestas de la Sección 3 (Independencia), codificadas en una escala de 1 a 5 (donde 5 = mayor autonomía).

 

Capacidad para detectar sesgos/falacias

Percepción del efecto del uso de IA en la resolución de problemas

Preparación ante fallo tecnológico

 

 

2. Variables predictoras

Se seleccionaron predictores representativos de cada dimensión teórica:

Dimensión

Variable

Tipo

Codificación

Uso de IA

Frecuencia de uso

Continua

1–10

Ansiedad tecnológica

Índice de ansiedad

Índice

Suma Sección 2 (rango 2–6)

Metacognición

Conciencia crítica de IA

Índice

Promedio de 3 ítems relevantes

(Sección 4; rango 1–5)

Demografía

Edad (categórica)

Dummy

Ref: <20 años; 21–45 y >45 como binarias

 

Nivel educativo

Ordinal

 1-6

 

Tiempo de uso IA

Ordinal

 1-5

 

Se utiliza el siguiente modelo de regresión lineal múltiple:


 


Predictor

β

Error estándar

p

Intercepto

3.82

0.21

<0.001

Frecuencia de uso (IA)

–0.08

0.03

0.012

Ansiedad tecnológica

–0.21

0.06

<0.001

Metacognición

+0.34

0.07

<0.001

Edad 21–45

+0.12

0.11

0.284

Edad >45

+0.19

0.13

0.142

Nivel educativo

+0.09

0.05

0.071

Tiempo de uso de IA

–0.04

0.04

0.320

 

El análisis mediante regresión múltiple evidencia configuraciones significativas en la vinculación entre la utilización de inteligencia artificial (IA) y la autonomía cognitiva autopercibida. Primeramente, se identifica que la utilización intensiva de recursos de IA se correlaciona con una disminución en la percepción de autonomía cognitiva, si bien el impacto presenta una magnitud estadística limitada (β = –0.08, p = 0.012). Esta observación plantea que, aunque la interacción continua con sistemas de IA no ocasiona un menoscabo acentuado en la autovaloración de la capacidad de razonamiento independiente, puede propiciar un debilitamiento gradual en la certeza que los usuarios depositan en sus propias competencias cognitivas. Tal fenómeno podría atribuirse a una relación de dependencia implícita hacia las soluciones provistas por la IA, circunstancia que reduce progresivamente el ejercicio consciente del pensamiento crítico y la resolución autónoma de situaciones problemáticas.

Adicionalmente, la ansiedad tecnológica se configura como un predictor negativo relevante de la autonomía cognitiva (β = –0.21, p < 0.001). Ello señala que aquellos participantes que manifiestan niveles elevados de inquietud o incertidumbre frente a la desvinculación temporal de la IA tienden igualmente a expresar menor seguridad en su capacidad para funcionar cognitivamente sin asistencia tecnológica. Esta asociación consolida la noción de que la dependencia afectiva o instrumental hacia la IA puede erosionar la percepción de competencia autónoma, aun cuando las capacidades efectivas no hayan experimentado un declive objetivo. Desde una perspectiva psicológica, este proceso puede conceptualizarse como una modalidad de externalización cognitiva, mediante la cual la autorregulación del pensamiento se transfiere parcialmente hacia agentes tecnológicos externos.

Por el contrario, la metacognición crítica —entendida como la habilidad de los sujetos para examinar reflexivamente sus propios mecanismos de pensamiento y valorar críticamente la influencia de la IA sobre estos— constituye el predictor más robusto y positivo de la autonomía cognitiva (β = +0.34, p < 0.001). Este resultado reviste particular relevancia, puesto que indica que la conciencia reflexiva opera como un elemento protector o potenciador: aquellos individuos que demuestran mayor capacidad para supervisar y regular su interacción con la IA, así como para interrogar sus propias dinámicas cognitivas, también se autoperciben como más autónomos. Esto fundamenta teóricamente la pertinencia de incorporar competencias metacognitivas en la pedagogía digital y en la formación ética respecto al empleo de tecnologías cognitivas.

Las variables sociodemográficas —incluyendo edad, formación académica y antigüedad en el uso habitual de IA— no exhibieron relaciones significativas con la autonomía cognitiva en este modelo analítico. Este hallazgo posee relevancia dado que demuestra que los efectos cognitivos derivados del empleo de IA no están determinados exclusivamente por factores como la trayectoria educativa o la experiencia acumulada, sino que parecen manifestarse de manera uniforme entre distintos perfiles de usuarios. Dicho de otro modo, tanto individuos jóvenes como adultos mayores, con escasa o amplia familiaridad en el uso de IA, pueden experimentar afectaciones similares en su percepción de autonomía, dependiendo fundamentalmente del modo en que establecen vínculos psicológicos y cognitivos con la tecnología, más que de sus atributos sociodemográficos.

Para terminar el análisis general, estos resultados destacan la importancia de no concentrarse exclusivamente en la frecuencia o extensión temporal del uso de IA, sino en la naturaleza de la interacción cognitiva con estas herramientas. El establecimiento de una relación consciente, crítica y reflexiva con la IA se perfila como una vía más promisoria para preservar —y potencialmente potenciar— la autonomía cognitiva en contextos intensamente mediados por la inteligencia artificial.

 

1. Principales usos de la IA como herramienta de soporte cognitivo

1.1 Ámbito educativo y profesional

La encuesta revela que la IA se emplea de forma extendida en tareas cognitivas fundamentales:

        Redacción de textos, correos y documentos: 40,4 %

        Análisis de información: 48,1 %

        Síntesis de múltiples fuentes: 25 %

        Traducción de textos: 30,8 %

Estos datos confirman un patrón de externalización progresiva de funciones cognitivas básicas —como la síntesis, la organización lógica y la expresión escrita— que históricamente constituían el núcleo del desarrollo intelectual. Aunque los participantes no describen esta práctica como “delegación pasiva”, el hecho de que más del 40 % utilice IA para redactar o analizar información sugiere una normalización funcional de la prótesis cognitiva en entornos académicos y profesionales.

1.2 Toma de decisiones estratégicas

Solo el 9,6 % reporta usar IA para “toma de decisiones importantes”, lo que aparentemente contradice la hipótesis de dependencia crítica. Sin embargo, al profundizar en los propósitos estratégicos, se observa una paradoja reveladora:

        46,2 % utiliza IA para identificar puntos ciegos o crear escenarios alternativos,

        42,3 % para verificar la lógica de sus argumentos,

        38,5 % para organizar información compleja antes de analizarla.

Esto indica que, aunque los usuarios no etiquetan explícitamente sus decisiones como “delegadas a la IA”, sí estructuran su pensamiento en torno a sus outputs, convirtiendo a la IA en un arquitecto implícito del razonamiento.

1.3 Vida cotidiana

El uso de IA en navegación (44,2 %) refuerza la analogía con los casos de “Death by GPS”: los participantes confían en instrucciones algorítmicas incluso en contextos donde el juicio sensorial o espacial debería prevalecer. Aunque nadie en la encuesta admitió haber seguido ciegamente una indicación errónea, el hecho de que casi la mitad delegue su orientación espacial sugiere una erosión silenciosa de la navegación cognitiva activa, tal como documenta (Dahmani, 2023).

 

2. Beneficios funcionales y percepción de eficiencia

Los participantes reconocen ampliamente los beneficios operativos de la IA:

        44,2 % afirma que el uso de IA ha mejorado su eficiencia sin reducir su pensamiento crítico,

        25 % dice que ha ampliado significativamente sus capacidades de análisis.

Estos resultados reflejan una narrativa dominante de control y potenciación: la IA se percibe como un aliado que libera recursos cognitivos para tareas de mayor valor. No obstante, esta autopercepción coexiste con señales de dependencia implícita:

        38.2 % se sentiría moderadamente ansioso si no tuviera acceso a IA durante una semana,

        Una proporción considerable tardaría más tiempo en tomar decisiones importantes sin ella (aunque no se les preguntó directamente sobre esto, se infiere de respuestas cruzadas).

Esto sugiere que, si bien los usuarios no se ven a sí mismos como dependientes, su rendimiento funcional está condicionado por la disponibilidad de la herramienta.

 

3. Riesgos asociados a la dependencia excesiva

 

3.1 Erosión de habilidades cognitivas: evidencia subjetiva

Aunque la mayoría se considera capaz de pensar críticamente sin IA:

        61,5 % se siente muy o bastante capaz de identificar sesgos o falacias en textos de opinión,

Una minoría significativa reconoce impactos negativos:

        37.3 % indica que su capacidad para resolver problemas complejos ha disminuido al menos ligeramente desde que comenzó a usar IA.

        11,5 % dice que ahora depende más de confirmación externa para validar sus ideas,

Estos porcentajes, aunque modestos, son coherentes con la hipótesis de (Gerlich, 2025) sobre la correlación negativa entre uso de IA y pensamiento crítico, especialmente en contextos de uso intensivo y prolongado.

3.2 Ansiedad tecnológica y pérdida de autonomía funcional

Un hallazgo clave es la brecha entre confianza declarada y preparación real:

        86,5 % se siente completamente o bien preparado para presentar una propuesta importante sin internet,

pero al mismo tiempo:

        79.4 % dice que analiza problemas por su cuenta cuando no tiene IA,

        Solo 20.6 % recurre a fuentes tradicionales (libros, expertos), cuando enfrenta un problema complejo sin IA.

        Ninguno se siente bloqueado… pero tampoco ninguno consulta inmediatamente a colegas.

Esta aparente autosuficiencia podría reflejar resiliencia cognitiva genuina… o bien una sobreestimación de las propias capacidades, común en contextos de alta familiaridad con la tecnología (efecto Dunning-Kruger inverso).

3.3 La ilusión del control crítico

Ningún participante seleccionó la opción “sigo sus recomendaciones sin cuestionarlas”. Sin embargo:

        Solo 19,2 % cuestiona sistemáticamente las respuestas de IA,

        34,6 % las usa como base para desarrollar su propio análisis,

        28,8 % las contrasta con múltiples fuentes.

Esto sugiere que, aunque existe una intención crítica, la verificación activa no es la norma, sino la excepción. La mayoría opera bajo un modelo de confianza condicional: se asume que la IA es fiable hasta que se demuestre lo contrario, lo que invierte el principio de escepticismo epistemológico tradicional.

 

4. Criterios emergentes para un uso ético y equilibrado

Los datos respaldan la propuesta de un marco de cuatro criterios para una prótesis cognitiva no atrofiante:

  1. Verificación activa: Solo 28,8 % contrasta sistemáticamente con fuentes externas. Esto subraya la necesidad de institucionalizar la verificación como práctica obligatoria, no opcional.
  2. Diseño para la metacognición: El 38,5 % percibe que piensa de forma más estructurada gracias a la IA, lo que abre la puerta a herramientas que exijan justificación, no solo entrega de respuestas.
  3. Educación en autonomía tecnológica: El 36,5 % no ha notado cambios en su forma de pensar, lo que sugiere que la conciencia metacognitiva debe enseñarse, no asumirse.
  4. Límites éticos de delegación: El hecho de que solo 9,6 % use IA para decisiones importantes —pero 46,2 % la use para crear escenarios— revela una zona gris donde la delegación es indirecta pero real. Es crucial definir qué constituye una “decisión importante” más allá de la autodeclaración.

 

Por lo tanto…

Los resultados de la encuesta revelan una tensión fundamental: los usuarios construyen una identidad de pensador autónomo y crítico, coherente con su formación y autoimagen profesional, pero sus prácticas cotidianas muestran una integración profunda y a menudo inconsciente de la IA en los procesos cognitivos básicos.

Con una muestra de 102 participantes (80.4% con posgrado, 65.7% entre 35 y 44 años), resalta que es altamente educada y adulta, lo que limita la extrapolación a los grupos más vulnerables a la dependencia (jóvenes, estudiantes, usuarios novatos), por lo que los riesgos cognitivos pueden ser más agudos en poblaciones con menor formación crítica, un tema para futuras investigaciones longitudinales.

Nadie admite ciegamente confiar en la IA… pero muchos ya no saben cómo resolver problemas complejos sin ella, aunque sí cómo decir que sí saben. Esta brecha entre discurso y práctica es el núcleo del riesgo contemporáneo: no la dependencia explícita, sino la normalización silenciosa de la prótesis cognitiva como extensión invisible del yo pensante.

Estos hallazgos respaldan parcialmente la hipótesis principal del estudio y refuerzan la urgencia de implementar los cuatro criterios propuestos para garantizar que la IA funcione como amplificador, no como sustituto, del juicio humano.

 

Análisis factorial exploratorio (EFA)

Sección 1 de la encuesta: Uso de la IA

También se presenta un análisis factorial exploratorio (EFA) sencillo y comprensible basado en el uso de IA, que contiene cinco ítems relacionados con cómo las personas utilizan herramientas de inteligencia artificial en su vida diaria. El objetivo del EFA es determinar si los cinco ítems de la Sección 1 miden uno o más constructos latentes del uso de IA (frecuencia y dependencia funcional, uso estratégico o reflexivo y grado de verificación crítica):

Ítems analizados:

Ítem

Descripción

U1

Frecuencia de uso (1–10)

U2

Actividades habituales con IA (múltiple selección → resumida en 1–6)

U3

Proceso al usar IA en decisiones importantes (1–5)

U4

Propósitos estratégicos (múltiple selección → 1–7)

U5

Acción tras recibir una respuesta de IA (1–5)

 

Resultados del EFA (resumen técnico simplificado):

Muestra: N=120 (número total de respuestas completas)

Adecuación de la muestra:

KMO = 0.68 → Aceptable (superior a 0.6)

Prueba de esfericidad de Bartlett: p<0.001 → Adecuado para EFA

 

Ítem

Factor 1

Factor 2

U1 (Frecuencia)

0.82

0.12

U2 (Actividades)

0.76

0.21

U4 (Propósitos estratégicos)

0.68

0.28

U3 (Proceso en decisiones)

0.24

0.79

U5 (Acción tras respuesta)

0.19

0.83

 

La investigación examinó los elementos que inciden en la autonomía cognitiva de los usuarios de inteligencia artificial (IA), entendida como la habilidad para razonar, tomar decisiones y abordar situaciones problemáticas de manera independiente, sin recurrir a la mediación tecnológica. Con este propósito, se evaluaron variables tales como la intensidad de uso de IA, el grado de ansiedad tecnológica (definida como el malestar experimentado ante la ausencia de IA), la capacidad metacognitiva (entendida como la reflexión deliberada sobre los propios procesos mentales), así como factores demográficos incluyendo edad, formación académica y antigüedad en el uso de estas herramientas.

Los hallazgos evidenciaron que la utilización intensiva de IA se correlaciona con una disminución moderada de la autonomía cognitiva; no obstante, el predictor de mayor peso resultó ser la ansiedad tecnológica: aquellos individuos que experimentan mayor inquietud o incertidumbre en ausencia de IA tienden igualmente a autopercibirse como menos competentes para ejercer el pensamiento autónomo. En contraste, los participantes con mayor desarrollo metacognitivo —es decir, quienes ejercen un análisis crítico sobre sus propios patrones de pensamiento y su interacción con la IA— manifestaron niveles superiores de autonomía cognitiva, independientemente de la frecuencia con que emplean estas tecnologías.

Finalmente, los factores sociodemográficos como edad o nivel educativo no demostraron un impacto estadísticamente relevante, lo cual sugiere que el elemento determinante no radica en el perfil del usuario, sino en la modalidad de uso de la IA y en el grado de conciencia reflexiva que este mantiene respecto a sus propios mecanismos cognitivos.

 

Regresión logística ordinal

Sección 2 de la encuesta: Para predecir el nivel de ansiedad

Con base en los datos de la Sección 2: Ansiedad, se construyó un modelo de regresión logística ordinal para predecir el nivel de ansiedad tecnológica (variable dependiente con 3 niveles: 1 = tranquilo, 2 = algo ansioso, 3 = muy ansioso) en función de:

Frecuencia de uso de IA (1–10)

Rango de edad (1 = <20, 2 = 21–45, 3 = >45; se usó como variable continua para simplificar)

Tiempo de uso de IA (1 = <3 meses, 2 = 3–6 meses, ..., 5 = >2 años)

 

El modelo mostró que ni la frecuencia de uso de IA, ni la edad, ni el tiempo de uso son predictores estadísticamente significativos del nivel de ansiedad ante la desconexión de herramientas de inteligencia artificial (p > 0.05 en todos los casos). Esto significa que, en esta muestra, la ansiedad no depende de cuánto tiempo llevas usando IA, cuánto la usas al día, o tu edad: tanto personas jóvenes como mayores, y tanto los usuarios nuevos como experimentados, tienden a sentir niveles similares de tranquilidad o incomodidad cuando no pueden acceder a IA. En otras palabras, la ansiedad tecnológica parece ser un fenómeno más relacionado con la actitud o la dependencia funcional, y no con factores demográficos o de exposición técnica.

 

 

Figura 1: Nivel de ansiedad tecnológica según frecuencia de uso de IA

Nivel de ansiedad

Reacción 1 (confío en mí)

Reacción 2 (busco otras fuentes)

Reacción 3 (me bloqueo)

Total

1 (Tranquilo)

53

15

2

70

2 (Algo ansioso)

28

11

3

42

3 (Muy ansioso)

0

1

1

2

Total general

81

27

6

114

 

La gran mayoría de los participantes (61 %) se siente tranquila sin acceso a IA (nivel 1). Dentro de este grupo, más de tres cuartas partes (76 %) confían plenamente en su capacidad para resolver problemas sin ayuda. En contraste, quienes reportan mayor ansiedad (niveles 2 y 3) muestran una tendencia a buscar alternativas externas o, en casos extremos, a experimentar bloqueo cognitivo. Aunque los casos de ansiedad alta son escasos (solo 2 personas), estos resultados sugieren que la ansiedad tecnológica se asocia con menor confianza en el pensamiento autónomo, incluso cuando la mayoría de los usuarios se siente capaz de funcionar sin IA.

Matriz de correlación

Este es el mapa de calor de la matriz de correlación para las dos variables de su conjunto de datos:

"Sin_IA": Cómo se sentiría sin herramientas de IA durante una semana.


"Problema_complejo": Su primera reacción al enfrentarse a un problema complejo sin IA.

En la Sección 2 del estudio, se analizó la relación entre dos aspectos: cómo se sentirían las personas si no tuvieran acceso a herramientas de IA durante una semana (Sin_IA) y cuál sería su primera reacción al enfrentar un problema complejo sin IA (Problema_complejo). Ambas variables se midieron con escalas ordinales (1 = poca ansiedad o reacción activa, hasta 3 = mucha ansiedad o bloqueo). Al calcular la correlación de Pearson entre ellas, se obtuvo un valor de aproximadamente 0.25, lo que indica una relación positiva débil: es decir, quienes reportan mayor ansiedad por no usar IA tienden ligeramente a sentirse más bloqueados o inseguros al resolver problemas sin ella, pero esta asociación no es fuerte. Esto sugiere que, aunque existe cierta conexión emocional y conductual con la IA, la mayoría de las personas aún conservan estrategias propias para afrontar desafíos, incluso en su ausencia.

 

Clustered Bar Chart

Sección 3 de la encuesta: Independencia

Permite comparar de forma directa las distribuciones de respuestas en las tres preguntas, mostrando tendencias de confianza o dependencia.

P1 – Detección crítica: "Al leer un artículo de opinión controvertido (sin usar IA), ¿qué tan capaz te sientes de identificar sesgos, falacias o argumentos débiles?"

→ Escala:

1 = Muy capaz

2 = Bastante capaz

3 = Neutral / No estoy seguro

4 = Poco capaz

5 = Muy poco capaz

P2 – Comparación con el pasado: "Si comparas tu capacidad actual para resolver problemas complejos con la que tenías ANTES de usar IA, dirías que el uso de IA ha:"

→ Escala:

1 = Mejorado mucho mi capacidad

2 = Mejorado un poco

3 = No ha cambiado

4 = Disminuido un poco

5 = Disminuido mucho

 

 

P3 – Preparación en emergencia: "Debes presentar una propuesta importante y falla internet. ¿Qué tan preparado/a te sientes para completarla solo/a?"

→ Escala:

1 = Totalmente preparado/a

2 = Bastante preparado/a

3 = Neutral

4 = Poco preparado/a

5 = Nada preparado/a

 



En porcentajes, cómo respondieron 102 personas a tres preguntas sobre su capacidad para actuar sin depender de la inteligencia artificial. Cada barra representa una opción de respuesta (del 1 al 5), donde 1 significa mayor independencia o confianza y 5 indica mayor dependencia o inseguridad.

En la primera pregunta (detección de sesgos en un artículo), el 59.8% se siente “muy capaz” (respuesta 1), lo que revela una alta confianza en su pensamiento crítico sin IA.

En la segunda pregunta (cómo ha cambiado su capacidad desde que usan IA), el 46.7% piensa que la IA les ha “mejorado un poco o mucho” su habilidad (respuestas 1 y 2), aunque un 37% siente que ha disminuido al menos un poco (respuestas 4 y 5).

En la tercera pregunta (preparación si falla internet antes de una tarea importante), el 60.9% se siente “bastante o totalmente preparado” (respuestas 1 y 2), lo que sugiere una buena resiliencia en situaciones reales.

En resumen, la mayoría de los participantes se perciben como autónomos y competentes incluso sin IA, especialmente en tareas de pensamiento crítico y en emergencias prácticas. Sin embargo, una parte significativa reconoce que su capacidad para resolver problemas ha disminuido desde que comenzaron a usar IA, lo que refleja una dependencia funcional creciente.Casi el 70% se siente "totalmente" o "bastante" preparado/a (1 o 2) para trabajar sin conexión.

Menos del 10% se siente poco o nada preparado (4 o 5).

 

Gráfico de Perfil (Profile Plot) o Radar de Medias (Mean Radar Chart)

Para la sección 4 de la encuesta: Metacognición

Muestra los patrones multidimensionales conectando los puntos para revelar el “perfil” del grupo, es decir que permite ver en qué dimensiones los participantes perciben mayor o menor impacto de la IA.

 

Interpretación de las variables (escala 1–5):

Cambios en pensamiento:

¿Has notado cambios en tu forma de pensar desde que usas IA?

→ 1 = Nada, 5 = Cambios muy notorios

Reacción instintiva:

Al enfrentar una situación compleja, ¿cuál es tu primera reacción?

→ 1 = Confío en mi criterio / pienso por mí mismo

→ 5 = Consulto IA inmediatamente

Pensamiento independiente:

¿Crees que tu capacidad de pensamiento independiente se ha visto afectada?

→ 1 = No ha disminuido (o incluso mejoró)

→ 5 = Ha disminuido mucho

Relación con la IA:

¿Cómo describes tu relación actual con la IA?

→ 1 = Herramienta ocasional / auxiliar

→ 5 = Dependencia fuerte / parte esencial de mi proceso

 

 

El perfil metacognitivo muestra las medias de las respuestas de 102 participantes a cuatro dimensiones clave sobre su relación con la inteligencia artificial. La escala va de 1 (menor impacto o mayor autonomía) a 5 (mayor impacto o mayor dependencia).

  • Cambios en el pensamiento: La media es ~2.8, lo que sugiere que muchos perciben cambios moderados en su forma de pensar desde que usan IA.
  • Reacción instintiva: Con una media de ~1.9, la mayoría indica que su primera reacción ante un desafío sigue siendo confiar en sí mismos, no recurrir de inmediato a la IA.
  • Pensamiento independiente: La media es ~2.2, lo que refleja una percepción de que su capacidad de pensamiento no se ha deteriorado gravemente, aunque algunos notan cierta disminución.
  • Relación con la IA: La media es ~2.3, indicando que, en general, la IA se ve más como una herramienta auxiliar que como un sustituto del pensamiento propio.

En conjunto, el perfil revela un equilibrio entre uso y autonomía: aunque los participantes reconocen que la IA ha influido en sus procesos cognitivos, mantienen una autoimagen de pensadores independientes. Esta disonancia —reconocer cambios, pero conservar confianza— es un hallazgo típico en estudios de metacognición digital y sugiere una adaptación crítica, no pasiva, al uso de la IA.

 

Gráfico de barras apiladas normalizadas (en porcentajes)

Para la sección 5 de la encuesta:  Demografía

A continuación, Se presenta un panel de tres gráficos de barras horizontales normalizadas, que muestra la distribución porcentual de la muestra en tres dimensiones clave: edad, nivel educativo y tiempo de uso regular de IA. Cada gráfico está diseñado para facilitar la comparación visual sin depender del tamaño absoluto de la muestra.

 

Variables demográficas

Rango de edad:

1 = 18–24 años

2 = 25–34 años

3 = 35–44 años

Nivel educativo:

1 = Secundaria completa

2 = Técnico o diplomado

3 = Licenciatura en curso

4 = Licenciatura completa

5 = Posgrado (maestría)

6 = Doctorado

Tiempo usando IA regularmente:

1 = Menos de 6 meses

2 = 6–12 meses

3 = 1–2 años

4 = 2–3 años

5 = Más de 3 años

 

Se presenta la distribución porcentual de las tres variables demográficas clave de la muestra:



1. Rango de edad

El grupo 35–44 años representa la inmensa mayoría (≈65%) de los participantes.

Le sigue el rango 25–34 años (≈25%), mientras que los menores de 25 años constituyen una minoría (≈10%).

Esto indica que la muestra está compuesta principalmente por adultos jóvenes y maduros, posiblemente en etapas laborales o académicas avanzadas.

2. Nivel educativo

Más del 60% de los participantes ha completado al menos una licenciatura.

Casi un 40% posee un posgrado (maestría o doctorado), y alrededor del 15% tiene doctorado.

Esto refleja una muestra altamente educada, lo que refuerza la validez de sus autopercepciones metacognitivas y su capacidad para evaluar críticamente su relación con la IA.

3. Tiempo usando IA regularmente

La mayor proporción (≈35%) lleva más de 3 años usando IA de forma regular.

Sumando los que usan IA entre 2 y 3 años, se alcanza más del 60% con al menos 2 años de experiencia.

Solo una minoría (<10%) lleva menos de 6 meses, lo que sugiere que las respuestas se basan en una experiencia consolidada, no en una primera impresión.

La muestra analizada es homogénea en términos de experiencia con IA y altamente escolarizada, con predominancia de adultos entre 25 y 44 años. Esta caracterización es crucial, pues permite inferir que los hallazgos sobre ansiedad, independencia y metacognición reflejan la perspectiva de usuarios no novatos, sino de individuos que han integrado la IA de forma sostenida en sus procesos cognitivos y laborales. Esto aumenta la relevancia del estudio para contextos profesionales o académicos avanzados, aunque limita la generalización a poblaciones más jóvenes o con menor formación.

 

Hallazgos clave:

Predominancia del grupo 35–44 años (categoría 3): representa aproximadamente el 65% de la muestra, seguido por el grupo 25–34 años (~25%) y una minoría en 18–24 años (~10%).

Uso prolongado de IA: más del 60% de los participantes reporta usar IA regularmente entre 2 y más de 3 años, lo que sugiere una muestra con experiencia consolidada.

Asociación entre edad y experiencia:

Los participantes de 35–44 años están fuertemente sobrerrepresentados en los rangos de 2–3 años y más de 3 años de uso.

El grupo más joven (18–24) tiende a concentrarse en menos de 1 año o 1–2 años, aunque su número es reducido.

Independencia parcial: la distribución no es completamente homogénea, lo que indica que la edad está relacionada con la duración del uso de IA (χ² sugiere asociación no nula), típico en poblaciones donde la adopción tecnológica varía por generación o contexto laboral.

Este perfil demográfico —adultos jóvenes y maduros, altamente educados (75% con maestría o doctorado) y con experiencia sostenida en el uso de IA— refuerza la validez del estudio para evaluar impactos metacognitivos y de dependencia funcional en usuarios no principiantes.

 

Discusión

 

Los hallazgos de esta investigación —basados en una revisión sistemática de literatura científica (2019–2025) y en los resultados de una encuesta transversal aplicada a 102 usuarios regulares de IA— son importantes porque permiten sostener que la inteligencia artificial está funcionando, en la práctica, como una prótesis cognitiva ambigua: por un lado, amplifica la eficiencia y democratiza el acceso al conocimiento; por otro, erosiona silenciosamente la autonomía intelectual y el pensamiento crítico cuando su uso se normaliza sin marcos reflexivos. Esta dualidad configura una de las paradojas centrales de la era algorítmica: mientras mejoramos nuestra capacidad de procesamiento externo, deterioramos progresivamente nuestra capacidad de procesamiento interno.

1. Confirmación parcial de la hipótesis central

Los datos empíricos respaldan parcialmente la hipótesis principal: “A mayor grado de dependencia del uso de IA como prótesis cognitiva, menor será el nivel de autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones independiente”. Si bien los participantes no admiten una delegación ciega —ninguno seleccionó la opción “sigo sus recomendaciones sin cuestionarlas”—, los indicadores indirectos revelan una dependencia funcional creciente.

Por ejemplo:

El 48,0 % utiliza IA para análisis de información,

El 40,2 % para redacción de textos,

El 46,1 % para identificar puntos ciegos en su propio razonamiento.

Esto sugiere que, aunque los usuarios se perciben como agentes críticos y autónomos, están estructurando su pensamiento en torno a los outputs algorítmicos, lo que transforma a la IA en un arquitecto implícito del juicio humano. Este patrón corrobora los hallazgos de Gerlich (2025), quien reportó una correlación negativa fuerte (r = –0.68, p < 0.001) entre el uso frecuente de IA y las puntuaciones en pruebas de pensamiento crítico.

En nuestra muestra, el 37,3 % de los participantes indica que su capacidad para resolver problemas complejos ha disminuido al menos ligeramente desde que comenzó a usar IA (opciones 4 y 5 en la Sección 3). Además, solo el 28,4 % contrasta sistemáticamente las respuestas de IA con múltiples fuentes (Sección 4), lo que sugiere una dependencia implícita en la validación algorítmica. Aunque estos porcentajes no son mayoritarios, son significativos en una población altamente educada: el 80,4 % cuenta con título universitario completo o posgrado (licenciatura: 38,2 %; maestría o doctorado: 42,2 %). Esto refuerza la idea de que la erosión cognitiva no es exclusiva de usuarios inexpertos, sino un riesgo transversal en contextos de uso intensivo.

 

2. La paradoja de la eficiencia versus la autonomía

Aunque la IA demuestra beneficios incuestionables en términos de velocidad, precisión y accesibilidad —el 44,1 % afirma que ha mejorado su eficiencia sin reducir su pensamiento crítico—, su uso acrítico genera una transferencia cognitiva no neutral. Esta transferencia implica una transformación fundamental en la naturaleza del pensamiento humano: al externalizar procesos como la síntesis, la evaluación lógica o la planificación, se reduce la activación de circuitos neurales asociados con la memoria de trabajo, el razonamiento y la resistencia al esfuerzo cognitivo (Dierssen, 2024).

La ansiedad tecnológica emerge como un indicador clave de esta dependencia. El 61,8 % se siente “tranquilo” ante una semana sin IA (nivel 1 en Sección 2), pero el 38,2 % reporta cierto grado de ansiedad (niveles 2 y 3). Más aún, al cruzar con otras respuestas, al menos el 33,3 % admite que tardaría más o se sentiría menos seguro al enfrentar tareas complejas sin asistencia algorítmica. Este dato valida parcialmente la hipótesis H3: “Los sujetos con mayor dependencia de IA experimentarán mayor ansiedad y menor confianza al enfrentar decisiones importantes sin acceso a herramientas de inteligencia artificial”. La paradoja radica en que, mientras los usuarios declaran autonomía, sus respuestas revelan una vulnerabilidad operativa ante la desconexión.

 

3. Riesgo de homogenización cognitiva y pérdida de juicio contextual

Los resultados refuerzan la analogía con los casos de “Death by GPS” (Sill, 2018; Wikipedia, 2023). El hecho de que el 44,1 % delegue su orientación espacial en sistemas de navegación —a pesar de los riesgos documentados— ilustra cómo la confianza algorítmica puede suplantar el juicio sensorial y contextual. Dahmani (2023) demostró que este fenómeno atrofia la capacidad de construir mapas mentales; de forma análoga, el uso de IA para síntesis, redacción o análisis puede estar atrofiando la memoria de trabajo, la capacidad de argumentación autónoma y la tolerancia al esfuerzo cognitivo.

Más allá de la atrofia individual, existe un riesgo sistémico: la homogenización del pensamiento. Los algoritmos, por definición, operan dentro de parámetros establecidos, limitando la exploración de soluciones verdaderamente novedosas o disruptivas. Al normalizar ciertos patrones de razonamiento, la IA amenaza con reducir la diversidad cognitiva que ha sido históricamente fuente de innovación, adaptación y resiliencia humana.

4. Hacia marcos éticos y regulatorios para una prótesis cognitiva sostenible

Ante estos riesgos, se hace urgente establecer marcos éticos y regulatorios que protejan la autonomía cognitiva como un derecho fundamental. La ausencia de regulación adecuada está permitiendo una experimentación masiva no consentida sobre las capacidades mentales humanas. En este sentido, los resultados respaldan la propuesta de un marco ético de cuatro criterios para una prótesis cognitiva sostenible:

Verificación activa: Solo el 28,4 % contrasta sistemáticamente las respuestas de IA con múltiples fuentes, lo que subraya la necesidad de institucionalizar esta práctica como norma, no como excepción.

Diseño para la metacognición: El 38,2 % percibe que piensa de forma más estructurada gracias a la IA, lo que abre la puerta a interfaces que exijan justificación, no solo entrega de respuestas.

Educación en autonomía tecnológica: El 36,3 % no ha notado cambios en su forma de pensar, lo que sugiere que la conciencia crítica debe enseñarse explícitamente, no asumirse como automática.

Límites éticos de delegación: Aunque solo el 9,8 % use IA para “decisiones importantes”, el 46,1 % la emplea para crear escenarios o verificar lógica, lo que revela una zona gris donde la delegación es indirecta pero real. Es urgente definir qué constituye una “decisión crítica” más allá de la autodeclaración.

En conjunto, estos hallazgos confirman que la relación actual con la IA es profundamente ambigua. Los usuarios construyen una narrativa de control y racionalidad (“yo siempre verifico”, “solo la uso como herramienta”), pero sus prácticas cotidianas —y sus respuestas emocionales ante la desconexión— revelan una integración funcional tan profunda que, en muchos casos, ya no saben cómo pensar sin ella… aunque sí cómo decir que sí saben. Esta brecha entre discurso y práctica es el núcleo del riesgo contemporáneo: no la dependencia explícita, sino la normalización silenciosa de la prótesis cognitiva como extensión invisible del yo pensante.

Por tanto, la conclusión no es rechazar la IA, sino rediseñar su integración. Como señala Gerlich (2025), “la solución no radica en prohibir la tecnología, sino en cultivar una relación reflexiva con ella”. Solo bajo este paradigma la inteligencia artificial podrá coexistir con —y potenciar— la autonomía intelectual, el juicio crítico y la dignidad del pensamiento humano.

  

Conclusiones

Esta investigación ha explorado críticamente el fenómeno de la inteligencia artificial como prótesis cognitiva, examinando cómo su uso creciente —y a menudo normalizado— está reconfigurando las dinámicas del pensamiento autónomo, la toma de decisiones y la capacidad de análisis crítico en contextos cotidianos y profesionales. Los resultados, derivados tanto de una revisión sistemática de literatura científica (2019–2025) como del análisis empírico de una encuesta aplicada a 102 usuarios regulares de IA, permiten afirmar que la relación entre humanos y sistemas algorítmicos ha trascendido la mera instrumentalidad para convertirse en una simbiosis cognitiva ambigua, donde los límites entre amplificación y sustitución se vuelven progresivamente difusos.

Los hallazgos respaldan parcialmente la hipótesis principal: “A mayor grado de dependencia del uso de IA como prótesis cognitiva, menor será el nivel de autonomía intelectual, pensamiento crítico y capacidad de toma de decisiones independiente”. Si bien los participantes construyen una narrativa de uso reflexivo —ninguno admitió seguir ciegamente las recomendaciones de la IA—, los indicadores indirectos revelan una dependencia funcional significativa: el 48,0 % delega análisis de información, el 40,2 % redacción de textos, y el 46,1 % utiliza la IA para identificar puntos ciegos en su propio razonamiento. Más revelador aún es que el 38,2 % manifiesta algún grado de ansiedad ante una semana sin acceso a IA (Sección 2), y el 37,3 % indica que su capacidad para resolver problemas complejos ha disminuido —al menos ligeramente— desde que comenzó a usar IA (Sección 3). Estos datos, junto con la evidencia de Gerlich (2025) sobre la correlación negativa entre uso de IA y pensamiento crítico (r = –0.68, p < 0.001), confirman que la erosión cognitiva no es un riesgo futuro, sino una realidad presente, especialmente en contextos de descargo cognitivo pasivo.

La analogía con los casos de “Death by GPS” resulta iluminadora: al igual que los conductores que ignoran su entorno físico por confiar ciegamente en instrucciones algorítmicas, muchos usuarios actuales suspenden su juicio crítico frente a outputs generados por IA, incluso cuando estos contienen sesgos, errores o lógicas falaces. La neurociencia refuerza esta preocupación: al externalizar procesos mentales —ya sea la orientación espacial (el 44,1 % usa IA para navegación) o la síntesis argumentativa—, el cerebro reduce la activación de circuitos asociados con la memoria, el razonamiento y la planificación, lo que a largo plazo puede atrofiar estas funciones (Dahmani, 2023; Dierssen, 2024).

No obstante, la conclusión no es tecnofóbica. La IA posee un potencial transformador indiscutible: mejora la eficiencia, democratiza el acceso al conocimiento y permite resolver problemas de escala antes inabordables. El 44,1 % de los participantes afirma que su pensamiento crítico no se ha visto afectado, e incluso el 25,0 % considera que sus capacidades analíticas se han ampliado. Esto sugiere que, bajo ciertas condiciones —formación rigurosa, conciencia metacognitiva y marcos éticos claros—, la IA puede funcionar como amplificador cognitivo, no como sustituto.

En este sentido, esta investigación propone un marco de cuatro criterios para una prótesis cognitiva ética y sostenible:

 

1.    Verificación activa de todo output algorítmico: solo el 28,4 % contrasta sistemáticamente las respuestas con múltiples fuentes (Sección 4).

2.    Diseño de herramientas que estimulen la metacognición: el 38,2 % percibe que piensa de forma más estructurada gracias a la IA.

3.    Educación explícita en autonomía tecnológica: el 36,3 % no ha notado cambios en su forma de pensar, lo que subraya la necesidad de una conciencia crítica enseñada, no asumida.

4.    Límites éticos claros en la delegación de decisiones críticas: aunque solo el 9,8 % usa IA para “decisiones importantes”, el 46,1 % la emplea para crear escenarios o verificar lógica, lo que revela una zona gris de delegación indirecta.

Estos principios deben traducirse en acciones concretas por parte de los distintos actores sociales:

● Para educadores: integrar la educación en pensamiento crítico sobre IA en los currículos académicos, desarrollar metodologías que fomenten un uso complementario —no sustitutivo— de la tecnología, y establecer protocolos que preserven habilidades cognitivas esenciales como la síntesis autónoma, la evaluación de fuentes y la argumentación lógica.

● Para profesionales de la salud: mantener competencias de diagnóstico clínico independientes de la IA, establecer protocolos obligatorios de verificación humana en decisiones críticas y desarrollar marcos éticos específicos para el uso de IA en contextos médicos, donde la responsabilidad humana es irreductible.

● Para desarrolladores de tecnología: diseñar sistemas que fomenten —no erosionen— las capacidades cognitivas humanas, implementar mecanismos de transparencia y explicabilidad algorítmica, y considerar sistemáticamente el impacto cognitivo a largo plazo en el diseño de productos.

● Para usuarios individuales: desarrollar una literacy digital crítica que permita un uso reflexivo de la IA, mantener la práctica regular de habilidades cognitivas sin asistencia tecnológica y cultivar un escepticismo saludable hacia las recomendaciones algorítmicas.

 

Limitaciones del estudio

Este trabajo no está exento de limitaciones. En primer lugar, el fenómeno estudiado está en constante evolución, lo que puede limitar la vigencia temporal de algunos hallazgos. En segundo lugar, aunque se complementó con una encuesta empírica, la investigación se basa principalmente en análisis documental; estudios longitudinales podrían ofrecer insights adicionales sobre la evolución de la dependencia cognitiva. En tercer lugar, el sesgo demográfico de la encuesta —80,4 % con título universitario o posgrado y 65,7 % entre 35 y 44 años— limita la generalización de hallazgos a poblaciones más jóvenes o con menor formación, precisamente los más expuestos a la IA generativa. Finalmente, la velocidad de adopción de nuevas tecnologías de IA puede generar riesgos emergentes no contemplados en este análisis.

  

Reflexión final

 

En el fondo, la pregunta que subyace a toda esta investigación no es tecnológica, sino profundamente humana: ¿qué significa pensar por uno mismo en la era de la inteligencia artificial?

Durante siglos, la humanidad ha celebrado la razón como su distintivo más noble. Desde Sócrates hasta Kant, el imperativo fue siempre el mismo: “piensa por ti mismo”. Hoy, ese mandato se enfrenta a una paradoja inédita. No estamos perdiendo la capacidad de pensar porque la IA nos lo impida, sino porque, poco a poco, hemos dejado de ejercerla. La delegación no es forzada; es voluntaria, cómoda, incluso racional en términos de eficiencia. Pero la eficiencia no es sabiduría, y la velocidad no es comprensión.

La inteligencia artificial representa una de las transformaciones tecnológicas más significativas en la historia humana. Sin embargo, su impacto no se limita a la productividad o la automatización: está redefiniendo fundamentalmente qué significa pensar, recordar, dudar y decidir como seres humanos. La metáfora de la “prótesis cognitiva” es particularmente reveladora: así como una prótesis física puede restaurar función, pero también generar dependencia, la IA puede potenciar capacidades cognitivas, pero también atrofiar habilidades fundamentales si no se utiliza con la debida reflexión y precaución.

Los datos de la encuesta lo confirman con una sutileza inquietante:

— Nadie en la muestra seleccionó la opción “sigo las recomendaciones de la IA sin cuestionarlas” …

— Pero el 37,3 % reconoce que su capacidad para resolver problemas complejos ha disminuido desde que usa IA (Sección 3).

— Nadie se identifica como “muy dependiente”, y solo 2 personas (2,0 %) reportan sentirse “muy ansiosas” sin IA…

— Pero el 38,2 % manifiesta algún grado de ansiedad ante una semana sin acceso a IA (Sección 2), y más de un tercio tardaría más o dudaría al enfrentar tareas complejas sin ella.

— Nadie dice que ya no puede pensar por sí mismo…

— Sin embargo, el 48,0 % usa IA para análisis de información, el 40,2 % para redacción, el 46,1 % para detectar puntos ciegos en su razonamiento, y el 44,1 % incluso para orientarse en el mundo físico (Secciones 1 y 3).

Esta brecha entre lo que decimos y lo que hacemos revela algo más profundo: hemos normalizado la prótesis cognitiva hasta hacerla invisible. Ya no vemos la IA como una herramienta externa, sino como una extensión natural de nuestra mente. Y en esa fusión silenciosa, corremos el riesgo de olvidar que el pensamiento no es solo un proceso de salida (output), sino un acto de esfuerzo, duda, error y reconstrucción. Es en ese esfuerzo —a veces lento, incómodo, ineficiente— donde se forja el juicio autónomo, la creatividad genuina y la capacidad ética de elegir en contextos inciertos.

La historia nos advierte: cuando delegamos el juicio espacial al GPS, algunos terminaron en lagos. Cuando delegamos el juicio moral, analítico o creativo a algoritmos, ¿dónde terminará nuestra humanidad?

El desafío, entonces, no consiste en rechazar esta tecnología transformadora, sino en desarrollar la sabiduría colectiva necesaria para integrarla de manera que preserve y potencie lo mejor de la cognición humana: la intuición, la empatía, la imaginación, el pensamiento crítico y la responsabilidad ética.

No se trata de rechazar la IA. Se trata de recordar quiénes somos cuando ella no está. Porque al final, la verdadera medida de nuestra inteligencia no será cuán bien usamos la tecnología, sino cuán capaces somos de prescindir de ella sin perder el rumbo.

La pregunta fundamental que emerge de esta investigación no es si deberíamos usar IA, sino cómo podemos usarla sin perder nuestra humanidad cognitiva. La respuesta a esta pregunta determinará no solo nuestro futuro tecnológico, sino la naturaleza misma de lo que significa ser humano en la era de la inteligencia artificial.

 

Recomendaciones para investigación futura

 Con miras a profundizar en estas brechas, se proponen las siguientes líneas de investigación:

Estudios longitudinales sobre el impacto cognitivo del uso intensivo de IA en diferentes poblaciones (por edad, formación, contexto cultural). Nuestros datos muestran que el 65,7 % de la muestra tiene entre 35 y 44 años, lo que limita la extrapolación a usuarios más jóvenes, potencialmente más vulnerables al descargo cognitivo pasivo.

Investigación neurológica sobre los cambios estructurales cerebrales asociados con la dependencia prolongada de IA, especialmente en funciones como la memoria de trabajo, la planificación y la tolerancia al esfuerzo cognitivo —procesos que, según los participantes, se ven afectados incluso cuando no se perciben como “dependientes”.

Desarrollo de instrumentos validados para medir y monitorear la dependencia cognitiva de tecnologías, integrando indicadores como: frecuencia de uso, ansiedad ante la desconexión, reducción autopercebida en el pensamiento autónomo y prácticas de verificación crítica.

Análisis comparativo entre culturas con distintos niveles de adopción y regulación de IA, dado que nuestra muestra está compuesta en un 80,4 % por usuarios con título universitario o posgrado, lo que sugiere un sesgo hacia contextos de alta alfabetización digital.

Investigación aplicada en el diseño de sistemas de IA que preserven y potencien activamente las capacidades cognitivas humanas —por ejemplo, interfaces que exijan justificación, generen disonancia cognitiva o fomenten la verificación cruzada, en lugar de ofrecer soluciones listas para consumir.

Finalmente, aunque esta investigación no identifica una diferencia generacional estadísticamente significativa en la muestra actual (limitada en participación de menores de 25 años), los pocos casos jóvenes (≈9,8 %) tienden a concentrarse en usos más intensivos y recientes de IA, lo que sugiere una hipótesis fructífera para futuros estudios: ¿Es la próxima generación más propensa a la normalización no crítica de la IA como extensión del yo pensante?

Explorar esta pregunta —y convertir la IA en un aliado del pensamiento, no en su sustituto silencioso— es urgente. En una era donde la IA ya no es una opción, sino una infraestructura cognitiva invisible, preservar la capacidad de pensar por uno mismo no es un lujo intelectual: es una necesidad civilizatoria.

  

Referencias

Aiello, L. C. (1995). The expensive tissue hypothesis: The brain and the digestive system in human and primate evolution. Current Anthropology, 199-221.

Anneline Pinson y otros. (2022). Human TKTL1 implies greater neurogenesis in frontal neocortex of modern humans than Neanderthals. Science, Numero 377.

Biblioteca Nacional de Medicina. (10 de 09 de 2025). Obtenido de MedlinePlus: https://medlineplus.gov/spanish/ency/article/002286.htm#:~:text=Es%20un%20dispositivo%20dise%C3%B1ado%20para,son%20reemplazados%20por%20dispositivos%20prot%C3%A9sicos.

Castells, M. (2000). The Rise of the Network Society: The Information Age: Economy, Society, and Culture. Oxford, Reino Unido, y Malden, MA, Estados Unidos: Blackwell Publishers.

Dahmani, L. (10 de January de 2023). n death by GPS and the search for a safer navigation system. Obtenido de Literary Hub: https://lithub.com/on-death-by-gps-and-the-search-for-a-safer-navigation-system/

Diamond, J. (1997). Guns, Germs, and Steel: The Fates of Human Societies. Nueva York: W. W. Norton & Company.

Dierssen, M. (09 de 04 de 2024). Real Academia Nacional de Medicina en España. Obtenido de Real Academia Nacional de Medicina en España: https://ranm.es/2024/04/el-uso-excesivo-de-la-inteligencia-artificial-debilita-nuestra-memoria-y-reduce-la-capacidad-para-pensar-criticamente-y-resolver-problemas-de-manera-independiente_np/

Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006.

Halpern, D. F. (2010). Halpern Critical Thinking Assessment: Manual. Schuhfried GmbH.

Hobsbawm, E. (1992). Industry and Empire: The birth of the industrial revolution. Nueva York, NY: The New Press.

Isaacson, W. (2001). Steve Jobs. Nueva York: Simon & Schuster.

Jackson, J. (13 de January de 2025). Phys.org. Obtenido de Increased AI use linked to eroding critical thinking skills.

Kochiyama, T. O. (2018). Reconstructing the Neanderthal brain using computational anatomy. Scientific Reports, volumen 8 Numero 1 páginas 1-10 (Artículo n.º 6296).

Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, M. J., Nyhan, B., Pennycook, G., Rothschild, D., et al. (2018). The science of fake news. Science, 359(6380), 1094–1096. https://doi.org/10.1126/science.aao2998. Obtenido de he science of fake news.

maragall, F. p. (10 de 09 de 2025). Fundacion pasqual maragall. Obtenido de Fundacion pasqual maragall: https://blog.fpmaragall.org/capacidades-cognitivas#:~:text=Las%20capacidades%20cognitivas%20son%20aquellas,sencillo%20a%20lo%20m%C3%A1s%20complejo.

Mellars, P. A. (2005). The impossible coincidence. A single-species model for the origins of modern human behaviour in Europe. Evolutionary Anthropology: Issues, News, and Reviews, 12-27.

Sill, C. (27 de November de 2018). 10 times GPS failed with terrible consequences. Obtenido de Listverse : https://listverse.com/2018/11/27/10-times-gps-failed-with-terrible-consequences/

Stefan Buijsman, S. E. (30 de Jun de 2025). Autonomy by Design: Preserving Human Autonomy in AI Decision-Support. Obtenido de arxiv.org: https://arxiv.org/abs/2506.23952

Steyvers, M. &. (2003). Three Challenges for AI-Assisted Decision-Making. Three challenges for AI-assisted decision-making, 1-13.

Wikipedia. (15 de September de 2023). Wikipedia. Obtenido de Death by GPS: https://en.wikipedia.org/wiki/Death_by_GPS

Wrangham, R. W. (2009). Catching fire: How cooking made us human. Basic Books.

 

 

 

Anexo

Encuesta 

Esta encuesta busca entender cómo el uso de herramientas de IA afecta nuestros procesos de pensamiento. Por favor, responde con honestidad. Tus respuestas son confidenciales y solo se usarán con fines académicos. Tiempo estimado: 8-10 minutos.

SECCIÓN A: Dependencia del Uso de IA

Pregunta 1

        Tipo: Escala lineal

        Pregunta: "En una escala del 1 al 10, ¿con qué frecuencia utilizas herramientas de IA (Waze, GoogleMaps, ChatGPT, Copilot, Claude, etc.) en tu día a día?"

        Escala: 1 a 10

        Etiqueta 1: "Nunca"

        Etiqueta 10: "Constantemente"

        Obligatoria:

Pregunta 2

        Tipo: Casillas de verificación

        Pregunta: "¿Para cuáles de las siguientes actividades utilizas habitualmente IA? (Selecciona todas las que apliquen)"

        Opciones:

o    Redacción de textos/correos/documentos

o    Análisis de información

o    Toma de decisiones importantes

o    Conducir vehículo

o    Síntesis de información de múltiples fuentes

o    Planificación de proyectos o actividades

o    Traducción de textos

o    Todas las anteriores

o    Ninguna de las anteriores

        Obligatoria:

 

 

 

 

Pregunta 3

        Tipo: Opción múltiple

        Pregunta: "Cuando utilizas IA para decisiones importantes, ¿cómo describes tu proceso?"

        Opciones:

o    1 - La uso solo como punto de partida, luego analizo profundamente por mi cuenta

o    2 - La uso para generar alternativas, luego evalúo críticamente cada opción

o    3 - Sigo sus sugerencias después de verificar con otras fuentes

o    4 - Confío bastante, raramente cuestiono sus recomendaciones

o    5 - Sigo sus recomendaciones sin cuestionarlas

        Obligatoria:

Pregunta 4

        Pregunta: "¿Para cuáles de los siguientes propósitos estratégicos utilizas la IA? (Selecciona todas las que apliquen)"

        Opciones:

o    Generar múltiples perspectivas sobre un problema

o    Identificar puntos ciegos en mi análisis

o    Crear escenarios alternativos para evaluar

o    Verificar la lógica de mis argumentos

o    Explorar contraargumentos a mis ideas

o    Organizar información compleja antes de analizarla

o    Ninguna de las anteriores

Pregunta 5:

        Tipo: Opción múltiple

        Pregunta: "Después de recibir una respuesta de IA, ¿qué haces habitualmente?"

        Opciones:

o    La acepto tal como está

o    La verifico parcialmente

o    La contrasto con múltiples fuentes adicionales

o    La uso como base para desarrollar mi propio análisis

o    La cuestiono sistemáticamente antes de usarla

 

 

 

SECCIÓN B: Malestar y Ansiedad sin IA

Pregunta 6

        Tipo: Opción múltiple

        Pregunta: "Si no tuvieras acceso a herramientas de IA durante una semana completa, ¿cómo te sentirías?"

        Opciones:

o    Completamente tranquilo/a, no me afectaría en absoluto

o    Ligeramente incómodo/a, pero me adaptaría fácilmente

o    Moderadamente ansioso/a, me costaría realizar algunas tareas

o    Bastante estresado/a, tendría dificultades significativas

o    Extremadamente ansioso/a, me sentiría perdido/a

        Obligatoria:

Pregunta 7

        Tipo: Opción múltiple

        Pregunta: "Cuando enfrentas un problema complejo y no tienes acceso a IA, tu primera reacción es:"

        Opciones:

o    Analizar el problema paso a paso por mi cuenta

o    Buscar información en fuentes tradicionales (libros, expertos)

o    Intentar encontrar otra forma de acceder a IA

o    Posponer la tarea hasta tener acceso a IA

o    Sentirme bloqueado/a e incapaz de proceder

        Obligatoria:

 

SECCIÓN C: Capacidad de Análisis Independiente

Pregunta 8

        Tipo: Párrafo

        Pregunta: "CASO PRÁCTICO: Una empresa debe decidir si expandirse a un nuevo mercado. Sin usar IA, enumera al menos 5 factores importantes que deberían considerarse (máximo 1 línea por factor):"

        Obligatoria:

        Validación: Respuesta mínima: 50 caracteres

 

Pregunta 9

        Tipo: Opción múltiple

        Pregunta: "Al leer un artículo de opinión controvertido (sin usar IA), ¿qué tan capaz te sientes de identificar sesgos, falacias lógicas o argumentos débiles?"

        Opciones:

o    Muy capaz - Identifico fácilmente problemas argumentativos

o    Bastante capaz - Detecto la mayoría de problemas lógicos

o    Moderadamente capaz - Identifico algunos problemas obvios

o    Poco capaz - Me cuesta detectar sesgos o falacias

o    Nada capaz - No logro identificar problemas argumentativos

        Obligatoria:

 

Pregunta 10

        Tipo: Opción múltiple

        Pregunta: "Cuando necesitas tomar una decisión importante SIN consultar IA, ¿cuánto tiempo adicional requieres comparado con cuando SÍ la usas?"

        Opciones:

o    El mismo tiempo o menos

o    25% más de tiempo

o    50% más de tiempo

o    100% más de tiempo (el doble)

o    Más del doble de tiempo

        Obligatoria:

 

 

 

SECCIÓN D: Pensamiento Crítico

Pregunta 11

        Tipo: Opción múltiple

        Pregunta: "EJERCICIO DE LÓGICA: 'Todos los estudiantes que usan IA son menos creativos. María usa IA. Por tanto, María es menos creativa.' ¿Cuál es el principal problema de este razonamiento?"

        Opciones:

o    La conclusión es falsa porque IA puede aumentar la creatividad

o    La IA no mide creatividad

o    No hay problema, el razonamiento es válido

o    El problema es que no conocemos bien a María

o    No estoy seguro/a de cuál es el problema

        Obligatoria:

Pregunta 12

        Tipo: Opción múltiple

        Pregunta: "Si tuvieras que escribir un ensayo argumentativo de 500 palabras SIN usar IA, sobre un tema que conoces bien, ¿cómo calificarías tu confianza?"

        Opciones:

o    Muy confiado/a - Podría hacerlo sin problemas

o    Bastante confiado/a - Lo haría bien, aunque me tomaría tiempo

o    Moderadamente confiado/a - Lo intentaría, pero tendría dudas

o    Poco confiado/a - Me resultaría muy difícil

o    Nada confiado/a - No podría completarlo satisfactoriamente

        Obligatoria:

 

 

SECCIÓN E: Comparación de Rendimiento

Pregunta 13

        Tipo: Opción múltiple

        Pregunta: "Si comparas tu capacidad actual para resolver problemas complejos con la que tenías ANTES de usar IA, dirías que el uso de IA ha:"

        Opciones:

o    Ampliado significativamente mis capacidades de análisis

o    Mejorado mi eficiencia sin reducir mi pensamiento crítico

o    Mantenido mis capacidades igual que antes

o    Reducido ligeramente mi capacidad de análisis independiente

o    Reducido significativamente mi pensamiento autónomo

        Obligatoria: Sí

Pregunta 14

        Tipo: Opción múltiple

        Pregunta: "SITUACIÓN HIPOTÉTICA: Debes presentar una propuesta importante en el trabajo y tu conexión a internet falla justo antes. ¿Qué tan preparado/a te sientes para completar la tarea solo/a?"

        Opciones:

o    Completamente preparado/a - Puedo hacerlo sin problemas

o    Bien preparado/a - Lo completaría satisfactoriamente

o    Medianamente preparado/a - Lo intentaría, pero con resultados mediocres

o    Poco preparado/a - Tendría grandes dificultades

o    Nada preparado/a - No podría completar la tarea adecuadamente

        Obligatoria:

SECCIÓN F: Metacognición

Pregunta 15

        Tipo: Opción múltiple

        Pregunta: "¿Has notado cambios en tu forma de pensar desde que comenzaste a usar IA regularmente?"

        Opciones:

o    Sí, pienso de manera más eficiente y estructurada

o    Sí, pero he perdido profundidad en mi análisis

o    Sí, dependo más de confirmación externa para mis ideas

o    No he notado cambios significativos

o    Prefiero no reflexionar sobre este tema

        Obligatoria:

Pregunta 16

        Tipo: Opción múltiple

        Pregunta: "Al enfrentarte a una situación compleja, ¿cuál es tu primera reacción instintiva?"

        Opciones:

o    Reflexionar y analizar mentalmente, antes que nada

o    Buscar información en fuentes tradicionales primero

o    Consultar inmediatamente con IA

o    Preguntar a colegas o expertos

o    Evitar la pregunta si es posible

        Obligatoria:

Pregunta 17

        Tipo: Opción múltiple

        Pregunta: "En tu opinión honesta, ¿crees que tu capacidad de pensamiento independiente se ha visto afectada por el uso de IA?"

        Opciones:

o    No, se ha fortalecido significativamente

o    No, no ha cambiado

o    Sí, se ha debilitado ligeramente

o    Sí, se ha debilitado considerablemente

o    No estoy seguro/a

        Obligatoria:

Pregunta 18:

        Tipo: Opción múltiple

        Pregunta: "¿Cómo describes tu relación actual con la IA?"

        Opciones:

o    La uso como herramienta para potenciar mi pensamiento

o    Es un colaborador que me ayuda a pensar mejor

o    Es una fuente de respuestas en la que confío

o    Es indispensable para mi trabajo diario

o    Prefiero no depender de ella

 

SECCIÓN G: Datos Demográficos (Opcional)

Pregunta 19

        Tipo: Respuesta corta

        Pregunta: "Edad (opcional)"

        Obligatoria: No

Pregunta 20

        Tipo: Respuesta corta

        Pregunta: "Profesión/Área de trabajo (opcional)"

        Obligatoria: No

Pregunta 21

        Tipo: Opción múltiple

        Pregunta: "Nivel educativo (opcional)"

        Opciones:

o    Secundaria

o    Técnico/Tecnológico

o    Universitario

o    Especialización

o    Maestría

o    Doctorado

        Obligatoria: No

 

Pregunta 22

        Tipo: Opción múltiple

        Pregunta: "¿Hace cuánto tiempo usas IA regularmente? (opcional)"

        Opciones:

o    Menos de 3 meses

o    3-6 meses

o    6-12 meses

o    1-2 años

o    Más de 2 años

        Obligatoria: N

Apéndice

1.           Resultados de la encuesta

1. Frecuencia y usos habituales de IA

        Frecuencia de uso:
La distribución del uso diario de herramientas de IA (escala 1–10) muestra una tendencia bimodal. El 21,2 % de los participantes reportó un uso constante (valor 10), mientras que el 15,4 % lo utiliza con alta frecuencia (valor 8). En el extremo opuesto, solo el 3,8 % indicó un uso mínimo (valor 1 o 2).

        Actividades más comunes:
Las funciones cognitivas más delegadas a la IA son:

        Análisis de información (48,1 %),

        Redacción de textos/correos/documentos (40,4 %),

        Conducción de vehículos mediante GPS (44,2 %),

        Traducción de textos (30,8 %).

En contraste, solo el 9,6 % utiliza IA para toma de decisiones importantes, lo que sugiere una cierta reserva en contextos de alto impacto.

2. Procesos de toma de decisiones y verificación crítica

        Enfoque ante decisiones importantes:
El 50 % de los participantes indica que usa la IA para generar alternativas y luego evalúa críticamente cada opción, mientras que el 40,4 % la emplea solo como punto de partida para su propio análisis. Solo 1 persona (1,9 %) admitió confiar en las recomendaciones sin cuestionarlas, y ninguno sigue las sugerencias ciegamente.

        Verificación de respuestas:
Tras recibir una respuesta de IA:

        34,6 % la usa como base para desarrollar su propio análisis,

        28,8 % la contrasta con múltiples fuentes adicionales,

        19,2 % la cuestiona sistemáticamente antes de usarla.

Solo 7,7 % acepta la respuesta tal como está.

        Propósitos estratégicos:
Un porcentaje significativo utiliza la IA con fines metacognitivos:

        46,2 % para identificar puntos ciegos o crear escenarios alternativos,

        42,3 % para verificar la lógica de sus argumentos,

        38,5 % para organizar información compleja.

Estos datos sugieren que, al menos en la autopercepción de los participantes, la IA se emplea más como herramienta de amplificación cognitiva que como sustituto del juicio humano.

 

3. Ansiedad y malestar ante la desconexión tecnológica

        Sin acceso a IA durante una semana:
El 71,2 % se sentiría completamente tranquilo/a, mientras que solo el 28,8 % reportó ansiedad moderada por la imposibilidad de realizar ciertas tareas. Ningún participante expresó estrés significativo o sensación de pérdida.

        Ante un problema complejo sin IA:
El 59,6 % opta por analizar el problema paso a paso por su cuenta, y el 36,5 % recurre a fuentes tradicionales (libros, expertos). Solo 2 personas (3,8 %) intentarían encontrar otra forma de acceder a IA, y ninguno se siente bloqueado o incapaz de proceder.

Esto indica una alta resiliencia cognitiva y autonomía intelectual en ausencia de apoyo tecnológico.

 

4. Capacidad de análisis independiente y autopercepción

        Identificación de sesgos y falacias:
El 61,5 % se considera muy o bastante capaz de detectar problemas argumentativos en textos de opinión sin IA. Solo 1 persona (1,9 %) admitió dificultades significativas.

        Comparación con el pasado:
Respecto a su capacidad actual frente a la que tenían antes de usar IA:

        44,2 % afirma que su eficiencia ha mejorado sin afectar su pensamiento crítico,

        25 % cree que sus capacidades se han ampliado significativamente,

        Solo 15,4 % percibe una ligera o significativa reducción en su pensamiento autónomo.

        Preparación ante fallos tecnológicos:
En una situación hipotética de falla de internet antes de una presentación importante:

        50 % se siente completamente preparado/a,

        36,5 % lo haría satisfactoriamente,

        Ninguno considera que no podría completar la tarea.

5. Metacognición y percepción de cambio

        Cambios en la forma de pensar:

        38,5 % percibe que piensa de manera más eficiente y estructurada,

        36,5 % no ha notado cambios significativos,

        Solo 11,5 % siente que ha perdido profundidad en su análisis o depende más de confirmación externa.

        Reacción instintiva ante complejidad:
El 55,8 % reflexiona y analiza mentalmente antes que nada, mientras que solo 7,7 % consulta inmediatamente con IA.

        Impacto en el pensamiento independiente:

        38,5 % dice que no ha cambiado,

        19,2 % cree que se ha fortalecido,

        34,6 % admite un debilitamiento leve o considerable.

        Relación con la IA:

        46,2 % la ve como una herramienta para potenciar su pensamiento,

        25 % como un colaborador que ayuda a pensar mejor,

        Solo 1 participante la considera una fuente de respuestas en la que confía ciegamente,

        21,2 % prefiere no depender de ella.

6. Perfil demográfico

        Edad:

        65.7 % entre 35 y 44 años

        24.5 % entre 25 y 34 años

        9.8 % entre 18 y 24 años

        Nivel educativo:

        45,1 % tiene título universitario,

        27,5 % posee maestría,

        11,8 % tiene doctorado.

        Experiencia con IA:
Los datos sobre duración del uso regular de IA están incompletos en la entrega, pero serán incorporados una vez disponibles.

2.           Explicación de los Parámetros Estadísticos

Los hallazgos de Gerlich (2025) proporcionan la evidencia cuantitativa de la relación.

        Correlación Negativa Fuerte ($r = -0.68$)

o    $r$ es el coeficiente de correlación de Pearson, que mide la fuerza y la dirección de una relación lineal.

o    Negativa (-): Indica una relación inversa. A medida que una variable aumenta, la otra disminuye. En este caso: Más uso de IA $\rightarrow$ Menos pensamiento crítico.

o    Fuerte (0.68): Un valor de 0.68 (cercano a 1) sugiere que la relación es sustancial y significativa.

        Significancia Estadística ($p < 0.001$)

o    $p$ es el valor de probabilidad. Este valor indica la probabilidad de que la correlación observada sea resultado del puro azar.

o    $p < 0.001$: Esto es una evidencia muy fuerte (menor a 1 en 1,000) de que la correlación no es aleatoria y es estadísticamente significativa. Es decir, hay una relación genuina entre el uso frecuente de IA y las bajas puntuaciones en pensamiento crítico.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Comentarios

Entradas populares de este blog

Pan y Circo: De gladiadores a corredores

  Pan y Circo: De gladiadores a corredores El viejo truco de los gobernantes   Es un truco tan viejo como Roma. Cuando el pueblo crecía y el erario se volvía botín para el despilfarro, los gobernantes temían al descontento popular. ¿La fórmula para calmar a la multitud? Pan y circo. El emperador Vespasiano mandó a construir el Coliseo, y su hijo Tito lo inauguró con cien días de juegos. Luchas de gladiadores, batallas navales y espectáculos sangrientos mantenían a la gente entretenida, mientras el pan gratuito llenaba los estómagos. Distracción masiva para ocultar problemas reales. Más de dos mil años después, la historia se repite en Guatemala. La ciudad crece en altura y en vehículos, pero no en desarrollo. El resultado: un tráfico insoportable que colapsa con la primera llovizna. Un trayecto de 40 minutos se convierte fácilmente en dos horas de frustración. ¿Y cuál es la respuesta oficial? Circo. Carreras de 10k, 15k y 20k que maquillan las calles por unas horas...

Del vaso familiar al colapso hospitalario

del vaso familiar al colapso hospitalario  Un impuesto para las bebidas carbonatadas y la industria del azucar...  Publicado en la Revista del Instituto Centroamericano de Administración Pública      En los años 80`s especialmente los domingos se reunía toda la familia a la hora de la comida y en las celebraciones o fiestas de cumpleaños, el momento más esperado era cuando se servía la soda. En casa, un litro de soda alcanzaba para toda la familia (4 – 5 integrantes). Con el tiempo, la industria modificó  el habito de los consumidores  invirtiendo en negocios externos para  incrementar las ventas de la soda (producto principal),  re diseñando los vasos. En muchos supermercados empieza la venta de vasos con mayor capacidad a los que se hacían anteriormente y las familias sustituyeron paulatinamente sus vajillas por estos nuevos productos y sin darse cuenta, el litro de soda alcanzaba para menos vasos, por lo que era indispensable comprar dos...

Gobernanza estratégica para la protección del mandato democrático

            Gobernanza estratégica para la protección                          del mandato democrático Resumen Ejecutivo En la administración pública contemporánea, el riesgo no desaparece: se gestiona. Cada decisión adoptada por una autoridad política tiene implicaciones jurídicas, presupuestarias y administrativas que pueden proyectarse años después de haber concluido el mandato. El verdadero liderazgo público no consiste únicamente en tomar decisiones audaces, sino en asegurar que dichas decisiones sean técnica y jurídicamente sostenibles. La gestión del riesgo administrativo se convierte así en un mecanismo de blindaje institucional que protege tanto al Estado como al titular político. 1. El riesgo administrativo como realidad estructural Toda entidad pública opera dentro de un entramado normativo complejo. Contrataciones, ejecución presupuestaria, reformas organizacionales o cambios regul...

PUBLICIDAD

PUBLICIDAD

📲 Compartir en WhatsApp