La irrupción de la inteligencia artificial generativa en la vida cotidiana ha transformado profundamente la manera en que las personas acceden a la información, resuelven problemas y toman decisiones. En el ámbito educativo, esta transformación no es superficial: está modificando la arquitectura misma del pensamiento. La llamada Teoría Tri-Sistémica de la Cognición, propuesta por Steven D. Shaw y Gideon Nave, amplía el clásico modelo dual de Daniel Kahneman —desarrollado en Thinking, Fast and Slow— incorporando un tercer componente: el Sistema 3 o cognición artificial externalizada.
El modelo dual sostiene que la mente opera mediante dos sistemas complementarios. El Sistema 1 es rápido, automático e intuitivo; permite emitir juicios inmediatos y responder con eficiencia ante situaciones cotidianas. Sin embargo, su funcionamiento basado en heurísticas lo hace vulnerable a sesgos y errores sistemáticos. Por su parte, el Sistema 2 es lento, analítico y deliberativo; se activa cuando enfrentamos problemas complejos y exige esfuerzo cognitivo consciente. Este sistema permite evaluar evidencias, cuestionar intuiciones y corregir errores del Sistema 1, aunque no siempre interviene de manera espontánea. En consecuencia, la calidad de nuestras decisiones depende en gran medida de nuestra capacidad para activar el procesamiento deliberativo cuando la situación lo requiere.
La propuesta tri-sistémica introduce un elemento disruptivo: el Sistema 3, entendido como procesos de razonamiento que operan fuera del cerebro humano, pero que influyen directamente en él mediante sistemas algorítmicos. A diferencia de los sistemas internos descritos por Kahneman, el Sistema 3 constituye una cognición externalizada que produce respuestas, análisis y soluciones en tiempo real. No es simplemente una herramienta de consulta; es un agente cognitivo que participa activamente en la construcción de juicios y decisiones.
Este sistema combina velocidad, acceso masivo a datos y capacidad de generación estructurada de información, lo que puede potenciar el desempeño humano cuando se utiliza de manera crítica. Sin embargo, también reconfigura la ecología cognitiva, ya que introduce un tercer actor en el proceso de razonamiento. El problema no radica en su existencia, sino en la forma en que los sujetos interactúan con él. La cuestión central deja de ser qué produce la inteligencia artificial y pasa a ser cómo el individuo integra —o sustituye— su propio juicio frente a lo que el algoritmo propone.
En este contexto emerge la rendición cognitiva, fenómeno que describe la tendencia a aceptar respuestas generadas por inteligencia artificial con escasa o nula verificación crítica. No se trata únicamente de utilizar apoyo tecnológico, sino de delegar el juicio evaluativo, reduciendo la activación del pensamiento deliberativo. La persona no solo adopta la respuesta, sino que suspende el proceso de contraste y validación.
La rendición cognitiva implica, por tanto, una transferencia de agencia intelectual. El riesgo no es solo que la IA pueda equivocarse, sino que el usuario incremente su confianza incluso ante respuestas incorrectas, debilitando su monitoreo metacognitivo. Estudios experimentales muestran un patrón revelador: cuando la IA acierta, el rendimiento mejora; pero cuando se equivoca, las personas tienden a equivocarse con ella. Más inquietante aún, la confianza subjetiva puede mantenerse alta incluso en el error, lo que evidencia una distorsión metacognitiva.
Desde la psicología educativa se sabe que el pensamiento profundo exige esfuerzo cognitivo, autorregulación y disposición a cuestionar. Investigaciones como las de Cacioppo y Petty sobre la “Need for Cognition” muestran que no todos los individuos buscan activamente ese esfuerzo. Cuando la tecnología ofrece respuestas inmediatas y bien estructuradas, existe el riesgo de que el procesamiento deliberativo disminuya. La exposición constante a sistemas algorítmicos puede reducir la activación analítica, especialmente cuando existe una confianza elevada en la tecnología.
En el aula, las implicaciones son estructurales. Si un estudiante puede obtener ensayos o soluciones completas en segundos, la evaluación centrada exclusivamente en el producto pierde validez como indicador de aprendizaje. La pregunta pedagógica se transforma: ya no basta con saber qué respondió el estudiante, sino cómo llegó a esa respuesta y qué hizo cognitivamente con la información generada por la IA. La educación debe desplazarse del resultado al proceso, del contenido a la argumentación, de la respuesta a la justificación razonada.
No obstante, la rendición cognitiva no es irreversible. La evidencia sugiere que cuando se introducen incentivos por precisión, retroalimentación inmediata y exigencias de justificación, aumenta la probabilidad de que los estudiantes examinen críticamente las respuestas algorítmicas. Esto demuestra que el diseño didáctico puede modular la relación entre el estudiante y el Sistema 3. El desafío no es prohibir la tecnología, sino integrarla bajo marcos que fortalezcan la autonomía intelectual.
Para los docentes, la prioridad debe ser rediseñar las tareas para hacer visible el proceso de pensamiento. Actividades que exijan explicar el razonamiento, comparar versiones generadas por IA, detectar posibles errores y defender argumentos en instancias orales convierten a la inteligencia artificial en objeto de análisis y no en sustituto del pensamiento. El aula debe convertirse en un espacio de validación crítica, donde el algoritmo sea cuestionado y no simplemente obedecido.
Asimismo, es indispensable fortalecer explícitamente la metacognición. Formular preguntas como “¿por qué considero válida esta respuesta?”, “¿qué evidencia la respalda?” o “¿qué posibles sesgos contiene?” reactiva el Sistema 2 frente a la influencia del Sistema 3. Incorporar rúbricas que valoren la calidad del razonamiento más que la respuesta final contribuye a prevenir la delegación acrítica. La tarea del docente ya no es transmitir información, sino formar sujetos capaces de pensar con tecnología sin renunciar a su juicio propio.
La integración de la inteligencia artificial en la educación representa una oportunidad extraordinaria para ampliar horizontes cognitivos, pero también plantea un riesgo silencioso: la posible pasividad intelectual. La verdadera tarea pedagógica no es competir contra la IA, sino garantizar que el estudiante siga siendo el protagonista del acto de pensar. En definitiva, el desafío contemporáneo no consiste en medir cuánto sabe el estudiante, sino en determinar si realmente está pensando o simplemente aceptando lo que la máquina le ofrece.
Referencias:
- Shaw, S. D., & Nave, G. (2025). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. SSRN. https://doi.org/10.2139/ssrn.6097646
- Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
- Stanovich, K. E., & West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate? Behavioral and Brain Sciences, 23(5), 645–665. https://doi.org/10.1017/S0140525X00003435
- Cacioppo, J. T., & Petty, R. E. (1982). The need for cognition. Journal of Personality and Social Psychology, 42(1), 116–131. https://doi.org/10.1037/0022-3514.42.1.116
- Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
- Frömer, R., Dean Wolf, C. K., & Shenhav, A. (2021). Goal congruency dominates reward value in accounting for behavioral and neural correlates of cognitive control. Nature Communications, 12, 1–14. https://doi.org/10.1038/s41467-021-21372-w
- Raoelison, M., Thompson, V. A., & De Neys, W. (2020). The smart intuitor: Cognitive capacity predicts intuitive rather than deliberate thinking. Cognition, 204, 104381. https://doi.org/10.1016/j.cognition.2020.104381
- Tully, S. M., Longoni, C., & Appel, G. (2025). Artificial intelligence reliance and human judgment: Emerging patterns of algorithmic trust. Journal of Behavioral Decision Making. (Publicación anticipada).
- Spatharioti, S. E., et al. (2025). Generative AI and analytic engagement: Experimental evidence on cognitive delegation. Computers & Education. (Publicación anticipada).
¿Qué tan útil fue esta publicación?
¡Haz clic en una estrella para calificarla!
Calificación promedio 5 / 5. Votos: 1
¡Sin votos todavía! Sé el primero en calificar esta publicación.











