Resumen
La irrupción de los modelos algorítmicos basados en arquitectura Transformer no representa únicamente un avance técnico en inteligencia artificial, sino la emergencia de una nueva interfaz de mediación entre el ser humano, el conocimiento y el contexto. Este artículo propone que el aprendizaje humano no está desapareciendo ni debilitándose, sino transformándose a partir de nuevas formas de interrogación, atención y construcción de sentido. Desde una lectura que integra la teoría de interfaces de Scolari (2018), la cognición situada, la pedagogía de la pregunta de Freire y Faúndez (2013), y la perspectiva de transformación relacional de Maturana y Dávila (2021), se argumenta que la educación enfrenta hoy el desafío de comprender y orientar esta mutación, evitando tanto la prohibición reactiva como la adopción acrítica. La evidencia empírica reciente muestra una paradoja cognitiva: la IA generativa mejora el rendimiento académico pero puede erosionar capacidades de pensamiento crítico cuando se usa sin mediación pedagógica adecuada. La IA, entendida como mediador cognitivo y nueva interfaz, abre un horizonte fértil para resignificar el aprendizaje, siempre que sea abordada desde una pedagogía consciente, contextual y responsable.
Palabras clave: interfaces cognitivas, inteligencia artificial, aprendizaje, Transformer, pedagogía de la pregunta, alfabetización en IA
1. Introducción: aprender no ha desaparecido, ha cambiado
Cada gran tecnología cognitiva ha sido recibida históricamente con sospecha. La escritura fue acusada por Sócrates de implantar el olvido en las almas de quienes dejaran de ejercitar la memoria confiando en lo escrito (Bates, 2019). La imprenta generó advertencias sobre la “sobrecarga de información” como fenómeno confuso y dañino para la mente (Bell, 2010). La radio educativa fue recibida en las décadas de 1920 y 1930 con predicciones de transformaciones tan profundas como las que había generado la imprenta (Cook & Nemzek, 1939). La televisión fue descrita como amenaza a la conversación, la lectura y los patrones de vida familiar. Internet, más recientemente, despertó temores sobre la fragmentación de la atención y el deterioro de las relaciones sociales.
Hoy, la inteligencia artificial ocupa ese lugar simbólico de amenaza. Sin embargo, la historia muestra un patrón recurrente: no dejamos de aprender, sino que aprendemos de otra manera. Cada nueva tecnología comunicativa genera predicciones apocalípticas sobre efectos cognitivos, resistencia de instituciones establecidas, y eventual integración que transforma pero no destruye prácticas anteriores, dando lugar a la emergencia de nuevas literacidades y competencias (Bates, 2019).
El cerebro humano es profundamente adaptativo y altamente sensible a los estímulos del entorno. Lejos de ser un sistema frágil, se reorganiza constantemente en función de las herramientas culturales disponibles, un fenómeno conocido como neuroplasticidad (Kim et al., 2025). Los circuitos neuronales usados repetidamente se fortalecen mientras los no utilizados se debilitan, siguiendo el principio hebbiano de que las neuronas que disparan juntas se cablean juntas. En este contexto, los modelos algorítmicos contemporáneos no anulan el aprendizaje humano, sino que introducen nuevas condiciones para su ejercicio, nuevas interfaces desde las cuales pensar, preguntar y construir conocimiento.
La arquitectura Transformer, introducida por Vaswani et al. (2017) en el paper “Attention is All You Need”, constituye el hito técnico que posibilitó la interacción conversacional humano-IA actual. Con más de 173,000 citas, este trabajo es uno de los diez artículos más citados del siglo XXI y representa, en términos de interfaces, un salto comparable al que significaron el mouse y la interfaz gráfica en 1968, la World Wide Web en 1989, o la pantalla táctil del iPhone en 2007. Por primera vez en la historia, los seres humanos pueden interactuar con sistemas computacionales mediante lenguaje natural conversacional, abriendo una nueva dimensión en la relación entre cognición humana y procesamiento algorítmico.
Este artículo propone analizar esta transformación no desde la perspectiva del determinismo tecnológico ni desde el rechazo nostálgico, sino desde una comprensión de las interfaces como espacios de mediación y producción de sentido donde se reconfigura el aprendizaje humano.
2. Interfaces: de la herramienta al espacio de mediación
2.1 La interfaz como red de actores
Desde la teoría de las interfaces desarrollada por Scolari (2018) en “Las leyes de la interfaz”, una interfaz no es un simple canal técnico ni un punto de contacto neutral entre sistemas. Citando a Pierre Lévy, Scolari define la interfaz como un espacio que “reenvía a las operaciones de traducción, de puesta en contacto de ambientes heterogéneos. […] La interfaz mantiene unidas las dos dimensiones del devenir: el movimiento y la metamorfosis. Es la operadora del pasaje” (Scolari, 2018, p. 23).
Esta conceptualización resulta fundamental para comprender la IA contemporánea. La interfaz no es mero intermediario pasivo, sino una red de actores —humanos, tecnológicos, institucionales, textuales, biológicos— vinculados mediante relaciones de cooperación, competencia y coevolución. Bajo esta mirada, la inteligencia artificial, y en particular los modelos basados en Transformers, puede entenderse como una interfaz cognitiva avanzada, capaz de mediar entre la complejidad humana y la capacidad de procesamiento algorítmico.
Scolari (2018) propone diez leyes de la interfaz, entre las cuales destacan para nuestro análisis: la interfaz es el lugar de la interacción, proponiendo la “metáfora de la interacción” como modelo conceptual central; las interfaces no son transparentes, pues establecen contratos de interacción que usuarios aceptan o rechazan; las interfaces conforman un ecosistema donde mantienen intercambio entre ellas; las interfaces coevolucionan con sus usuarios, de modo que usuarios y tecnologías evolucionan a la par; y el diseño y uso de una interfaz son prácticas políticas, nunca neutrales.
2.2 La escuela como interfaz en crisis
Aplicando este marco, Scolari (2018) argumenta que “la escuela, los partidos políticos, los sindicatos o las universidades son interfaces que están en crisis y deben ser urgentemente rediseñadas” (p. 156). La escuela es, en esta perspectiva, “una interfaz diseñada para la sociedad de masas industrial del siglo XIX” que no ha cambiado sustancialmente en su arquitectura fundamental. Esta observación resulta crucial: el problema no es simplemente incorporar tecnología a una interfaz obsoleta, sino reconocer que la interfaz misma requiere rediseño.
La irrupción de la IA agudiza esta crisis. En sus “10 tesis sobre la IA”, Scolari (2023) afirma que “la IA pertenece a este tipo de actores disruptivos que, en poco tiempo, aceleran su difusión y transforman de cabo a rabo un ecosistema completo”. Cada vez que se incorpora un nuevo actor como la IA, “lo más probable es que cambie toda la interfaz” (Scolari, 2023, párr. 8). No se trata entonces de un ajuste incremental sino de una reconfiguración sistémica.
2.3 El Transformer como nueva interfaz cognitiva
Los Transformers no “comprenden” en sentido humano, pero introducen una forma inédita de interpretación contextual. El mecanismo de self-attention permite que cada palabra “mire” simultáneamente todas las demás palabras de una secuencia, determinando relevancia relativa mediante tres componentes: Query, que responde a qué información se necesita; Key, que identifica qué información está disponible; y Value, que representa el contenido real (Vaswani et al., 2017). Es análogo al “efecto cocktail party” donde el cerebro atiende selectivamente a una conversación filtrando el ruido ambiente.
Los modelos previos, basados en redes neuronales recurrentes, procesaban texto secuencialmente, limitando la paralelización y dificultando capturar dependencias a larga distancia. El Transformer elimina la recurrencia, procesando toda la secuencia simultáneamente, lo que redujo drásticamente los tiempos de entrenamiento y habilitó el escalamiento masivo que condujo a GPT-3 en 2020, ChatGPT en 2022, y los modelos multimodales actuales (Vaswani et al., 2017).
Esto los convierte en sistemas especialmente aptos para trabajar con significado relacional, no como entidades pensantes, sino como dispositivos de mediación semántica. En términos de Scolari, constituyen una nueva interfaz que reconfigura las posibilidades de interacción entre humanos y conocimiento.
3. El diseño de la pregunta como interfaz contemporánea
3.1 Freire y Faúndez: la pregunta como motor del conocimiento
En este nuevo ecosistema, el prompt deja de ser una instrucción técnica menor para convertirse en una interfaz de interrogación. Para comprender esta transformación, resulta iluminadora la obra “Por una pedagogía de la pregunta” de Freire y Faúndez (2013), que recupera el “movimiento perenne de la pregunta” como fundamento epistemológico del aprendizaje.
Faúndez articula el principio fundamental: “Todo conocimiento comienza por la pregunta. Comienza por lo que tú, Paulo, llamas curiosidad. ¡Pero la curiosidad es una pregunta!” (Freire & Faúndez, 2013, p. 69). Esta afirmación posiciona la interrogación no como instrumento sino como condición constitutiva del saber. Freire desarrolla la noción de “curiosidad epistemológica” que evoluciona desde una curiosidad ingenua hacia una rigurosa y metódica.
La crítica de Faúndez a la educación tradicional resuena con particular fuerza en el contexto de las interfaces algorítmicas: “una educación de respuestas, en lugar de ser una educación de preguntas. Una educación de preguntas es la única educación creativa y apta para estimular la capacidad humana de asombrarse” (Freire & Faúndez, 2013, p. 70). Freire complementa: “La pedagogía de la respuesta es una pedagogía de la adaptación y no de la creatividad. No estimula el riesgo de la invención y de la reinvención” (p. 75).
El concepto de “castración de la curiosidad” que Freire describe —donde el educador “ya trae la respuesta sin que se le haya preguntado algo” (Freire & Faúndez, 2013, p. 72)— resulta extraordinariamente pertinente para evaluar interfaces de IA que proporcionan respuestas sin cultivar la capacidad interrogativa del usuario. La sentencia “Enseñar a preguntar es el inicio del conocimiento” (p. 69) plantea un criterio de diseño para interfaces de aprendizaje mediadas por IA: no basta proveer respuestas; la interfaz debe estimular la generación de preguntas progresivamente más sofisticadas.
3.2 El prompt como interfaz de interrogación
Diseñar un prompt implica articular intención, contexto, restricciones y propósito; es decir, configurar un espacio interpretativo donde la respuesta no es una verdad absoluta, sino una reconstrucción provisional del saber. Federiakin et al. (2024) definen prompt engineering como “la habilidad de comunicar el problema, su contexto y las restricciones impuestas a la solución deseable a un LLM para resolverlo correctamente lo más rápido posible” (p. 2), argumentando que constituye una competencia del siglo XXI distinta, no cubierta por marcos previos de alfabetización digital.
Esta lógica converge con prácticas como el Chain-of-Thought prompting, introducido por Wei et al. (2022), donde el razonamiento se explicita paso a paso, permitiendo que cada conclusión abra nuevas preguntas. El modelo “piensa en voz alta”, similar a técnicas pedagógicas de metacognición. La variante Zero-Shot CoT usa simplemente la instrucción “Let’s think step by step” para activar capacidades de razonamiento que de otro modo permanecerían latentes.
Han emergido diversos marcos para el prompting educativo. El CLEAR Framework propuesto por Lo (2023) organiza los principios en cinco dimensiones: Concise, Logical, Explicit, Adaptive y Restrictive. El PARTS Framework de Park y Choo (2025) estructura el diseño de prompts en términos de Persona, Aim, Recipients, Theme y Structure. Estos marcos evidencian que la interacción con IA generativa requiere competencias específicas de formulación que trascienden la simple escritura de instrucciones.
3.3 Del diálogo humano-máquina a la externalización del pensamiento
En este diálogo humano-máquina, la IA no sustituye al pensamiento, sino que lo externaliza, lo desafía y lo vuelve observable, habilitando procesos metacognitivos antes difíciles de capturar. Tankelevitch et al. (2024) identifican las demandas metacognitivas específicas que plantea la IA generativa: auto-conciencia sobre aplicabilidad e impacto del uso de IA; confianza ajustada para calibrar la capacidad propia versus la capacidad con asistencia algorítmica; flexibilidad metacognitiva para adaptar flujos de trabajo; y monitoreo continuo de output para evaluar calidad y precisión.
Scolari (2023) propone una implicación pedagógica concreta: “El foco debe pasar de la creación de texto desde cero a la edición crítica del material que generan las máquinas. El trauma de la página en blanco no existe más. Lo que tenemos que aprender es machacar el texto para sacar lo que nosotros queremos” (párr. 15). Esta formulación sugiere un desplazamiento de competencias: de la producción original a la curación crítica, de la generación a la evaluación, de la escritura a la interrogación.
4. Atención algorítmica y cognición humana: una analogía funcional
4.1 Paralelos y diferencias entre atención artificial y humana
El mecanismo de atención de los Transformers ofrece una analogía funcional con la cognición humana experta: ambos operan seleccionando relevancias en contextos complejos. La profundidad no surge de acumular más información, sino de establecer mejores relaciones entre los elementos disponibles.
Sin embargo, análisis comparativos recientes (Yang et al., 2024) identifican diferencias críticas: el cerebro humano usa procesamiento recurrente extensivamente; la atención humana tiene un fuerte componente top-down guiado por objetivos y expectativas; los Transformers carecen de estados cognitivos inherentes. Estudios neurocientíficos sugieren que los modelos de lenguaje grande muestran “control ejecutivo deficiente” en secuencias largas, con rendimiento degradado en tareas que requieren inhibición de respuestas automáticas.
4.2 Cognición distribuida y mente extendida
Desde esta perspectiva, la IA no “aprende” como el ser humano, pero operacionaliza una lógica relacional compatible con formas avanzadas de aprendizaje humano: no lineales, situadas, orientadas a la toma de decisiones. La cognición emergente no es artificial ni humana en sentido estricto, sino interoperable, resultado de la interacción entre ambos sistemas.
Esta idea encuentra fundamento teórico en la tradición de cognición distribuida desarrollada por Hutchins (1995), quien estableció que los procesos cognitivos se distribuyen a través de miembros de un grupo social, coordinación entre recursos internos y externos, y tiempo. La unidad de análisis apropiada es “una colección de individuos y artefactos y sus relaciones en una práctica de trabajo” (Hutchins, 1995, p. 175), no la mente individual aislada.
Clark y Chalmers (1998) propusieron el “externalismo activo” según el cual “el ambiente tiene un rol activo en conducir los procesos cognitivos” (p. 7). El principio de paridad establece que si un proceso externo cumple la misma función que uno interno, puede considerarse parte de la mente. Clark (2025), en un artículo reciente publicado en Nature Communications, aplica esta tesis a la IA generativa, argumentando que los humanos son “mentes extendidas” naturales, sistemas híbridos que distribuyen carga cognitiva mediante herramientas. Somos, en su formulación, “ciborgs naturales” que distribuyen la carga cognitiva a través de herramientas, y la IA generativa puede actuar como tecnología que extiende la mente, no que la reemplaza.
Evidencia empírica apoya esta perspectiva: un estudio de jugadores de Go mostró mayor novedad en movimientos humanos después de la emergencia de IA superhumana (Shin et al., 2023), sugiriendo que la interacción con sistemas avanzados puede potenciar, no sustituir, la creatividad humana. Clark (2025) propone desarrollar “higiene cognitiva extendida” y habilidades metacognitivas específicas para evaluar outputs de IA.
4.3 Sistema 0: la IA como capa cognitiva precedente
Chiriatti et al. (2025) proponen el concepto de “Sistema 0” como extensión cognitiva que precede al pensamiento intuitivo (Sistema 1) y deliberativo (Sistema 2) descritos por Kahneman. Esta capa algorítmica actuaría como filtro y organizador previo a los procesos cognitivos conscientes. Sin embargo, identifican una paradoja: la IA expande capacidades pero puede simultáneamente constreñir el pensamiento si no se gestiona adecuadamente.
Pérez-Verdugo y Barandiaran (2025) introducen el concepto de “cognición midtendida generativa”, un híbrido entre cognición dirigida internamente y cognición extendida mediante herramientas. Argumentan que la IA generativa está más cerca de la cognición social que de la cognición extendida tradicional con herramientas, dado su carácter conversacional y su capacidad de respuesta adaptativa.
5. La paradoja cognitiva: entre mejora y erosión
5.1 Evidencia de efectos positivos
La evidencia empírica reciente sobre el impacto de la IA generativa en el aprendizaje revela una paradoja que exige atención cuidadosa. El meta-análisis más comprehensivo disponible (Deng et al., 2025), publicado en Nature Humanities and Social Sciences Communications y basado en 51 estudios realizados entre noviembre de 2022 y febrero de 2025, reporta un efecto positivo grande en rendimiento académico (g = 0.867), un efecto moderado positivo en percepción de aprendizaje (g = 0.456), y un efecto moderado positivo en pensamiento de orden superior (g = 0.457).
Un segundo meta-análisis (Sun & Zhou, 2024), publicado en Journal of Educational Computing Research con 28 artículos y 1,909 participantes, confirma mejora significativa en logros académicos con tamaño de efecto medio (Hedges’s g = 0.533). Estos hallazgos sugieren que, en condiciones controladas, la IA generativa puede potenciar el aprendizaje de manera sustancial.
5.2 Evidencia de riesgos cognitivos
Sin embargo, investigación de Wharton (Bastani et al., 2024) advierte que el acceso a GPT-4 puede perjudicar resultados educativos a largo plazo cuando los estudiantes lo usan como “muleta” durante la práctica, afectando la adquisición de habilidades independientes. Este efecto negativo se mitiga significativamente con versiones que incorporan salvaguardas pedagógicas.
Un estudio con 666 participantes (Gerlich, 2025), publicado en la revista Societies, encontró correlación negativa significativa entre uso frecuente de IA y habilidades de pensamiento crítico, mediada por offloading cognitivo. Participantes jóvenes entre 17 y 25 años mostraron mayor dependencia y menores puntuaciones en pensamiento crítico. Notablemente, la educación superior actúa como “buffer protector” contra estos efectos negativos.
El análisis teórico de Almufarrij y Alotaibi (2025), publicado en Frontiers in Psychology, articula la paradoja central: la IA puede mejorar el aprendizaje personalizado pero simultáneamente reduce oportunidades para recuerdo activo y resolución de problemas, erosionando potencialmente las capacidades que pretende desarrollar. Una revisión sistemática (Li et al., 2024) documenta cómo la sobredependencia en sistemas de diálogo IA afecta capacidades cognitivas críticas: toma de decisiones, pensamiento crítico y razonamiento analítico. Los usuarios tienden a aceptar recomendaciones sin cuestionamiento y prefieren soluciones rápidas sobre análisis profundo.
5.3 Percepciones estudiantiles globales
El estudio más grande hasta la fecha sobre percepciones estudiantiles (Strzelecki et al., 2025), publicado en PLoS ONE con 23,218 estudiantes de 109 países, encontró que los usos principales de IA generativa incluyen brainstorming, resumir textos y buscar artículos. Los estudiantes consideran la IA útil para simplificar información compleja, pero menos confiable para proveer información precisa y apoyar el aprendizaje formal en clase. Las emociones predominantes son curiosidad y calma, no temor.
6. Riesgos reales: cuando la prohibición sustituye a la educación
6.1 La orfandad digital y las brechas de mediación
No comprender a tiempo esta transformación implica riesgos significativos. Prohibir tecnologías no es educar; al contrario, suele profundizar brechas, generar exclusión y producir lo que podríamos denominar huérfanos digitales: sujetos desconectados de las prácticas cognitivas de su tiempo.
Samuel (2016) define a los “huérfanos digitales” como jóvenes con alto acceso a tecnología pero poca o ninguna guía parental o institucional sobre su uso. Basándose en más de 10,000 encuestas, estima que aproximadamente un tercio de los niños caen en esta categoría. Crucialmente, no es un problema de acceso sino de acompañamiento y mediación. Este concepto resulta pertinente para la era de IA: el acceso sin mediación pedagógica adecuada puede generar uso superficial o dependiente de herramientas potentes.
El informe GEM de UNESCO (2023) sobre tecnología en educación revela que solo el 40% de escuelas primarias a nivel global están conectadas a internet, cifra que asciende al 50% en secundarias bajas y al 65% en secundarias altas. Aproximadamente 2,600 millones de personas, un tercio de la población mundial, carecían de conexión a internet a finales de 2023. En América Latina, datos de CEPAL (2020) muestran que en 8 de 18 países estudiados, la velocidad de descarga no alcanzaba los 5.5 Mbps necesarios para educación virtual. La brecha no es solo de conectividad: solo el 16% de países garantiza la privacidad de datos educativos por ley (UNESCO, 2023).
6.2 La ineficacia de las prohibiciones
La historia demuestra que cada intento de negar una tecnología cultural termina desplazando su uso hacia espacios no formativos, menos críticos y menos éticos. La educación tiene aquí una responsabilidad central: convertir la tecnología en mediador del aprendizaje, no en enemigo ni en solución mágica.
Investigación reciente de Harvard Graduate School of Education (Goodyear & James, 2025), con más de 1,200 estudiantes de 30 escuelas, no encontró diferencias significativas en salud mental, rendimiento académico o bienestar entre escuelas con prohibiciones estrictas versus permisivas de dispositivos móviles. Una revisión rápida publicada en MDPI Education Sciences (Böttger, 2024) concluye que “no hay influencia significativa de la prohibición de smartphones en el rendimiento académico” (p. 12).
Los efectos no deseados reportados por estudiantes incluyen sentirse menos independientes y confiables, perder acceso a herramientas de aprendizaje digital, y experimentar dificultades para regular malestar emocional sin sus dispositivos. La prohibición, lejos de resolver problemas, parece generar nuevos desafíos sin abordar las causas subyacentes.
7. La transformación como contagio reflexivo
7.1 El virus reflexivo de Maturana y Dávila
Para comprender cómo pueden propagarse transformaciones cognitivas y educativas significativas, resulta iluminadora la perspectiva de Maturana y Dávila (2021) en “La revolución reflexiva”. Su metáfora del “virus reflexivo” ofrece un modelo de cambio que trasciende tanto el voluntarismo individual como el determinismo estructural.
Maturana y Dávila (2021) articulan que “los grandes cambios no se producen sino hasta que empiezan a cambiar los individuos, en sus localidades y contextos personales, para luego tocar a sus personas cercanas. Las transformaciones se mueven como un virus, que va contagiando de uno en uno, hasta formar un movimiento” (contraportada). Este mecanismo de propagación implica varias fases: la transformación reflexiva individual comienza cuando una persona “suelta la emoción” que la mantiene en su configuración actual, abriendo espacio para cambiar su configuración sensorial; el cambio en la convivencia local ocurre cuando la persona transformada modifica sus modos de relacionarse en su contexto inmediato; el contagio a personas cercanas se produce porque las transformaciones se propagan “de uno en uno” mediante el co-emocionar; y finalmente, la formación de movimientos emerge del acumulado de cambios individuales.
7.2 La educación como transformación en la convivencia
Desde la Biología-Cultural desarrollada por Maturana, el ser humano es conceptualizado como unidad biológico-cultural. La cognición no es proceso meramente mental sino “el comportamiento de un organismo con relevancia para el mantenimiento de sí mismo” (Maturana & Varela, 1984, p. 151), asociado a la interacción continua con el entorno. El concepto de autopoiesis subraya que los seres vivos son sistemas cerrados en su dinámica de constitución pero abiertos en su interacción con el medio.
Para Maturana, la educación es “un proceso de transformación en la convivencia” (Dávila & Maturana, 2009, p. 145). Son las relaciones de convivencia entre las personas las que fundan el espacio educativo, no los contenidos ni la tecnología. Los valores no se aprenden al imitar sino al co-emocionar con los adultos con quienes conviven los aprendices.
Esta perspectiva ofrece una advertencia crucial sobre la tecnologización de la educación: “La confusión existente se agudiza aún más cuando, después de caer en la tentación de hacer pasar las soluciones por la integración de la tecnología a los procesos educativos, se constata que esto no ha dado los resultados esperados” (Dávila & Maturana, 2009, p. 147). La tecnología, por sí sola, no puede sustituir lo relacional-emocional como fundamento del aprendizaje.
7.3 Integración: interfaces, preguntas y convivencia
La convergencia de las perspectivas de Scolari, Freire-Faúndez y Maturana-Dávila sugiere un marco integrado para comprender la transformación de las interfaces del aprendizaje. Las nuevas interfaces algorítmicas reconfiguran las posibilidades de interacción con el conocimiento (Scolari), pero su potencial transformador depende de que cultiven la capacidad interrogativa más que la mera obtención de respuestas (Freire & Faúndez), y de que se inserten en relaciones de convivencia que permitan el co-emocionar necesario para que el aprendizaje sea genuinamente transformador (Maturana & Dávila).
El desafío para la educación contemporánea no es simplemente incorporar IA a prácticas existentes ni prohibirla preventivamente, sino rediseñar las interfaces educativas para que la mediación algorítmica potencie —en lugar de sustituir— tanto la curiosidad epistemológica como la transformación en la convivencia.
8. AI Literacy y competencias para la era algorítmica
8.1 Marcos conceptuales de alfabetización en IA
La transformación de las interfaces del aprendizaje exige el desarrollo de nuevas competencias que trascienden la alfabetización digital tradicional. Ng et al. (2021), en un artículo fundacional publicado en Computers and Education: Artificial Intelligence, proponen un marco de AI Literacy basado en cuatro dimensiones derivadas de la Taxonomía de Bloom: Know and Understand AI, que implica conocer y comprender los fundamentos; Use and Apply AI, que refiere a usar y aplicar tecnologías de IA; Evaluate and Create AI, que abarca evaluar críticamente y crear con IA; y AI Ethics, que involucra las consideraciones éticas transversales.
Ng et al. (2021) definen AI literacy como “un conjunto de competencias que permite a los individuos evaluar críticamente las tecnologías de IA, comunicarse y colaborar efectivamente con IA, y usar IA como herramienta” (p. 1). Esta definición enfatiza tanto la dimensión crítica como la práctica, evitando reducir la alfabetización a mero uso instrumental.
Una revisión sistemática reciente (Laupichler et al., 2024) analizó 30 artículos sobre conceptualización, constructos e implementación de AI literacy entre 2019 y 2023, identificando convergencia creciente hacia marcos multidimensionales que integran conocimientos técnicos, habilidades de aplicación, capacidad evaluativa y sensibilidad ética.
8.2 Iniciativas institucionales
La iniciativa conjunta OECD-EC (2025-2026) está desarrollando un framework para educación primaria y secundaria que contribuirá a PISA 2029, donde se evaluará por primera vez la alfabetización en medios e IA. Las competencias nucleares identificadas incluyen comprender, evaluar, usar y crear con IA.
El ED-AI Lit Framework propuesto por Allen y Kendeou (2024) articula seis componentes interdisciplinarios: Knowledge, Evaluation, Collaboration, Contextualization, Autonomy y Ethics. Este marco enfatiza la necesidad de integrar perspectivas de ciencias cognitivas, educación, comunicación y ética en la formación de ciudadanos capaces de navegar ecosistemas algorítmicos.
8.3 Competencias docentes específicas
El AI Competency Framework for Teachers de UNESCO (Miao & Cukurova, 2024) constituye el marco de referencia global más importante para competencias docentes en IA. Organizado en cinco dimensiones —mentalidad centrada en lo humano, ética de IA, fundamentos y aplicaciones, pedagogía de IA, e IA para desarrollo profesional— y tres niveles de progresión —Acquire para competencias básicas, Deepen para diseño pedagógico-andragógico, y Create para innovación—, el marco articula 15 competencias específicas en una matriz bidimensional.
Un dato revelador: en 2022, solo siete países habían desarrollado marcos de competencias en IA para docentes (UNESCO, 2023). Esta brecha entre la velocidad de transformación tecnológica y la preparación institucional constituye uno de los desafíos más urgentes para los sistemas educativos.
9. Perspectivas latinoamericanas
9.1 El estado de la cuestión en la región
El informe “El futuro de la IA en educación en América Latina” (Rivas, Buchbinder & Barrenechea, 2023), desarrollado por ProFuturo y OEI con base en encuestas a expertos de 17 países, identificó que la brecha educativa post-COVID requiere nuevas técnicas de enseñanza donde la IA puede jugar un papel significativo. República Dominicana ha implementado 54 aulas inteligentes y desarrollado carreras y doctorados en IA. Chile y México cuentan con los primeros programas doctorales en IA de la región. La Universidad de Buenos Aires lanzó en 2023 un Ciclo de Formación Docente en IA que alcanzó 1,404 docentes en su primera edición.
9.2 Estudios empíricos regionales
Investigaciones recientes ofrecen una panorámica de las percepciones docentes en la región. Ramírez Martinell y Casillas Alvarado (2024), en un estudio con más de 3,500 docentes mexicanos, encontraron conocimiento básico pero comprensión limitada de conceptos centrales de IA generativa. ChatGPT es la herramienta más mencionada, y las preocupaciones principales incluyen plagio, pereza estudiantil y dependencia tecnológica.
Un estudio de la Universidad de las Américas de Chile (2024) con 41 docentes reveló que mostraron entusiasmo más que miedo hacia la IA, aunque reconocen conocimiento superficial de los modelos de lenguaje. La pandemia cambió significativamente su percepción de tecnologías educativas, y el principal obstáculo identificado es el acceso a internet más que la resistencia actitudinal.
En Costa Rica, Alfaro Salas y Díaz Porras (2024) estudiaron 134 docentes, encontrando familiaridad limitada con IA en educación pero comprensión de sus implicaciones éticas. Los participantes expresaron necesidad de mayor formación sobre uso pedagógico-andragógico óptimo.
10. Un nuevo horizonte para educadores
10.1 Del transmisor al catalizador
Este escenario exige a pedagogos, formadores e instructores un cambio de mirada. El World Economic Forum (2024) describe la transición de los docentes desde fuentes primarias de conocimiento hacia guías y mentores que promueven el pensamiento crítico y la investigación independiente. Sin embargo, esta descripción requiere precisión: el nuevo rol no es meramente “facilitar” —término que sugiere remoción de obstáculos y simplificación del camino— sino catalizar transformaciones cognitivas mediante fricción productiva.
La teoría de la catálisis educativa propone que el aprendizaje significativo emerge no de la comodidad sino del desafío calibrado: el docente-catalizador introduce perturbaciones epistémicas que desestabilizan certezas previas, generando el desequilibrio necesario para la reestructuración cognitiva. A diferencia del facilitador que allana el terreno, el catalizador diseña fricciones que activan procesos de pensamiento que de otro modo permanecerían latentes.
Esta reconceptualización debe atender tanto la dimensión pedagógica como la andragógica. Mientras la pedagogía tradicional asume un aprendiz en formación inicial que requiere andamiaje estructurado, la andragogía —y más aún, la heutagogía— reconoce que los aprendices adultos aportan experiencias previas significativas, capacidad de autodirección y motivación intrínseca vinculada a problemas reales. El docente-catalizador opera en este espectro completo: con aprendices novatos, diseña fricciones graduadas que construyen competencia; con aprendices expertos, provoca interrogaciones que desafían supuestos establecidos. En ambos casos, la IA debe aumentar, no reemplazar, esta función catalítica.
El Departamento de Educación de Estados Unidos (2023) enfatiza que un buen docente conecta con las experiencias previas del estudiante y moldea explicaciones hasta lograr un momento de comprensión genuina —capacidad que la IA actual no puede replicar precisamente porque carece de la sensibilidad para calibrar la fricción óptima según el aprendiz concreto. El nuevo rol docente implica transitar de transmisor de conocimiento a provocador epistémico; de controlador de información a curador de desafíos; de evaluador único a diseñador de experiencias con IA que preserven la tensión cognitiva necesaria para el aprendizaje profundo. El énfasis se desplaza hacia pensamiento crítico, creatividad, inteligencia emocional y colaboración —competencias que emergen precisamente de la fricción, no de su ausencia.
10.2 El desafío de la alfabetización contemporánea
El desafío ya no es competir con la IA ni delegar en ella, sino diseñar experiencias de aprendizaje donde la interrogación, la decisión y el sentido sean centrales. La alfabetización contemporánea no se limita al uso de herramientas, sino que incluye la capacidad de formular preguntas significativas, interpretar resultados críticamente y asumir responsabilidad cognitiva sobre el proceso de construcción de conocimiento. Esta responsabilidad es especialmente relevante desde una perspectiva andragógica: el aprendiz adulto no es receptor pasivo sino co-constructor activo de su trayectoria formativa.
Walter (2024), en un artículo publicado en International Journal of Educational Technology in Higher Education, propone que el prompting efectivo requiere cultivar tres dimensiones: claridad conceptual sobre qué se busca, conciencia de las limitaciones del sistema, y capacidad de evaluación crítica de las respuestas obtenidas. Estas competencias no son meramente técnicas sino profundamente cognitivas y epistémicas —y su desarrollo requiere precisamente el tipo de fricción que el docente-catalizador está llamado a diseñar.
Los Transformers son hoy la cara visible de este cambio, no porque piensen, sino porque han transformado las interfaces a través de las cuales pensamos. La arquitectura técnica que permite a estos modelos procesar lenguaje natural con fluidez conversacional ha abierto una nueva dimensión de interacción cognitiva que reconfigura las posibilidades del aprendizaje humano. El riesgo es que esta fluidez elimine la fricción necesaria para el aprendizaje profundo; la oportunidad es que, bajo mediación catalítica adecuada, amplifique las posibilidades de interrogación y construcción de sentido.
11. Conclusión
La era algorítmica no marca el fin del aprendizaje humano, sino una reconfiguración de sus interfaces. Comprender esta transformación permite aprovechar los beneficios de la cultura digital y mitigar sus riesgos, orientando la tecnología hacia el desarrollo cognitivo, ético y social.
La evidencia revisada muestra una paradoja que debe orientar la acción educativa: la IA generativa puede mejorar significativamente el rendimiento académico (Deng et al., 2025), pero también puede erosionar capacidades de pensamiento crítico cuando se usa sin mediación adecuada (Gerlich, 2025). Esta tensión no se resuelve mediante prohibición ni adopción acrítica, sino mediante el rediseño de interfaces educativas que cultiven la curiosidad epistemológica (Freire & Faúndez, 2013), se inserten en relaciones de convivencia transformadora (Maturana & Dávila, 2021), y comprendan la IA como nuevo actor en un ecosistema de interfaces que coevolucionan (Scolari, 2018).
La arquitectura Transformer (Vaswani et al., 2017) constituye un hito histórico comparable a otras revoluciones de interfaces —la GUI, la Web, el smartphone— que no destruyeron formas previas de cognición sino que las transformaron y expandieron. Del mismo modo, las interfaces algorítmicas actuales no eliminan el aprendizaje humano sino que lo reconfiguran, planteando nuevas demandas y posibilidades.
Como propone Clark (2025), somos “ciborgs naturales” que han extendido su cognición mediante herramientas a lo largo de toda la historia. La IA generativa es la más reciente —y quizás la más poderosa— de estas extensiones. Pero como advierte Maturana, la tecnología no puede sustituir lo relacional-emocional como fundamento del aprendizaje: las transformaciones genuinas se propagan “como un virus” a través de la convivencia, de uno en uno, hasta formar movimientos.
La educación, lejos de quedar obsoleta, se vuelve más necesaria que nunca: no para prohibir ni idealizar, sino para mediar conscientemente entre humanidad, tecnología y conocimiento. El desafío es formar interrogadores, no consumidores de respuestas; diseñadores de interfaces, no usuarios pasivos; ciudadanos capaces de extender su cognición sin perder su agencia. En este horizonte, la pedagogía de la pregunta, la teoría de interfaces y la transformación en la convivencia ofrecen coordenadas conceptuales para navegar una transformación que apenas comienza.