El Espejismo de la Competencia: Confort Digital, Efecto Dunning-Kruger y la Mediación Estratégica de la Inteligencia Artificial

El Espejismo de la Competencia: Confort Digital, Efecto Dunning-Kruger y la Mediación Estratégica de la Inteligencia Artificial

The Illusion of Competence: Digital Comfort, Dunning-Kruger Effect, and Strategic AI Mediation

IA Generativa Metacognición Educación Superior Competencia Digital

Por qué leer este artículo

Tres razones para entender el "espejismo de la competencia" y fortalecer tu prisma antes de que los algoritmos lo hagan por ti.

1
La IA no elimina el Dunning-Kruger: lo universaliza
Con IA generativa, todos sobreestiman su competencia —no solo los menos hábiles. La fluidez de la respuesta no equivale a comprensión real.
2
La bifurcación real: fricción productiva vs confort digital
La diferencia no es usar o no usar IA, sino mediar estratégicamente la tecnología —preservando la dificultad que genera aprendizaje genuino.
3
Tu valor profesional es criterio + contexto + creatividad
La IA no mata profesiones: las descerma selectivamente. Identifica qué parte de tu trabajo es crema profesional y qué es commodity.
96 fuentes académicas verificadas · 70% post-2020 · Integra prisma atencional, CD0 y descreame profesional.

Resumen

La convergencia entre sesgos metacognitivos, dependencia tecnológica y mediación algorítmica configura un escenario educativo paradójico: las herramientas diseñadas para potenciar el aprendizaje pueden, simultáneamente, erosionar las capacidades cognitivas que pretenden desarrollar. El presente artículo analiza cómo el efecto Dunning-Kruger se transforma —sin desaparecer— en contextos mediados por inteligencia artificial, dando lugar a un estado de confort digital que funciona como analgésico cognitivo. Desde una perspectiva integradora que articula la neurociencia de la atención, la teoría de la mente extendida y los marcos de competencia digital, se argumenta que la amenaza central no reside en la tecnología misma, sino en la opacidad de su mediación sobre el prisma atencional y lingüístico del sujeto. Frente a este diagnóstico, se propone la fricción productiva y la mediación estratégica como ejes para recuperar la autonomía intelectual, y se discuten modelos horizontales de desarrollo de competencias digitales y la noción de descreame profesional como marcos para comprender el impacto diferencial de la IA en los perfiles laborales. El artículo concluye que el fortalecimiento del prisma —la capacidad de percibir, filtrar y articular la experiencia— constituye la competencia fundamental de la era algorítmica.

Palabras clave: efecto Dunning-Kruger, confort digital, descarga cognitiva, inteligencia artificial, mediación estratégica, competencia digital, fricción productiva, descreame profesional

El Espejismo de la Competencia

1. Introducción

En la actual era de la información, la arquitectura biológica del ser humano se enfrenta a un entorno tecnológico que parece haber sido diseñado para explotar sus vulnerabilidades evolutivas. La selección natural no optimizó el cerebro humano para la precisión intelectual, sino para la velocidad de decisión y la cohesión social, premiando la certeza sobre la veracidad en entornos de riesgo (Álvarez, 2023). Esta predisposición biológica constituye el terreno fértil sobre el cual operan fenómenos como el efecto Dunning-Kruger (Kruger y Dunning, 1999) y lo que en este artículo denominamos el estado de confort digital: una ilusión de progreso que, paradójicamente, puede inhibir el aprendizaje real.

El panorama se complejiza cuando se incorpora la dimensión algorítmica. Yuval Noah Harari (2018) advirtió que los algoritmos están “observándonos ahora mismo” y que cada vez será más fácil manipular las emociones y deseos más profundos de las personas. Su formulación del “hackeo del ser humano” —la ecuación Conocimiento biológico × Poder computacional × Datos = Capacidad de hackear humanos (Harari, 2020)— adquiere urgencia ante la evidencia empírica reciente que muestra cómo la interacción con inteligencia artificial (IA) no solo amplifica sesgos metacognitivos preexistentes, sino que los transforma cualitativamente (Fernandes et al., 2026; He et al., 2023).

Sin embargo, la respuesta no puede ser el rechazo tecnológico. La verdadera pregunta no es si usar la IA, sino desde qué cuerpo, desde qué prisma atencional y lingüístico interactuamos con ella (Grezan, 2025a). Este artículo propone que la competencia fundamental de la era algorítmica reside en el fortalecimiento de ese prisma: la capacidad de percibir, filtrar y articular críticamente la experiencia antes, durante y después de la mediación tecnológica.

Para desarrollar este argumento, el artículo se estructura en cinco secciones. Primero, se examina la naturaleza del efecto Dunning-Kruger y su transformación en entornos digitales mediados por IA. Segundo, se analiza el fenómeno del confort digital como analgésico cognitivo, articulando la descarga cognitiva con la sociedad paliativa de Han (2021). Tercero, se aborda la mediación algorítmica desde la perspectiva de Harari y su recepción en la literatura académica. Cuarto, se propone la fricción productiva y la mediación estratégica como respuesta, integrando modelos horizontales de competencia digital. Quinto, se discute el concepto de descreame profesional como marco para comprender el impacto diferencial de la IA en los perfiles laborales. El artículo concluye con implicaciones para la investigación y la práctica educativa.

Interactivo Metacognición ~2 min

Espejo Metacognitivo

Antes de leer sobre el efecto Dunning-Kruger y el confort digital, te invitamos a un breve ejercicio.

No hay respuestas correctas ni incorrectas. Solo un espejo: lo que crees que sabes vs. lo que la evidencia dice sobre lo que sabemos.

⚡ Responde con honestidad instintiva. La primera respuesta es la que importa.

Tu percepción

¿Qué tan capaz te sientes de detectar cuándo una IA te da información incorrecta pero convincente?

5
Nada seguro/aTotalmente seguro/a

Cuando usas IA para trabajar, ¿qué tan seguro/a estás de que el resultado refleja tu criterio y no solo el de la máquina?

5
Nada seguro/aTotalmente seguro/a

¿Qué tan consciente eres de cómo los algoritmos influyen en lo que lees, buscas y decides cada día?

5
Nada seguro/aTotalmente seguro/a

Cuando algo te resulta difícil de entender, ¿con qué frecuencia eliges quedarte con la dificultad en vez de pedir la respuesta a una IA?

5
Nada seguro/aTotalmente seguro/a

Tu promedio: 5.0 / 10

Espejo 1 de 4

Tu espejo metacognitivo

0

promedio de autoconfianza digital

Este ejercicio no evalúa tu competencia real. Evalúa tu percepción de competencia — que es exactamente donde opera el espejismo.

El artículo que estás por leer explora por qué esa brecha se amplifica con la IA — y qué hacer al respecto.

La competencia fundamental de la era algorítmica:

Fortalecer tu prisma

Percibir · Filtrar · Articular

2. La doble maldición de la incompetencia en la era digital

2.1 Fundamentos del efecto Dunning-Kruger

El efecto Dunning-Kruger (EDK) se fundamenta en un hallazgo empírico consistente: los individuos con menor desempeño en un dominio específico tienden a sobreestimar significativamente su propia competencia, mientras que los de mayor desempeño tienden a subestimarla moderadamente (Kruger y Dunning, 1999). En el estudio original, los participantes ubicados en el cuartil inferior estimaron su rendimiento en el percentil 62 cuando realmente se encontraban en el percentil 12. Dunning (2011) conceptualizó este fenómeno como una “doble maldición”: la misma carencia de habilidad que produce errores es la que impide al sujeto reconocerlos, generando un déficit metacognitivo que se retroalimenta.

Es importante señalar que la interpretación del EDK ha sido objeto de debate metodológico. Gignac y Zajenkowski (2020) demostraron mediante regresión polinomial y LOESS que parte del efecto clásico puede explicarse como un artefacto estadístico derivado de escalas acotadas y regresión a la media. De manera complementaria, Magnus y Peresetsky (2022) confirmaron que la curva en S característica del EDK puede emerger de propiedades estadísticas inherentes a los datos. No obstante, ambos trabajos reconocen que la sobreestimación en los niveles más bajos de habilidad persiste como un fenómeno real, particularmente en dominios donde la retroalimentación es ambigua o demorada —precisamente las condiciones que caracterizan el entorno digital contemporáneo.

2.2 El EDK se transforma en contextos digitales

La evidencia reciente revela que el entorno digital no simplemente amplifica el EDK, sino que lo transforma cualitativamente. Lyons et al. (2021) encontraron que el 75% de los estadounidenses sobreestima su capacidad para distinguir noticias falsas, y que los peores evaluadores eran los más confiados en sus juicios, siendo un 11% más propensos a visitar sitios web no confiables. El dato es particularmente relevante porque vincula el EDK con la susceptibilidad a la desinformación: no se trata de una limitación abstracta, sino de una vulnerabilidad con consecuencias conductuales observables.

En el ámbito de la alfabetización informacional —componente central de la competencia digital—, Mahmood (2016) condujo una revisión sistemática de 53 estudios, encontrando que el 92% no mostraba calibración entre las habilidades percibidas y las reales. Lindell (2023) extendió este hallazgo al dominio político, demostrando que la sobreconfianza en el conocimiento político se asocia significativamente con el uso de internet y redes sociales como fuentes de información, pero no con el consumo de medios tradicionales. El medio digital, por su propia arquitectura, genera una falsa sensación de estar informado sin incrementar el conocimiento real.

2.3 La IA como amplificador metacognitivo

Los estudios más recientes revelan un fenómeno que trasciende el EDK clásico. He et al. (2023) demostraron experimentalmente que la sobreconfianza derivada del EDK causa sub-dependencia de los sistemas de IA: participantes que sobreestimaban su competencia rechazaban recomendaciones algorítmicas correctas, degradando el rendimiento del equipo humano-IA. Significativamente, una intervención tutorial con retroalimentación sobre el desempeño real logró recalibrar eficazmente la autoevaluación.

Sin embargo, el hallazgo más disruptivo proviene de Fernandes et al. (2026), quienes encontraron que cuando las personas utilizan IA generativa (ChatGPT-4o), el patrón clásico del EDK desaparece para dar paso a algo potencialmente peor: una sobreestimación uniforme del rendimiento en todos los niveles de habilidad. En dos estudios (N = 698), todos los participantes sobrevaloraron sus capacidades de manera similar, independientemente de su competencia real. Más aún —y aquí reside la paradoja central—, los participantes con mayor alfabetización en IA fueron menos precisos en sus autoevaluaciones, contradiciendo la suposición de que la familiaridad con la herramienta mejora el monitoreo metacognitivo.

Li et al. (2025) describieron un fenómeno complementario que denominaron “efecto Dunning-Kruger por delegación”: pacientes que consultaban ChatGPT sobre condiciones médicas desarrollaban sobreconfianza no a partir de su propia experiencia, sino de la fluidez lingüística de las respuestas generadas por la IA, incluso cuando estas contenían información imprecisa. Guan et al. (2025) confirmaron que el conocimiento limitado sobre IA genera una relación no lineal con la aceptación tecnológica, mediada por una autoeficacia inflada.

Estos hallazgos configuran un escenario inédito: la IA no solo hereda los sesgos metacognitivos del usuario, sino que los uniformiza y democratiza. Donde antes el EDK diferenciaba entre niveles de competencia, la mediación algorítmica crea un espejismo igualitario de dominio aparente.

Activación Dunning-Kruger ~3 min

🔍 Detector de Espejismos

Acabas de leer sobre la "doble maldición" y cómo la IA transforma el efecto Dunning-Kruger. Ahora viene lo difícil: ¿puedes reconocer el espejismo cuando lo ves en acción?

Verás 6 escenarios reales donde alguien interactúa con tecnología. Tu tarea: identificar qué tipo de espejismo metacognitivo está operando.

⚠️ No todos los escenarios son negativos. Parte de la trampa del EDK es asumir que solo les pasa "a los demás".

Escenario 1 de 6

Aciertos: 0

Tu detección

3. El confort digital como analgésico cognitivo

3.1 De la descarga cognitiva a la dependencia

El concepto de descarga cognitiva (cognitive offloading) designa el uso de acciones físicas o herramientas externas para alterar los requerimientos de procesamiento de información de una tarea (Risko y Gilbert, 2016). Este fenómeno no es intrínsecamente negativo: desde la perspectiva de la mente extendida (Clark y Chalmers, 1998), las herramientas cognitivas forman parte legítima del sistema de pensamiento cuando satisfacen el principio de paridad. Clark (2025), actualizando esta tesis para la era de la IA generativa, reconoce que los humanos somos fundamentalmente “sistemas de pensamiento híbrido” que incorporan recursos no biológicos.

Sin embargo, la evidencia experimental muestra que la descarga cognitiva presenta un costo. Grinschgl et al. (2021) demostraron en tres experimentos preregistrados que, aunque la descarga cognitiva mejora el rendimiento inmediato en la tarea, disminuye significativamente la memoria posterior del contenido descargado. Sachdeva y Gilbert (2020) añadieron que las personas descargan excesivamente —más de lo óptimo para el rendimiento—, impulsadas por la minimización del esfuerzo más que por la maximización de la precisión. Esta tendencia se intensifica en el entorno digital: Gong y Yang (2024), en un metaanálisis del “efecto Google”, confirmaron que la búsqueda intensiva en internet se correlaciona con menor retención informativa, siendo el efecto más pronunciado con el uso del teléfono móvil que con el ordenador.

El paso de la descarga cognitiva a la dependencia de IA constituye un salto cualitativo. Abbas et al. (2024), utilizando el modelo I-PACE, encontraron que la autoeficacia académica y el estrés predicen la dependencia de IA a través de las expectativas de rendimiento, generando un ciclo donde los efectos negativos más reportados incluyen aumento de la pereza, propagación de desinformación, menor creatividad y reducción del pensamiento crítico e independiente. Gerlich (2025) documentó una correlación negativa significativa (r = −0.68) entre el uso frecuente de herramientas de IA y las habilidades de pensamiento crítico, mediada por el incremento de la descarga cognitiva, siendo los participantes más jóvenes quienes exhibieron mayor dependencia y menores puntajes en pensamiento crítico.

3.2 La sociedad paliativa y la evitación de la fricción

El concepto de confort digital puede entenderse como un estado de dependencia tecnológica que simula el crecimiento personal mientras mantiene al individuo en una pasividad cognitiva profunda (Grezan, 2025b). Este estado opera como lo que Byung-Chul Han (2021) denomina un “analgésico” en el marco de la sociedad paliativa: una cultura caracterizada por la algofobia —el miedo al dolor— que evita sistemáticamente toda negatividad. En esta sociedad, las plataformas digitales contribuyen presentando contenido sin fricción, donde los “likes” funcionan como paliativos y el imperativo neoliberal de “ser feliz” impulsa una autoexplotación que enmascara desigualdades estructurales.

La tecnología actual, al eliminar la dificultad inherente a los procesos de búsqueda, reflexión y elaboración, entrena un sistema nervioso orientado hacia la evitación de la complejidad y la automatización de rutas de gratificación inmediata. Jose et al. (2025) conceptualizaron esta dinámica como la “paradoja cognitiva de la IA en educación”: las herramientas que potencian capacidades reducen simultáneamente las oportunidades de recuperación activa y resolución de problemas, procesos esenciales para el desarrollo cognitivo. Hernández-Orallo (2025) complementó esta perspectiva desde la teoría de la mente extendida, advirtiendo sobre los riesgos de atrofia cognitiva, sobredependencia y desafíos para la identidad personal que emergen cuando la IA funciona como “extensora” cognitiva sin mediación crítica.

Chiriatti et al. (2024) propusieron una conceptualización particularmente fértil al introducir el “Sistema 0”: una capa cognitiva tecnológica que precede tanto al pensamiento intuitivo (Sistema 1) como al deliberativo (Sistema 2) de Kahneman. En este modelo, la IA actúa como un preprocesador cognitivo que filtra y orienta la información antes de que el razonamiento humano se active. El confort digital, bajo esta lectura, no es simplemente comodidad; es una alteración de la arquitectura misma del procesamiento cognitivo donde la selección, priorización y enmarcado de la información ocurren en un estrato al que el sujeto no tiene acceso metacognitivo directo.

3.3 El efecto sobre la cognición estudiantil

La evidencia sobre el impacto en contextos educativos es convergente. Jabin (2024), en una revisión sistemática, encontró que la sobredependencia de sistemas de diálogo con IA deteriora potencialmente el pensamiento crítico, la toma de decisiones y el pensamiento analítico, ya que los usuarios aceptan los resultados de la IA —incluidas las alucinaciones— sin validación, impulsados por sesgos cognitivos y atajos mentales. Gonsalves (2024), revisando la taxonomía de Bloom bajo el impacto de la IA generativa, identificó que el uso pasivo de ChatGPT puede suplantar procesos de pensamiento, mientras que el compromiso crítico activo puede potenciar las habilidades de orden superior, abriendo una bifurcación donde el resultado depende enteramente de la intencionalidad del uso.

Essel et al. (2024), en un estudio con diseño pretest-postest (N = 125), hallaron que ChatGPT influye significativamente en el pensamiento crítico, reflexivo y creativo de estudiantes en un aula invertida, pero con el riesgo de descarga cognitiva cuando los estudiantes aceptan pasivamente el contenido generado. Estos resultados subrayan que la herramienta no determina el resultado; lo que determina es la mediación —o su ausencia.

El Confort Digital como Anéstesico Cognitivo
Diagnóstico Confort digital ~3 min

🌡️ Termómetro de Confort Digital

Acabas de leer cómo la descarga cognitiva se transforma en dependencia, cómo la sociedad paliativa evita la fricción y cómo el Sistema 0 filtra tu pensamiento antes de que lo actives.

Ahora la pregunta no es si entendiste el concepto. La pregunta es: ¿dónde opera en tu vida cotidiana?

Verás 8 hábitos cotidianos. Selecciona solo los que reconoces como propios e indica con qué frecuencia. No hay juicio — solo un mapa de dónde estás hoy.

Tus hábitos digitales

Selecciona los que reconoces como propios. Sé preciso/a: la metacognición empieza por nombrar.

Seleccionados: 0 / 8

Tu mapa de confort digital

Tu reflexión

4. El hackeo atencional y la erosión del prisma

4.1 La mediación algorítmica como captura atencional

Harari (2018) advirtió que la supervivencia intelectual en el siglo XXI exige “correr más rápido que los algoritmos” y conocerse a uno mismo antes de que ellos lo hagan. En Nexus, su obra más reciente, radicaliza esta posición argumentando que la IA ha hackeado el “sistema operativo de la civilización humana” —el lenguaje mismo— y que quienes controlan el lenguaje pueden reescribir las reglas del juego (Harari, 2024). García Canclini (2019) tradujo esta advertencia al contexto latinoamericano: las opiniones y comportamientos de los ciudadanos, capturados por algoritmos, se subordinan a corporaciones globalizadas, produciendo lo que denominó “desciudadanización”.

Sin embargo, la evidencia empírica matiza estas advertencias. Metzler y Garcia (2024), en un artículo publicado en Perspectives on Psychological Science, argumentaron que los mecanismos algorítmicos son “impulsados por motivaciones sociales, creando un bucle de retroalimentación”: los algoritmos refuerzan dinámicas sociales preexistentes más que crear fenómenos enteramente nuevos. Esto no disminuye el riesgo, sino que lo reformula: la amenaza no es una manipulación externa omnipotente, sino la amplificación automatizada de vulnerabilidades cognitivas que ya existen, como la confirmación de creencias previas y la evitación de la disonancia cognitiva.

Lo que Zuboff (2019) conceptualizó como capitalismo de vigilancia —la extracción de excedente conductual para generar productos de predicción— opera precisamente en esta amplificación. El usuario cree dominar la herramienta mientras se convierte en materia prima: datos comportamentales para un sistema que extrae valor de su experiencia privada. En contextos educativos, las plataformas de aprendizaje personalizado pueden funcionar como cadenas de suministro para los flujos de datos del capitalismo de vigilancia, una dimensión que rara vez se discute en la evaluación pedagógica de tecnologías educativas.

4.2 La atrofia del prisma atencional y lingüístico

El concepto de prisma desarrollado por Grezan (2025a) designa la capacidad del sujeto de percibir, filtrar y articular su experiencia del mundo a través de la atención y el lenguaje. Este prisma no es un filtro pasivo, sino una estructura activa que determina la profundidad, amplitud y calidad de la interacción con el entorno —incluido el entorno digital.

La evidencia sobre la degradación atencional asociada a la tecnología digital es consistente y creciente. Firth et al. (2019), en una revisión sistemática publicada en World Psychiatry, documentaron que el flujo ilimitado de estímulos y notificaciones del internet fomenta una atención constantemente dividida, reduciendo la capacidad de concentración sostenida, con cambios neuroestructurales que incluyen menor materia gris en la corteza cingulada anterior entre multitareadores frecuentes. Firth et al. (2024) actualizaron estos hallazgos confirmando que la extensión del uso de internet —no simplemente el acceso— es el factor determinante en la remodelación cognitiva.

Neophytou et al. (2023) describieron el fenómeno de “demencia digital”: un declive en memoria, atención, comunicación y toma de decisiones resultante de cambios estructurales en los centros prefrontales que controlan la atención, la recompensa y el control de impulsos. Shahid et al. (2024) documentaron específicamente que el consumo prolongado de video de formato corto conduce a dificultades de concentración, menor retención informativa y preferencia por la gratificación instantánea. En el ámbito educativo, Almarode et al. (2025) hallaron que los distractores tecnológicos representan el 51.95% de las causas de desatención, generando cambios frecuentes de foco y menor rendimiento académico.

La erosión del prisma no se limita a la atención; compromete también la dimensión lingüística. Cuando el “Sistema 0” (Chiriatti et al., 2024) pre-procesa y enmarca la información antes de que el sujeto la reciba, el lenguaje con el que se piensa la experiencia viene condicionado por la mediación algorítmica. Si el lenguaje es, como sostiene Harari (2024), el sistema operativo de la civilización, la externalización no mediada de la producción lingüística a sistemas de IA constituye una vulnerabilidad de primer orden. El consumo de estímulos de bajo costo cognitivo empobrece el hábito perceptivo, atrofiando no solo la atención sostenida y la memoria de trabajo, sino la capacidad misma de nombrar la experiencia con precisión y profundidad.

4.3 Gagrčin et al. (2026) y la urgencia de la alfabetización algorítmica

Una revisión integradora reciente sobre el uso de medios algorítmicos y la alfabetización algorítmica concluyó que resulta “imperativo que los usuarios puedan ejercer agencia sobre sus experiencias en el uso cotidiano de medios algorítmicos” (Gagrčin et al., 2026). Esta conclusión resuena con la propuesta central de este artículo: el fortalecimiento del prisma no es un ideal abstracto, sino una necesidad funcional ante una arquitectura tecnológica diseñada para capturar la atención y predecir el comportamiento.

Mapa de Profundización. El prisma bajo asedio: Anatomía de la Erosión

5. Posibilidades: fricción productiva y mediación estratégica

5.1 La fricción como condición del aprendizaje genuino

Si el confort digital opera como analgésico cognitivo, la fricción productiva constituye su antídoto. Esta noción tiene raíces profundas en la ciencia del aprendizaje. Bjork y Bjork (2011, 2020) demostraron que las dificultades deseables —condiciones que ralentizan el aprendizaje aparente pero optimizan la retención a largo plazo— incluyen el espaciamiento, la intercalación, la práctica de recuperación, la generación y la variación. El rendimiento actual durante el aprendizaje es un indicador poco fiable del aprendizaje duradero; precisamente las condiciones que parecen producir progreso rápido suelen fracasar en sostener la retención.

De manera convergente, Kapur (2008, 2016) desarrolló el paradigma de fracaso productivo: situaciones de aprendizaje donde los estudiantes generan soluciones antes de recibir instrucción formal, activando conocimiento previo, aumentando la conciencia sobre brechas de conocimiento y enfocando la atención en patrones profundos. Sinha y Kapur (2021), en un metaanálisis de 53 estudios (más de 12,000 participantes), confirmaron que la resolución de problemas seguida de instrucción supera significativamente los enfoques de instrucción primero (g de Hedges = 0.36; ajustado por sesgo de publicación, g = 0.87 —un efecto fuerte).

Más recientemente, el proyecto Friction by Design de WestEd (2025) propuso un marco específico para la era de la IA que distingue entre fricción productiva —esfuerzo, lucha y colaboración que impulsan el crecimiento— y fricción improductiva —barreras que obstaculizan sin beneficio cognitivo—. Sus cinco lentes de diseño (Propiedad Cognitiva, Lucha Productiva, Construcción Social de Sentido, Energía de Activación, Barreras de Acceso) ofrecen un marco operativo: la IA debería reducir la fricción improductiva mientras preserva la fricción productiva esencial para el aprendizaje profundo.

5.2 De la prohibición a la mediación estratégica

La respuesta al confort digital no puede ser la prohibición tecnológica, que reproduce paradójicamente la lógica binaria del propio confort (todo o nada, encender o apagar). La verdadera libertad reside en la conciencia del funcionamiento de la herramienta y en la capacidad de elegir cuándo encenderla y cuándo desenchufarla (Grezan, 2025b).

Chan (2023) propuso un marco integral de políticas de IA para la enseñanza universitaria que equilibra la innovación con las consideraciones éticas, argumentando que las universidades necesitan políticas proactivas que guíen la mediación estratégica de las herramientas de IA, no su prohibición reactiva. Los marcos de competencia de IA de la UNESCO (2024a, 2024b) —tanto para estudiantes como para docentes— posicionan a los profesores como “mediadores clave” en la relación humano-tecnología y a los estudiantes como co-creadores de IA inclusiva, no como meros consumidores.

Romeu Fontanillas et al. (2025) aportaron evidencia empírica para esta perspectiva desde el contexto hispano: en un estudio de métodos mixtos con más de 900 estudiantes, recursos específicos de formación en IA y reflexión ética compartida mejoraron significativamente el conocimiento de los estudiantes sobre IA generativa, ayudándolos a discernir su potencial y sus aspectos críticos. Andión y Cárdenas (2023) reforzaron este argumento desde la educación superior latinoamericana, abogando por la integración y el uso crítico de la IA como alternativa a la prohibición.

Henriksen et al. (2021) mostraron que las tecnologías digitales pueden soportar el fracaso productivo, ofreciendo espacios para la experimentación segura. La fricción productiva a través de la tecnología resulta generativa cuando está respaldada por objetivos claros de aprendizaje y mediada mediante herramientas digitales diseñadas intencionalmente. El diseño pedagógico, no la herramienta, es lo que determina si la IA amplifica o erosiona las capacidades cognitivas.

5.3 Modelos horizontales de competencia digital: la experiencia CD0

Los marcos internacionales de competencia digital —DigCompEdu (Redecker, 2017; Caena y Redecker, 2019), el Marco de Competencias TIC de la UNESCO (2018)— proporcionan estructuras valiosas pero enfrentan desafíos significativos en su implementación en América Latina. Velandia Rodriguez et al. (2022) documentaron la ausencia de consenso o unificación de marcos en Iberoamérica, con la investigación concentrada en España. La OCDE (2020) identificó que aproximadamente el 60% de la población de 16 a 65 años en países como Ecuador y Perú carece de habilidades básicas. Estudios comparativos recientes (Cabero-Almenara et al., 2023; Herrera et al., 2025; IDB/ProFuturo, 2025) confirman que el nivel docente predominante en la región oscila entre básico e intermedio, con brechas pronunciadas en ética digital e integración de IA.

Ante esta realidad, el modelo Competencia Digital Cero (CD0) propone una aproximación radicalmente distinta: un proceso horizontal de aprendizaje entre pares donde “astronautas” (docentes con mayor dominio) acompañan a “cadetes” (docentes en formación) a través de sistemas gamificados de validación (Grezan, 2025b). A diferencia de los modelos descendentes de capacitación que parten de un diagnóstico de déficit, CD0 reconoce que el conocimiento pedagógico es práctico y experiencial, y que los pares constituyen el vehículo más eficaz para su transferencia.

Esta perspectiva se alinea con la evidencia internacional. La OCDE (2023) documentó que casi la mitad de las jurisdicciones apoyan el aprendizaje entre pares docentes sobre recursos digitales, con resultados positivos en el desarrollo de competencias digitales pedagógicas. La OCDE (2025) reconfirmó que el aprendizaje profesional es más efectivo cuando está integrado en la práctica, centrado en contenidos, sostenido en el tiempo y colaborativo. Cebrián Cifuentes et al. (2021), en un estudio cuasiexperimental, encontraron que tras una intervención gamificada las cinco dimensiones de competencia digital aumentaron significativamente. González-Cardona y González-Martínez (2025) y Barroso-Tristán et al. (2025) confirmaron la eficacia de la gamificación en entornos digitales para el desarrollo de la competencia digital docente, aunque esta última revisión PRISMA advirtió que las prácticas tienden a enfocarse en la creación de recursos digitales sin abordar la colaboración ni los recursos educativos abiertos.

La integración del pensamiento complejo —que no se limita a la crítica, sino que articula las dimensiones sistémica, científica e innovadora-creativa (Roa-Castellanos, 2023)— en estos modelos horizontales ofrece una vía para contrarrestar la parálisis del confort digital sin reproducir las jerarquías que alimentan los sesgos metacognitivos.

Posibilidades: Fricción Productiva y Mediación Estratégica
Laboratorio de Metacognición

6. El descreame profesional: la extracción diferencial de valor

6.1 La frontera dentada de la automatización

El impacto de la IA sobre los perfiles profesionales no es uniforme ni predecible por la lógica simple de “trabajos manuales vs. intelectuales”. Dell’Acqua et al. (2023), en un experimento de campo preregistrado con 758 consultores de BCG, encontraron que el acceso a IA producía +12.2% más tareas completadas, +25.1% más rápido y +40% mejor calidad —pero solo para tareas dentro de la “frontera” de la IA. Para tareas fuera de dicha frontera, el rendimiento disminuyó aproximadamente un 23%. Este hallazgo es central: dentro de una misma profesión, la IA potencia ciertas tareas mientras degrada el rendimiento en otras, creando lo que los autores denominaron la “frontera tecnológica dentada” (jagged technological frontier).

Eloundou et al. (2024) estimaron que aproximadamente el 80% de la fuerza laboral estadounidense podría ver al menos el 10% de sus tareas afectadas por modelos de lenguaje, y que cerca del 19% podría enfrentar un impacto en más del 50% de sus tareas. Crucialmente, los empleos de mayores ingresos enfrentan mayor exposición —invirtiendo los patrones históricos de automatización. Hui et al. (2024) documentaron evidencia real de desplazamiento en mercados laborales freelance de escritura, programación y análisis de datos tras la introducción de ChatGPT.

6.2 El concepto de descreame profesional

El concepto de descreame profesional (Grezan, 2025c) ofrece un marco para comprender este fenómeno desde la perspectiva educativa. Si la “crema” de una profesión representa el valor diferencial que el profesional aporta —aquel componente de su trabajo que requiere juicio experto, creatividad contextualizada y conocimiento tácito—, la IA opera un “descreame” selectivo: extrae progresivamente las capas de mayor valor económico pero menor resistencia a la automatización, dejando al profesional con las funciones residuales de menor valor.

Este proceso no es simétrico entre profesiones ni dentro de ellas. La tipología del FMI (Cazzaniga et al., 2024) distingue entre alta exposición con baja complementariedad (riesgo de reemplazo) y alta exposición con alta complementariedad (potencial de aumento): aproximadamente el 40% de los empleos globales están expuestos a la IA, cifra que asciende al 60% en economías avanzadas, y la IA puede incrementar la desigualdad salarial si complementa fuertemente a los trabajadores de mayores ingresos.

Sin embargo, la evidencia también muestra potenciales redistributivos. Noy y Zhang (2023), en un ensayo controlado aleatorizado con 453 profesionales, encontraron que ChatGPT redujo el tiempo de tarea un 40% e incrementó la calidad un 18%, y —crucialmente— benefició más a los trabajadores de menor rendimiento, comprimiendo la distribución de productividad. Brynjolfsson et al. (2025), en un estudio de campo con 5,172 agentes de servicio al cliente, confirmaron este patrón: la asistencia de IA incrementó la productividad un 15% en promedio, pero los trabajadores novatos experimentaron una mejora del 34% mientras que los más calificados mostraron ganancias mínimas. La IA diseminó mejores prácticas desde los trabajadores de alto rendimiento hacia los de bajo rendimiento.

6.3 Implicaciones para la educación y la formación

El descreame profesional plantea un desafío fundamental a los sistemas educativos: ¿están formando profesionales cuyo valor diferencial sea resistente a la extracción algorítmica? Los reportes del World Economic Forum (2023), McKinsey Global Institute (2023) y PwC (2025) convergen en señalar que las competencias más demandadas son el pensamiento analítico, el pensamiento creativo, la alfabetización tecnológica y la inteligencia emocional. Morandini et al. (2023) confirmaron que la IA automatiza tareas estructuradas y repetitivas pero permanece limitada en creatividad, empatía y juicio complejo.

La paradoja es que estas competencias “resistentes al descreame” —pensamiento crítico, creatividad, juicio contextual— son precisamente las que el confort digital erosiona cuando la mediación tecnológica no es estratégica. El fortalecimiento del prisma atencional y lingüístico adquiere así una doble relevancia: no solo como competencia educativa general, sino como condición de empleabilidad en un mercado laboral donde la IA redistribuye selectivamente el valor profesional.

Acemoglu y Restrepo (2019) propusieron el marco de desplazamiento-reinstauración: la automatización desplaza trabajadores de tareas existentes pero también crea nuevas tareas donde los humanos mantienen ventaja comparativa. El resultado neto depende de que la “reinstauración” mantenga el ritmo del desplazamiento. La educación, en este marco, tiene la responsabilidad de formar sujetos capaces no solo de adaptarse a tareas nuevas, sino de crear las condiciones cognitivas —el prisma— desde las cuales esas nuevas tareas puedan ser conceptualizadas.

El Descremado Profesional: La extracción diferencial de valor por la IA
Widget | Descreame profesional

7. Discusión y conclusiones

El análisis presentado revela una convergencia entre tres fenómenos que, considerados aisladamente, parecen de naturaleza distinta pero comparten una raíz común: el déficit de mediación metacognitiva en la interacción con sistemas tecnológicos.

El efecto Dunning-Kruger, al transformarse en contextos mediados por IA (Fernandes et al., 2026), no desaparece sino que se universaliza: la sobreconfianza deja de ser un rasgo de los menos competentes para convertirse en una condición generalizada. El confort digital, nutrido por la descarga cognitiva creciente (Gerlich, 2025; Grinschgl et al., 2021) y la arquitectura paliativa de las plataformas (Han, 2021), proporciona el sustrato afectivo-motivacional para esta universalización: ¿por qué cuestionar la propia competencia si la herramienta produce resultados fluidos, rápidos y aparentemente correctos? La mediación algorítmica, tal como la conceptualizan Harari (2024) y Zuboff (2019), cierra el circuito al capturar la atención y preprocesar la información a través del “Sistema 0” (Chiriatti et al., 2024), reduciendo el espacio metacognitivo disponible para la autocorrección.

Frente a este diagnóstico, la respuesta no puede ser ni el luddismo tecnológico ni la adopción acrítica. La fricción productiva (Bjork y Bjork, 2020; Kapur, 2024; Sinha y Kapur, 2021; WestEd, 2025) ofrece un principio de diseño pedagógico que preserva la dificultad necesaria para el aprendizaje profundo mientras aprovecha las capacidades de la IA para reducir la fricción improductiva. Los modelos horizontales de competencia digital, como CD0, proporcionan estructuras sociales para esta mediación que no dependen de la lógica descendente —y potencialmente infantilizante— de la capacitación tradicional, sino de la autonomía heutagógica del aprendiz adulto.

El concepto de descreame profesional ilumina la urgencia de esta mediación estratégica: si la IA extrae selectivamente valor de los perfiles profesionales (Dell’Acqua et al., 2023; Eloundou et al., 2024), solo los profesionales cuyo prisma atencional y lingüístico les permita generar valor no reproducible por la máquina —juicio contextual, creatividad situada, pensamiento ético— mantendrán relevancia. La educación que no fortalezca este prisma, por más que integre herramientas de IA, estará formando profesionales vulnerables al descreame.

Fortalecer el prisma implica, en términos operativos, tres desplazamientos: de la evitación de la dificultad a la búsqueda de la fricción productiva; de la dependencia tecnológica a la mediación estratégica consciente; y de la formación vertical en competencias digitales a modelos horizontales que reconozcan la agencia del sujeto que aprende. Solo mediante este triple desplazamiento es posible transformar la información en conocimiento real y recuperar la autonomía intelectual en la era algorítmica.

7.1 Limitaciones y futuras líneas de investigación

Este artículo presenta limitaciones inherentes a su naturaleza teórica-integradora. La evidencia sobre el EDK mediado por IA es aún incipiente y requiere replicación en contextos culturales diversos, particularmente latinoamericanos. El concepto de confort digital necesita operacionalización empírica que permita su medición y la evaluación de intervenciones. El descreame profesional, como marco analítico, demanda estudios longitudinales que documenten la evolución del valor diferencial en profesiones específicas tras la adopción masiva de IA generativa. Futuras investigaciones deberían examinar cómo los modelos horizontales como CD0 pueden integrarse con marcos de fricción productiva para diseñar intervenciones que fortalezcan el prisma atencional y lingüístico en contextos educativos formales e informales.

Widget | Cierre metacognitivo del prisma
Discusión y conclusiones: La era algorítmica y la mediación metacognitiva
Acordeón | Glosario
Referencias
Abbas, M., Jam, F. A., & Khan, T. I. (2024). Do you have AI dependency? The roles of academic self-efficacy, academic stress, and performance expectations on problematic AI usage behavior. International Journal of Educational Technology in Higher Education, 21, Article 467. https://doi.org/10.1186/s41239-024-00467-0
Acemoglu, D., & Restrepo, P. (2019). Automation and new tasks: How technology displaces and reinstates labor. Journal of Economic Perspectives, 33(2), 3–30. https://doi.org/10.1257/jep.33.2.3
Almarode, M. K., Lu, Y.-H., & Chen, B. (2025). Digital distractions in education: A systematic review of research on causes, consequences and prevention strategies. Educational Technology Research and Development. https://doi.org/10.1007/s11423-025-10550-6
Álvarez, G. (2023). Me da que pensar… la comodidad de la certidumbre versus la incomodidad de la incertidumbre. Bioética Complutense, (45), 37–38.
Andión, M., & Cárdenas, D. I. (2023). Convivir con inteligencias artificiales en la educación superior: Retos y estrategias. Perfiles Educativos, 45(Especial), 56–69. https://doi.org/10.22201/iisue.24486167e.2023.Especial.61691
Barroso-Tristán, J. M., García-Lázaro, I., & Reyes-de-Cózar, S. (2025). Gamification in digital environments and the development of teachers’ digital competence: A systematic review. Humanities and Social Sciences Communications, 12, Article 1834. https://doi.org/10.1057/s41599-025-06115-w
Basilotta Gómez-Pablos, V., Matarranz, M., Casado-Aranda, L.-A., & Otto, A. (2022). Teachers’ digital competencies in higher education: A systematic literature review. International Journal of Educational Technology in Higher Education, 19, Article 8. https://doi.org/10.1186/s41239-021-00312-8
Bjork, E. L., & Bjork, R. A. (2011). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. En M. A. Gernsbacher, R. W. Pew, L. M. Hough, & J. R. Pomerantz (Eds.), Psychology and the real world: Essays illustrating fundamental contributions to society (pp. 56–64). Worth Publishers.
Bjork, R. A., & Bjork, E. L. (2020). Desirable difficulties in theory and practice. Journal of Applied Research in Memory and Cognition, 9(4), 475–479. https://doi.org/10.1016/j.jarmac.2020.09.003
Brynjolfsson, E., Li, D., & Raymond, L. R. (2025). Generative AI at work. The Quarterly Journal of Economics, 140(2), 889–942. https://doi.org/10.1093/qje/qjae044
Cabero-Almenara, J., Gutiérrez-Castillo, J., Barroso-Osuna, J., & Palacios-Rodríguez, A. (2023). Digital teaching competence according to the DigCompEdu framework. Comparative study in different Latin American universities. Journal of New Approaches in Educational Research, 12(2), 276–291. https://doi.org/10.7821/naer.2023.7.1452
Cabero-Almenara, J., & Palacios-Rodríguez, A. (2020). Marco Europeo de Competencia Digital Docente «DigCompEdu». Traducción y adaptación del cuestionario «DigCompEdu Check-In». EDMETIC, 9(1), 213–234. https://doi.org/10.21071/edmetic.v9i1.12462
Caena, F., & Redecker, C. (2019). Aligning teacher competence frameworks to 21st century challenges: The case for the European Digital Competence Framework for Educators (DigCompEdu). European Journal of Education, 54(3), 356–369. https://doi.org/10.1111/ejed.12345
Carr, N. G. (2020). The shallows: What the Internet is doing to our brains (2.ª ed.). W. W. Norton & Company.
Cazzaniga, M., Jaumotte, F., Li, D., Pizzinelli, C., Schulze, A., Tavares, M. M., & Schwerhoff, G. (2024). Gen-AI: Artificial intelligence and the future of work (IMF Staff Discussion Note SDN/2024/001). Fondo Monetario Internacional.
Cebrián Cifuentes, S., Ros Ros, C., Fernández Piqueras, R., & Guerrero Valverde, E. (2021). Análisis de la competencia digital docente y uso de recursos TIC tras un proceso de intervención universitario, basado en la implementación de una metodología innovadora de gamificación. Bordón. Revista de Pedagogía, 73(2), 41–61. https://doi.org/10.13042/Bordon.2021.87134
Chan, C. K. Y. (2023). A comprehensive AI policy education framework for university teaching and learning. International Journal of Educational Technology in Higher Education, 20(1), 1–25. https://doi.org/10.1186/s41239-023-00408-3
Chen, W. X., Srinivasan, S., & Zakerinia, S. (2024). Displacement or complementarity? The labor market impact of generative AI (Harvard Business School Working Paper No. 25-039). Harvard Business School.
Chen, Y., Li, Q., Liu, S., & Zhang, L. (2023). Research on online teachers’ training based on the gamification design: A survey analysis of primary and secondary school teachers. Heliyon, 9(4), e15053. https://doi.org/10.1016/j.heliyon.2023.e15053
Chiriatti, M., Ganapini, M. B., Panai, E., Ubiali, M., & Riva, G. (2024). The case for human–AI interaction as System 0 thinking. Nature Human Behaviour, 8(10), 1829–1830.
Clark, A. (2025). Extending minds with generative AI. Nature Communications, 16, 4627. https://doi.org/10.1038/s41467-025-59906-9
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19.
Dell’Acqua, F., McFowland, E., III, Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality (Harvard Business School Working Paper No. 24-013). https://doi.org/10.2139/ssrn.4573321
Dunning, D. (2011). The Dunning–Kruger effect: On being ignorant of one’s own ignorance. Advances in Experimental Social Psychology, 44, 247–296. https://doi.org/10.1016/B978-0-12-385522-0.00005-6
Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2024). GPTs are GPTs: Labor market impact potential of LLMs. Science, 384(6702), 1306–1308. https://doi.org/10.1126/science.adj0998
Essel, H. B., Vlachopoulos, D., Tachie-Menson, A., Johnson, E. E., & Baah, P. K. (2024). ChatGPT effects on cognitive skills of undergraduate students: Receiving instant responses from AI-based conversational large language models (LLMs). Computers and Education: Artificial Intelligence, 6, 100198. https://doi.org/10.1016/j.caeai.2023.100198
Fallon, G. (2020). From digital literacy to digital competence: The teacher digital competency (TDC) framework. Educational Technology Research & Development, 68(5), 2449–2472. https://doi.org/10.1007/s11423-020-09767-4
Fernandes, D., Villa, S., Nicholls, S., Haavisto, O., Buschek, D., Schmidt, A., Kosch, T., Shen, C., & Welsch, R. (2026). AI makes you smarter but none the wiser: The disconnect between performance and metacognition. Computers in Human Behavior, 175, Article 108779. https://doi.org/10.1016/j.chb.2025.108779
Firth, J., Torous, J., López-Gil, J. F., Linardon, J., Milton, A., Lambert, J., Smith, L., Jarić, I., Fabian, H., Vancampfort, D., Onyeaka, H., Schuch, F. B., & Firth, J. A. (2024). From “online brains” to “online lives”: Understanding the individualized impacts of Internet use across psychological, cognitive and social dimensions. World Psychiatry, 23(2), 176–190. https://doi.org/10.1002/wps.21188
Firth, J., Torous, J., Stubbs, B., Firth, J. A., Steiner, G. Z., Smith, L., Alvarez-Jimenez, M., Gleeson, J., Vancampfort, D., Armitage, C. J., & Sarris, J. (2019). The “online brain”: How the Internet may be changing our cognition. World Psychiatry, 18(2), 119–129. https://doi.org/10.1002/wps.20617
Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280. https://doi.org/10.1016/j.techfore.2016.08.019
Gagrčin, E., Naab, T. K., & Grub, M. F. (2026). Algorithmic media use and algorithm literacy: An integrative literature review. New Media & Society. https://doi.org/10.1177/14614448241291137
García Canclini, N. (2019). Ciudadanos reemplazados por algoritmos. CLACSO.
Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006
Gignac, G. E., & Zajenkowski, M. (2020). The Dunning-Kruger effect is (mostly) a statistical artefact: Valid approaches to testing the hypothesis with individual differences data. Intelligence, 80, Article 101449. https://doi.org/10.1016/j.intell.2020.101449
Gong, C., & Yang, Y. (2024). Google effects on memory: A meta-analytical review of the media effects of intensive Internet search behavior. Frontiers in Public Health, 12, 1332030. https://doi.org/10.3389/fpubh.2024.1332030
González-Cardona, C. G., & González-Martínez, L. B. (2025). La gamificación como estrategia para desarrollar competencias digitales en educación superior. Revista Paraguaya de Educación a Distancia (REPED), 6(1), 50–65. https://doi.org/10.56152/reped2025-vol6num1-art5
Gonsalves, C. (2024). Generative AI’s impact on critical thinking: Revisiting Bloom’s Taxonomy. Journal of Marketing Education, online first. https://doi.org/10.1177/02734753241305980
Grezan. (2025a). Desde qué cuerpo interactúas: Atención, prisma lingüístico y mediación en la era de la IA. Blog de Grezan. https://grezan.cl/desde-que-cuerpo-interactuas-atencion-prisma-linguistico-y-mediacion-en-la-era-de-la-ia/
Grezan. (2025b). Confort artificial: La ilusión del progreso en la era de la IA. Blog de Grezan. https://grezan.cl/confort-artificial-la-ilusion-del-progreso-en-la-era-de-la-ia/
Grezan. (2025c). Descreame profesional: Cómo la IA extrae valor diferencial de las profesiones. Blog de Grezan. [En preparación].
Grinschgl, S., & Neubauer, A. C. (2022). Supporting cognition with modern technology: Distributed cognition today and in an AI-enhanced future. Frontiers in Artificial Intelligence, 5, 908261. https://doi.org/10.3389/frai.2022.908261
Grinschgl, S., Papenmeier, F., & Meyerhoff, H. S. (2021). Consequences of cognitive offloading: Boosting performance but diminishing memory. Quarterly Journal of Experimental Psychology, 74(9), 1477–1496. https://doi.org/10.1177/17470218211008060
Guan, J., He, X., Su, Y., & Zhang, X. A. (2025). The Dunning–Kruger effect and artificial intelligence: Knowledge, self-efficacy and acceptance. Internet Research. https://doi.org/10.1108/INTR-01-2024-0072
Han, B.-C. (2021). La sociedad paliativa (A. Ciria, Trad.). Herder. (Obra original publicada en 2020).
Harari, Y. N. (2017). Homo Deus: A brief history of tomorrow. Harper.
Harari, Y. N. (2018). 21 lessons for the 21st century. Spiegel & Grau.
Harari, Y. N. (2020, 23 de enero). How to survive the 21st century [Conferencia]. Reunión Anual del Foro Económico Mundial 2020, Davos-Klosters, Suiza.
Harari, Y. N. (2024). Nexus: A brief history of information networks from the Stone Age to AI. Random House.
He, G., Kuiper, L., & Gadiraju, U. (2023). Knowing about knowing: An illusion of human competence can hinder appropriate reliance on AI systems. En Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI ’23, Article 113). ACM. https://doi.org/10.1145/3544548.3581025
Henriksen, D., Creely, E., & Henderson, M. (2021). The role of creative risk taking and productive failure in education and technology futures. TechTrends, 65, 602–613. https://doi.org/10.1007/s11528-021-00622-8
Hernández-Orallo, J. (2025). Enhancement and assessment in the AI age: An extended mind perspective. Australian Journal of Education, online first. https://doi.org/10.1177/18344909241309376
Herrera, P., Huepe, M., & Trucco, D. (2025). Educación y desarrollo de competencias digitales en América Latina y el Caribe (LC/TS.2025/3). CEPAL.
Hui, X., Reshef, O., & Zhou, L. (2024). The short-term effects of generative artificial intelligence on employment: Evidence from an online labor market. Organization Science, 35(6), 1977–1989. https://doi.org/10.1287/orsc.2023.18441
IDB/ProFuturo/Teacher Task Force. (2025). An approach to teachers’ digital competency in Latin America. Banco Interamericano de Desarrollo.
Jabin, S. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environments, 11, Article 316. https://doi.org/10.1186/s40561-024-00316-7
Jose, B., Cherian, J., Verghis, A. M., Varghise, S. M., S, M., & Joseph, S. (2025). The cognitive paradox of AI in education: Between enhancement and erosion. Frontiers in Psychology, 16, 1550621. https://doi.org/10.3389/fpsyg.2025.1550621
Kapur, M. (2008). Productive failure. Cognition and Instruction, 26(3), 379–424. https://doi.org/10.1080/07370000802212669
Kapur, M. (2016). Examining productive failure, productive success, unproductive failure, and unproductive success in learning. Educational Psychologist, 51(2), 289–299. https://doi.org/10.1080/00461520.2016.1155457
Kapur, M. (2024). Productive failure: Unlocking deeper learning through the science of failing. Wiley.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121–1134. https://doi.org/10.1037/0022-3514.77.6.1121
Li, L. T., Adelstein, J. M., Sinkler, M. A., & Mistovich, R. J. (2025). Artificial intelligence promotes the Dunning Kruger effect: Evaluating ChatGPT answers to frequently asked questions about adolescent idiopathic scoliosis. Journal of the American Academy of Orthopaedic Surgeons, 33(9), 473–480. https://doi.org/10.5435/JAAOS-D-24-00297
Lindell, J. (2023). Illusion of knowledge: Is the Dunning-Kruger effect in political sophistication more widespread than before? Journal of Elections, Public Opinion and Parties, 34(4), 573–583. https://doi.org/10.1080/17457289.2023.2214734
Lyons, B. A., Montgomery, J. M., Guess, A. M., Nyhan, B., & Reifler, J. (2021). Overconfidence in news judgments is associated with false news susceptibility. Proceedings of the National Academy of Sciences, 118(23), e2019527118. https://doi.org/10.1073/pnas.2019527118
Magnus, J. R., & Peresetsky, A. A. (2022). A statistical explanation of the Dunning–Kruger effect. Frontiers in Psychology, 13, Article 840180. https://doi.org/10.3389/fpsyg.2022.840180
Mahmood, K. (2016). Do people overestimate their information literacy skills? A systematic review of empirical evidence on the Dunning-Kruger effect. Communications in Information Literacy, 10(2), 199–213. https://doi.org/10.15760/comminfolit.2016.10.2.24
Massaroni, V., Delle Donne, V., & Mele, V. (2023). Relation between executive functions and screen time exposure in under 6 year-olds: A meta-analysis. Computers in Human Behavior, 145, 107769. https://doi.org/10.1016/j.chb.2023.107769
McKinsey Global Institute. (2023). Generative AI and the future of work in America. McKinsey.
Metzler, H., & Garcia, D. (2024). Social drivers and algorithmic mechanisms on digital media. Perspectives on Psychological Science, 19(5), 735–748. https://doi.org/10.1177/17456916231185057
Morandini, S., Fraboni, F., De Angelis, M., Puzzo, G., Giusino, D., & Pietrantoni, L. (2023). The impact of artificial intelligence on workers’ skills: Upskilling and reskilling in organisations. Informing Science, 26, 39–68. https://doi.org/10.28945/5078
Neophytou, E., Manwell, L. A., & Eikelboom, R. (2023). The impact of digital technology, social media, and artificial intelligence on cognitive functions: A review. Frontiers in Cognition, 2, 1203077. https://doi.org/10.3389/fcogn.2023.1203077
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192. https://doi.org/10.1126/science.adh2586
OCDE. (2020). Making the most of technology for learning and training in Latin America. OECD Skills Studies. https://doi.org/10.1787/ce2b1a62-en
OCDE. (2023). OECD Digital Education Outlook 2023. OECD Publishing. https://doi.org/10.1787/c74f03de-en
OCDE. (2025). Preparing teachers for digital education: Continuing professional learning. OECD Publishing.
PwC. (2025). AI Jobs Barometer 2025. PwC.
Redecker, C. (2017). European Framework for the Digital Competence of Educators: DigCompEdu. Publications Office of the European Union. https://doi.org/10.2760/159770
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
Roa-Castellanos, R. A. (2023). Bioética sapiencial. Bioética Complutense, (45), 15–26.
Romeu Fontanillas, T., Romero Carbonell, M., Guitert Catasús, M., & Baztán Quemada, P. (2025). Desafíos de la inteligencia artificial generativa en educación superior: Fomentando su uso crítico en el estudiantado. RIED-Revista Iberoamericana de Educación a Distancia, 28(2). https://doi.org/10.5944/ried.28.2.43535
Sachdeva, C., & Gilbert, S. J. (2020). Excessive use of reminders: Metacognition and effort-minimisation in cognitive offloading. Consciousness and Cognition, 85, 103024.
Shahid, A., Syed, T., & Anwar, S. (2024). The psychological impacts of algorithmic and AI-driven social media on teenagers: A call to action. arXiv preprint. https://arxiv.org/abs/2408.10351
Sinha, T., & Kapur, M. (2021). When problem solving followed by instruction works: Evidence for productive failure. Review of Educational Research, 91(5), 761–798. https://doi.org/10.3102/00346543211019105
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. https://doi.org/10.1126/science.1207745
UNESCO. (2018). ICT Competency Framework for Teachers, Version 3. UNESCO.
UNESCO. (2024a). AI competency framework for students. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000391105
UNESCO. (2024b). AI competency framework for teachers. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000394935
Velandia Rodriguez, C. A., Mena-Guacas, A. F., Tobón, S., & López-Meneses, E. (2022). Digital teacher competence frameworks evolution and their use in Ibero-America up to the year the COVID-19 pandemic began: A systematic review. International Journal of Environmental Research and Public Health, 19(24), 16828. https://doi.org/10.3390/ijerph192416828
WestEd. (2025). Friction by design: A framework for centering learning in the age of AI. WestEd Digital Fluency Project.
World Economic Forum. (2023). The future of jobs report 2023. WEF.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *