Rizomas Centauro Mediados por Theory of Mind: Marco Medible para Comunidades de Aprendizaje Docente Peer-to-Peer

Resumen

La integración de inteligencia artificial generativa en educación ha generado una narrativa de pérdida de capacidades humanas que oscurece las oportunidades reales para el desarrollo profesional docente. Este artículo propone un marco conceptual alternativo—“Rizomas Centauro Mediados por Theory of Mind” (ToM)—que posiciona a la IA no como sustituto sino como mediador de capacidades socio-cognitivas en comunidades de aprendizaje peer-to-peer. Fundamentado en evidencia reciente sobre ToM en modelos de lenguaje extensos (Kosinski, 2024; Strachan et al., 2024) y marcos bayesianos para cuantificar sinergia humano-IA (Riedl & Weidmann, 2025), el artículo argumenta que la calidad de la colaboración docente depende menos del “nivel” individual y más de capacidades de coordinación socio-cognitiva. Se presenta una agenda de investigación con cuatro hipótesis operacionalizables y se ilustran implicaciones de diseño mediante un caso conceptual: una plataforma peer-to-peer donde IA actúa como mediador ToM para mejorar matching realista, transferencia de conocimiento tácito, reducción de fricción colaborativa y elevación del techo cognitivo colectivo. El marco propuesto contribuye a la literatura de tecnología educativa al ofrecer una alternativa medible a las evaluaciones basadas únicamente en desempeño individual, señalando el camino hacia comunidades de aprendizaje profesional sostenibles y rizomáticas.

Palabras clave: Theory of Mind, aprendizaje rizomático, sinergia humano-IA, desarrollo profesional docente, comunidades de práctica, inteligencia colectiva

Rizomas Centauro Mediados por Theory of Mind

Introducción: No Es Pérdida de Humanidad, Es Cambio de Coordinación

La narrativa dominante sobre inteligencia artificial en educación se estructura frecuentemente como pérdida: pérdida de pensamiento crítico, de autonomía docente, de conexión humana (Misfeldt & Jankvist, 2025; Shojaee et al., 2025). Esta perspectiva, aunque comprensible ante cambios tecnológicos disruptivos, oscurece una pregunta más productiva: ¿qué capacidades humanas se vuelven más críticas, no menos, cuando trabajamos junto a sistemas de IA?

Evidencia reciente en ciencias cognitivas y estudios de interacción humano-IA sugiere una respuesta contraintuitiva: la capacidad humana clave no es memorizar más contenido curricular ni resolver problemas de manera más rápida, sino coordinar mejor—tanto con otros humanos como con máquinas (Riedl & Weidmann, 2025; Woolley et al., 2010). Esta coordinación no es simplemente “habilidad social” en sentido genérico, sino una capacidad socio-cognitiva específica: Theory of Mind (ToM), la habilidad de representar y razonar sobre los estados mentales de otros agentes (Premack & Woodruff, 1978).

Investigaciones recientes demuestran que modelos de lenguaje extensos como GPT-4 exhiben capacidades funcionales de ToM, resolviendo 75% de tareas de falsas creencias—equiparables a niños de 6 años (Kosinski, 2024)—y alcanzando o superando el desempeño humano promedio en baterías comprensivas de ToM (Strachan et al., 2024). Más relevante aún para contextos educativos: cuando humanos y agentes de IA trabajan en tareas compartidas, ToM mutua—tanto humano→IA como IA→humano—mejora la percepción de comprensión y calidad relacional, aunque no siempre el desempeño inmediato (Wang et al., 2021; Zhang et al., 2024).

Simultáneamente, investigación en sinergia humano-IA ha desarrollado marcos cuantitativos para separar habilidad individual de habilidad colaborativa. El modelo bayesiano de Teoría de Respuesta al Ítem (IRT) propuesto por Riedl y Weidmann (2025) permite descomponer el desempeño conjunto en tres componentes: habilidad trabajando solo (θ), capacidad colaborativa con IA (κ), y dificultad de la tarea (β). Aplicado a datos de 667 participantes colaborando con GPT-4o y Llama-3.1-8B, el estudio demuestra que usuarios con mayor ToM logran desempeño colaborativo superior con IA—pero no cuando trabajan solos. ToM es, así, un predictor específico de sinergia, no simplemente de inteligencia general.

Este artículo propone integrar estos hallazgos en un marco conceptual para desarrollo profesional docente: Rizomas Centauro Mediados por ToM. El término captura tres dimensiones:

  1. Rizoma (Cormier, 2008; Deleuze & Guattari, 1987): El currículum emerge de necesidades, bifurcaciones y negociaciones comunitarias; las comunidades de aprendizaje peer-to-peer funcionan como rizomas con múltiples puntos de entrada y crecimiento no jerárquico.
  2. Centauro (Dell’Acqua et al., 2023; Gal et al., 2024): La configuración humano+IA donde lo relevante es el desempeño del “equipo híbrido”, no del modelo aislado; humanos y máquinas aportan ventajas relativas complementarias.
  3. ToM mediada: El mecanismo que hace sostenible el rizoma y medible la calidad colaborativa—no como empatía difusa sino como coordinación cognitiva operacionalizable.

La contribución principal de este trabajo es triple. Primero, ofrece un marco teórico alternativo a la narrativa de “pérdida de capacidades”, reposicionando el desafío como cambio en las capacidades críticas. Segundo, propone un constructo medible—no basado en opiniones—que permite evaluar cuándo la colaboración humano-IA mejora, se estanca o falla. Tercero, presenta una agenda de investigación con hipótesis verificables para guiar el diseño de plataformas de desarrollo profesional docente.

Explorador de Paradigmas

De la narrativa de pérdida hacia la coordinación socio-cognitiva

Contexto: Profesora María diseña actividades de pensamiento crítico con apoyo de ChatGPT

⚠️ Diagnóstico “Pérdida”

Pérdida de autonomía pedagógica

Preocupaciones:

    Intervención propuesta:

    Limitar uso de IA / Capacitación en “desintoxicación digital”

    🧠 Diagnóstico “Coordinación”

    Oportunidad de elevación cognitiva

    Análisis ToM-Centauro:

      Intervención propuesta:

      Desarrollo de ToM aplicada a coordinación humano-IA

      Observación clave: Mismo escenario, diagnósticos opuestos. La narrativa de pérdida enfoca en reducción de autonomía; la coordinación en elevación de capacidad crítica mediante división de labor cognitiva.

      Aprendizaje Rizomático como Infraestructura de Formación Informal Docente

      De Curriculum Prescrito a Comunidad como Curriculum

      El concepto de aprendizaje rizomático, introducido por Cormier (2008), propone que en dominios donde el conocimiento es complejo, contestado y cambiante, el curriculum no puede ser completamente pre-especificado por expertos. En cambio, el conocimiento se “construye y negocia en tiempo real por las contribuciones de quienes están comprometidos en el proceso de aprendizaje” (p. 2). La comunidad es el curriculum.

      Esta perspectiva contrasta con modelos lineales de desarrollo profesional docente donde expertos externos diseñan contenidos estandarizados para audiencias pasivas (Darling-Hammond et al., 2017). Revisiones sistemáticas han documentado repetidamente la inefectividad de talleres aislados y cursos genéricos (Wei et al., 2009). En contraste, comunidades de práctica docente—caracterizadas por dominio compartido, relaciones sostenidas y repertorio de prácticas—generan aprendizaje situado más duradero (Wenger, 1998).

      El contexto de inteligencia artificial generativa intensifica la necesidad de aprendizaje rizomático. Chiu y Zhou (2024) documentan en su revisión sistemática una brecha crítica: 65% de investigación sobre IA en educación se enfoca en aplicaciones de enseñanza, mientras solo 35% aborda necesidades de desarrollo profesional docente para integración de IA. Simultáneamente, la velocidad de evolución tecnológica hace obsoletos los currículos prescriptivos rápidamente—GPT-4 (lanzado marzo 2023), GPT-4o (mayo 2024), y Claude Sonnet 3.5 (junio 2024) introdujeron capacidades cualitativamente distintas en ventanas de meses.

      Conocimiento Situado y Negociación en Contextos Docentes

      La fortaleza del aprendizaje rizomático reside precisamente donde los modelos tradicionales fallan: transferencia de conocimiento tácito y situado. van Houten (2023) demuestra que conocimiento tácito profesional—aquello que educadores “saben hacer” pero no pueden fácilmente verbalizar—requiere confianza, seguridad psicológica y oportunidades extendidas de observación, cuestionamiento y práctica con retroalimentación. No se puede simplemente “transferir” mediante manuales o webinars.

      Estudios de redes de aprendizaje profesional (PLN) confirman que docentes valoran espacios de intercambio de expertise y apoyo mutuo, especialmente durante crisis (El-Rashidy, 2022). Yang et al. (2021) documentan un sistema digital donde 508 docentes crearon y “comercializaron” productos de conocimiento con 1,148 participantes adicionales; análisis de redes sociales reveló que docentes de áreas disciplinares similares comunicaron más entre sí—sugiriendo que matching contextual importa.

      Sin embargo, comunidades rizomáticas enfrentan desafíos estructurales documentados: sostenibilidad a largo plazo cuando participación es voluntaria (Poortman et al., 2020), saturación desigual donde ciertos maestros se sobrecargan respondiendo consultas (Brown & Poortman, 2021), y dificultad para matching efectivo entre necesidades de aprendizaje y expertise disponible a escala (Trust & Prestridge, 2021).

      El Problema de Regulación: Cuando el Rizoma Necesita Andamiaje

      Aunque el aprendizaje rizomático gana potencia de la exploración desestructurada, puede degradarse a ruido sin mecanismos de:

      • Selección de problemas: identificar cuáles preguntas son más productivas para el desarrollo profesional colectivo
      • Precisión de preguntas: ayudar a docentes a articular necesidades de manera que facilite respuestas útiles
      • Traducción entre contextos: reconocer cuándo experiencias de un docente aplican a situaciones de otro
      • Sostenibilidad del voluntariado: mantener participación sin generar burnout

      Aquí es donde ToM emerge como mecanismo regulador interno del rizoma. ToM no reemplaza la negociación comunitaria sino que la facilita—permite “negociar conocimiento con menos fricción” al mejorar la precisión del matching, la calidad del diálogo y la distribución equitativa de carga cognitiva.

      Simulador: Rizoma Docente con/sin ToM

      Activa/desactiva Theory of Mind y observa cómo cambian los 4 problemas de regulación

      Red: Sin Regulación ToM
      Basado en Cormier (2008) y van Houten (2023) • Grezan et al. (2025)

      Theory of Mind como Capacidad Socio-Cognitiva para Sostener el Rizoma

      ToM No Es Empatía: Es Coordinación Cognitiva Medible

      Theory of Mind, definida originalmente en primatología (Premack & Woodruff, 1978), se refiere a la capacidad de atribuir estados mentales—creencias, deseos, intenciones, conocimiento—a uno mismo y otros. En humanos, ToM permite anticipar acciones, desambiguar comunicación, reparar malentendidos y coordinar contribuciones durante tareas conjuntas (Frith & Frith, 2006; Tomasello, 2010).

      Crucialmente, ToM no es sinónimo de “empatía emocional” ni “habilidades blandas” genéricas. Es una capacidad cognitiva específica que predice éxito en colaboración. Woolley et al. (2010) demostraron que un factor de inteligencia colectiva (factor c) predice desempeño grupal, y este factor c se correlaciona significativamente con sensibilidad social promedio—medida por el test “Reading the Mind in the Eyes”—pero no con inteligencia individual promedio o máxima del grupo. Estudios posteriores con 22 investigaciones y 5,279 individuos en 1,356 grupos confirmaron: el proceso de colaboración grupal es aproximadamente el doble de importante que habilidad individual para predecir inteligencia colectiva (Riedl et al., 2021).

      ToM en Modelos de Lenguaje Extensos: Evidencia Empírica Reciente

      La pregunta de si sistemas de IA poseen o pueden exhibir ToM funcional es central para determinar si pueden actuar como mediadores ToM efectivos. Evidencia acumulada de 2023-2024 sugiere una respuesta matizada: sí, pero con límites importantes.

      Kosinski (2024) evaluó 11 modelos de lenguaje en 40 tareas personalizadas de falsas creencias—el test clásico de ToM donde participantes deben razonar sobre creencias incorrectas de otros. GPT-4 resolvió 75% de tareas, mientras GPT-3.5 solo 20% y modelos más pequeños prácticamente cero. El patrón sugiere que ToM emerge como “subproducto no intencionado” de mejorar capacidades de lenguaje mediante entrenamiento en textos generados por humanos que contienen conocimiento folk-psicológico.

      La comparación más rigurosa humano-LLM proviene de Strachan et al. (2024): evaluaron GPT-4, GPT-3.5 y LLaMA2-70B contra 1,907 participantes humanos en batería ToM comprehensiva (falsas creencias, solicitudes indirectas, ironía, detección de faux pas). GPT-4 alcanzó o superó niveles humanos promedio en mayoría de tareas, luchando solo con faux pas—atribuible a programación hiperconservadora más que a fallo de inferencia. Significativamente, GPT-4 sobresalió comprendiendo solicitudes indirectas y creencias—precisamente las capacidades relevantes para contextos educativos donde necesidades pedagógicas se comunican implícitamente.

      Sap et al. (2022) ofrecen contrapeso importante: GPT-3 logró solo 55-60% precisión en benchmarks SocialIQA y ToMi, muy por debajo de humanos. Los autores argumentan que escala por sí sola es insuficiente y proponen aproximaciones centradas en personas para desarrollar ToM neural robusto—sugiriendo que IA instruccional requiere andamiaje explícito para razonamiento social/pedagógico.

      Mutual Theory of Mind en Interacción Humano-IA Educativa

      Un hallazgo crucial emerge al estudiar ToM en interacciones extendidas humano-IA: la bidireccionalidad importa. Wang et al. (2021) estudiaron 376 estudiantes en línea interaciendo con Jill Watson (asistente de enseñanza de IA) y propusieron Theory of Mind Mutua (MToM) como marco teórico para diseñar interacciones naturales de largo plazo en educación. Las percepciones estudiantiles sobre antropomorfismo e inteligencia de IA cambiaron significativamente con el tiempo, y características lingüísticas predijeron estas percepciones—indicando que inferencia ToM es un proceso dinámico donde ambas partes ajustan continuamente modelos mentales.

      Zhang et al. (2024) ofrecen matiz importante en estudio experimental con agentes de IA basados en LLM en tareas colaborativas de tiempo real. La capacidad ToM del agente no impactó significativamente el desempeño del equipo pero mejoró la comprensión humana del agente y sentimientos de ser comprendido. Sorprendentemente, comunicación verbal bidireccional disminuyó el desempeño del equipo debido a incremento de carga cognitiva humana. Esto sugiere que el valor de ToM reside más en calidad relacional (comprensión, confianza) que en ganancias directas de desempeño—altamente relevante para aprendizaje docente donde confianza en recomendaciones de IA es fundamental.

      Theory of Mind: Evidencia Empírica y Paradoja Relacional

      Explora los estudios y experimenta la paradoja: ToM mejora relación, no necesariamente desempeño

      📊 Evidencia: ToM en LLMs

      Kosinski (2024)

      Evaluó 11 modelos en 40 tareas de falsas creencias (test clásico ToM)

      Resultado: GPT-4 resolvió 75% de tareas vs. GPT-3.5 solo 20%
      75%
      Kosinski
      GPT-4
      55%
      Sap
      GPT-3
      ~100%
      Strachan
      GPT-4

      🔬 Experimenta la Paradoja

      Elige tu escenario docente:

      🔴 ToM del Agente: INACTIVO

      Desempeño en Tarea

      72%

      Tiempo / Precisión técnica

      Calidad Relacional

      45%

      Comprensión mutua / Confianza

      💡 Observa: Con ToM inactivo, la calidad relacional es baja aunque el desempeño técnico sea aceptable. Activa ToM y descubre la paradoja.
      Basado en Kosinski (2024), Sap et al. (2022), Strachan et al. (2024), Zhang et al. (2024)

      Qué Aporta la Mediación ToM a Comunidades Docentes: De lo Traditional a lo Rizomático

      El Salto Cualitativo: Más Allá del Intercambio de Recursos

      La diferencia entre comunidades docentes tradicionales y comunidades mediadas por ToM no es de grado sino de naturaleza. Wenger (1998) identificó tres dimensiones de comunidades de práctica—dominio, comunidad y práctica—pero su análisis asumía interacción cara-a-cara con alta densidad relacional. Cuando comunidades operan a distancia, con participación asincrónica y membresía fluida (características de redes profesionales virtuales contemporáneas), emergen desafíos estructurales que ToM mediada puede abordar sistemáticamente.

      La Tabla 1 sintetiza cinco transiciones conceptuales que distinguen comunidades con y sin mediación ToM explícita. Estas no son simplemente “mejoras incrementales” sino cambios en el tipo de actividad que la comunidad puede sostener.

      Tabla 1
      Transiciones Estructurales en Comunidades Docentes con Mediación Theory of Mind

      Dimensión Sin ToM Explícita Con ToM Mediada (Centauro)
      Naturaleza del intercambio Intercambio de recursos (planes, materiales, enlaces). Construcción colectiva de sentido pedagógico.
      Estructura de roles Roles fijos (experto/novato, mentor/aprendiz). Roles fluidos según el contexto de la consulta.
      Distribución del aprendizaje Aprendizaje desigual (expertos dan, novatos reciben). Aprendizaje distribuido (todos enseñan y aprenden).
      Fuente de conocimiento Dependencia de expertos designados o carismáticos. Inteligencia emergente del sistema.
      Sostenibilidad Saturación de participantes activos; alta deserción. Autorregulación comunitaria; carga distribuida.

      Desglosando las Transiciones

      De intercambio de recursos a construcción de sentido. Repositorios tradicionales de desarrollo profesional (ej. portales donde docentes suben planes de clase) funcionan bajo lógica de transferencia: un maestro crea recurso, otros lo descargan. Pero conocimiento pedagógico valioso es irreduciblemente situado—lo que funciona para estudiantes de 5° grado en contexto urbano bilingüe no transfiere automáticamente a 5° grado rural monolingüe (Lave & Wenger, 1991). ToM mediada permite negociar significado contextual: “¿Qué principio subyace a esta estrategia? ¿Qué restricciones enfrentas tú? ¿Cómo adaptaría yo esto a tu situación?” Esto transforma la comunidad de biblioteca a taller colaborativo.

      De roles fijos a roles fluidos. Estudios de comunidades de práctica documentan jerarquías implícitas donde “expertos centrales” acumulan capital social mientras “periféricos legítimos” permanecen receptores (Fuller et al., 2005). En contexto de integración de IA, sin embargo, expertise es multidimensional: un maestro con 20 años de experiencia puede ser “novato” en prompting efectivo de LLMs, mientras un maestro de 2 años con fluidez tecnológica puede ser “experto” en ese dominio. ToM mediada reconoce esta multidimensionalidad—el sistema identifica quién tiene qué expertise para qué pregunta, permitiendo que roles cambien consulta-a-consulta. Profesor Carlos es aprendiz en un intercambio, maestro en el siguiente.

      De aprendizaje desigual a distribuido. Woolley et al. (2010) demostraron que inteligencia colectiva no se correlaciona con inteligencia promedio o máxima del grupo, sino con igualdad en turnos conversacionales—grupos donde pocas voces dominan tienen menor factor c. Comunidades tradicionales frecuentemente exhiben “ley de potencia” en contribuciones: 10% de miembros generan 90% de contenido (Nielsen, 2006). ToM mediada contrarresta esto activamente: cuando sistema detecta saturación de un participante (Efecto 3 detallado posteriormente), redirige consultas; cuando detecta voz subrepresentada con expertise relevante, la invita explícitamente. Resultado: conocimiento circula más equitativamente.

      De dependencia de expertos a inteligencia emergente. Comunidades centradas en expertos carismáticos son frágiles—cuando el experto se retira, la comunidad colapsa (Wenger et al., 2002). En contraste, inteligencia emergente reside en el patrón de conexiones y la memoria transactiva colectiva—el sistema sabe “quién sabe qué” incluso si ningún individuo lo sabe todo (Wegner, 1987). Bienefeld et al. (2023) documentan que sistemas transactivos humano-IA funcionan cuando humanos desarrollan modelos mentales precisos de capacidades/limitaciones de IA. ToM mediada acelera este desarrollo: cada interacción calibra expectativas, reduciendo dependencia de cualquier nodo individual.

      De saturación a autorregulación. El problema de sostenibilidad en comunidades voluntarias es estructural: participantes altruistas responden hasta burnout, mientras otros permanecen pasivos (“free riders”) (Kollock, 1999). Detección de saturación mediante ToM permite autorregulación: sistema nota cuando Diana ha dado 15 respuestas en 7 días y su calidad declina (respuestas más breves, latencias mayores)—indicador de carga cognitiva excesiva. Sistema redistribuye proactivamente, contactando participantes con menor carga y expertise comparable. Esto no requiere intervención humana de “moderador”—es propiedad emergente de sistema con capacidad ToM funcional.

      Por Qué ToM Específicamente (No Solo “IA en General”)

      Es crucial distinguir mediación ToM de otras formas de asistencia tecnológica. Un chatbot sin ToM puede:

      • Responder preguntas con información factual
      • Recomendar recursos basándose en palabras clave
      • Generar materiales didácticos

      Un sistema con ToM funcional puede además:

      • Inferir creencias pedagógicas implícitas del maestro (constructivista vs. directa)
      • Detectar brechas de conocimiento no articuladas explícitamente
      • Anticipar malentendidos basándose en contexto de ambos participantes
      • Ajustar nivel de explicación dinámicamente

      La evidencia de Riedl y Weidmann (2025) es inequívoca: ToM predice calidad colaborativa independientemente de habilidad individual (ρ = 0.17 para colaboración, ρ = 0.06 para trabajo solo). Esto significa que un docente con ToM alta colabora efectivamente con IA incluso si su conocimiento pedagógico es promedio—porque ToM permite coordinación, clarificación oportuna, y aprovechamiento de ventajas complementarias. Inversamente, un docente con expertise pedagógica profunda pero ToM baja puede fallar en colaboración porque no anticipa limitaciones de IA ni articula contexto suficientemente.

      En comunidades peer-to-peer, esta dinámica se multiplica: cada díada maestro-maestro mediada por IA se beneficia de ToM bilateral—el consultante articula necesidad considerando estado mental del respondiente, el respondiente ajusta respuesta considerando contexto del consultante, y la IA orquesta ambas consideraciones simultáneamente.

      Desglosando las Transiciones: DE → A

      Explora cómo ToM mediada transforma comunidades rizomáticas docentes

      🔴 ANTES: Sin ToM

      🟢 DESPUÉS: Con ToM Mediada

      Basado en Lave & Wenger (1991), Woolley et al. (2010), Wegner (1987), Kollock (1999)

      De “Usar IA” a “Colaborar con IA”: Sinergia Cuantificable

      El Marco Bayesiano-IRT de Riedl y Weidmann

      Un avance metodológico crítico proviene de Riedl y Weidmann (2025), quienes introducen un marco de Teoría de Respuesta al Ítem bayesiana para cuantificar sinergia humano-IA. A diferencia de benchmarks estáticos que evalúan modelos de IA en problemas cerrados, su aproximación modela desempeño humano-IA como proceso conjunto, capturando factores específicos del usuario y fluctuaciones momento-a-momento.

      El modelo descompone probabilidad de respuesta correcta en:

      $$\text{Pr}(Y_{ij} = 1) = \begin{cases} \text{logit}^{-1}(\theta_i^{\text{humano}} – \beta_j) & \text{si trabajando solo} \ \text{logit}^{-1}([\kappa_i^{\text{humano}} + \kappa_{AI}^{\text{IA}}] – [\beta_j + \gamma_j]) & \text{si con IA} \end{cases}$$

      Donde:

      • θihumano\theta_i^{\text{humano}} = habilidad latente del usuario *i* trabajando solo
      • κihumano\kappa_i^{\text{humano}} = capacidad colaborativa del usuario con IA
      • κAIIA\kappa_{AI}^{\text{IA}} = capacidad colaborativa del modelo de IA
      • βj\beta_j = dificultad de la pregunta *j*
      • γj\gamma_j = dificultad adicional de resolver colaborativamente

      Esta estructura permite estimar el *boost* específico que cada usuario recibe: (κitotal−θihumano)(\kappa_i^{\text{total}} – \theta_i^{\text{humano}}) . Validación con datos ChatBench (n=667) sobre matemáticas, física y razonamiento moral con GPT-4o y Llama-3.1-8B reveló hallazgos transformadores:

      1. Habilidad colaborativa es empíricamente distinta de habilidad individual (θ≠κ\theta \neq \kappa )
      2. GPT-4o genera 29 puntos porcentuales de sinergia promedio; Llama-3.1-8B genera 23 puntos
      3. **Theory of Mind predice capacidad colaborativa** (ρ=0.17\rho = 0.17 , *p* < 0.001) pero *no* habilidad solo (ρ=0.06\rho = 0.06 , *p* = 0.13)
      4. Usuarios de menor habilidad ganan más de colaboración con IA (consistente con teorías de complementariedad humano-máquina)
      Fronteras Irregulares y Patrones Centauro/Cyborg

      El experimento de campo de Dell’Acqua et al. (2023) con 758 consultores de BCG estableció distinciones conceptuales ahora canónicas. Para tareas dentro de la frontera de capacidad de IA: 12.2% más tareas completadas, 25% más rápido, 40% mayor calidad. Para tareas fuera de la frontera: consultores usando IA fueron 19 puntos porcentuales peor que control.

      El concepto de “frontera irregular” (jagged frontier) es esencial: la capacidad de IA no aumenta uniformemente; hay tareas donde sobresale y otras donde falla impredeciblemente. Educadores deben aprender dónde ayuda versus perjudica la IA—conocimiento que no puede derivarse de descripciones generales sino de experimentación situada.

      Los autores identificaron dos patrones exitosos de colaboración:

      • Centauros: División estratégica de tareas—humanos manejan ciertas subtareas, IA otras, con fronteras claras
      • Cyborgs: Integración continua—humanos y IA trabajan entrelazados en todas las fases

      Significativamente, IA actuó como “nivelador de habilidad“: consultores por debajo del promedio mejoraron 43%, mientras arriba del promedio mejoraron solo 17%—efecto de complementariedad donde IA compensa debilidades más que amplifica fortalezas.

      Calibración Metacognitiva: Quién Beneficia de Colaborar con IA

      Caplin et al. (2024) identifican tres factores que determinan beneficios de asistencia de IA: Habilidad, Creencias y Calibración (ABCs). Trabajadores con creencias bien calibradas (autoevaluación precisa) hacen mejor uso de asistencia de IA. Trabajadores de baja habilidad pero bien calibrados benefician más (~10 puntos porcentuales de mejora); trabajadores de alta habilidad pero mal calibrados benefician menos. Calibración perfecta reduce desigualdad de desempeño en 61% cuando se combina con asistencia de IA.

      Trabajadores sobreconfiados cometen errores Tipo II (ignorar IA correcta); subconfiados cometen errores Tipo I (seguir IA incorrecta). Esto sugiere que entrenamiento docente debería priorizar calibración metacognitiva—ayudar a maestros a evaluar con precisión tanto sus propias capacidades como las de IA.

      Sinergia Humano-IA Cuantificable: Del Modelo Bayesiano a la Práctica

      Riedl & Weidmann (2025) • Dell'Acqua et al. (2023) • Caplin et al. (2024)

      🔬 Modelo Bayesiano-IRT de Sinergia

      Probabilidad de respuesta correcta:

      Pr(Y = 1) = {
        logit⁻¹(θ - β)             [trabajando solo]
        logit⁻¹((κₕ + κₐᵢ) - (β + γ)) [con IA]
      }
      θHabilidad latente trabajando solo κₕCapacidad colaborativa humano κₐᵢCapacidad colaborativa IA βDificultad de la pregunta γDificultad adicional colaborativa
      Hallazgo clave: θ ≠ κ empíricamente. ToM predice κ (ρ=0.17, p<0.001) pero NO θ (ρ=0.06, p=0.13). La sinergia es una capacidad distinta.
      Habilidad Solo (θ) 0.50
      Capacidad Colaborativa (κₕ) 0.70
      Dificultad Tarea (β) 0.60

      Prob. Solo

      62%

      Prob. Con IA

      78%

      Boost Sinérgico (κtotal − θ)

      +16%

      📋 Tarea Docente

      🟢 Verde: Dentro frontera IA
      🔴 Rojo: Fuera frontera IA

      ⚙️ Patrón de Colaboración

      Frontera Irregular de Capacidad IA:

      ✓ Dentro: IA sobresale
      ✗ Fuera: IA falla
      Tarea seleccionada: Generar ejercicios

      Velocidad

      +25%

      Calidad

      +40%

      Completadas

      +12%

      💡 Insight: Tarea dentro de frontera + patrón Centauro = sinergia óptima. IA maneja generación, humano curaduría crítica.
      Modelo basado en Riedl & Weidmann (2025) • n=667 ChatBench • (ejemplo ilustrativo)

      📊 Cómo Usar Este Explorador

      Guía interactiva para experimentar con el modelo de sinergia humano-IA

      Los investigadores Riedl, Weidmann y Dell'Acqua querían responder una pregunta importante: ¿cuándo trabajar con inteligencia artificial realmente ayuda a las personas, y cuándo no? Realizaron pruebas con cientos de participantes para descubrir patrones de cuándo funciona y cuándo falla la colaboración. Ahora puedes experimentar con esos descubrimientos de forma interactiva.

      🔬 Panel Superior: El Modelo Matemático

      Verás tres controles deslizantes que representan diferentes habilidades: qué tan bien trabajas solo, qué tan bien colaboras con una inteligencia artificial, y qué tan difícil es la tarea. Mueve cada barra y observa cómo cambian las probabilidades de éxito. Nota algo importante: ser bueno trabajando solo no es lo mismo que ser bueno colaborando con IA—son habilidades diferentes.

      📋 Panel Inferior: Aplicación Práctica

      Puedes elegir tareas reales que los profesores hacen todos los días. Algunas están marcadas en verde (la IA es buena en esas) y otras en rojo (la IA todavía no puede hacerlas bien). Luego selecciona cómo quieres trabajar con la IA: como un “Centauro” (división clara de subtareas) o como un “Cyborg” (trabajo integrado). Los números te mostrarán si tu elección funciona bien o no.

      ToM Mediada por IA en Comunidades Docentes: Cuatro Efectos Estructurales

      Integrando evidencia de ToM en LLMs, marcos de sinergia cuantificable y literatura de comunidades de práctica docente, proponemos que IA actuando como mediador ToM puede generar cuatro efectos estructurales en comunidades de aprendizaje peer-to-peer:

      Efecto 1: Matching Realista

      Problema: Plataformas tradicionales emparejan docentes por variables superficiales (nivel educativo, años de experiencia, área disciplinar) que no capturan compatibilidad de estados mentales—creencias pedagógicas, apertura epistemológica, necesidades de aprendizaje actuales.

      Mediación ToM: Sistemas de IA con capacidad ToM pueden inferir de diálogos iniciales: (a) creencias pedagógicas implícitas del maestro (“creo que estudiantes aprenden mejor haciendo” vs. “necesitan estructura directa primero”), (b) tipo de conocimiento que buscan (conceptual vs. procedimental, teórico vs. práctico), (c) nivel de urgencia y especificidad de consulta.

      Ejemplo conceptual: En “Red Humana Docente”, cuando Profesora Ana (educación primaria, Ciudad de México) formula consulta “mis estudiantes no participan en discusiones de ciencias”, IA analiza estructura lingüística: usa términos como “motivación intrínseca” y “preguntas abiertas”—indicadores de orientación constructivista. IA identifica Profesor Carlos (secundaria, Monterrey) que previamente compartió estrategias de indagación científica con lenguaje epistemológicamente compatible. Match propuesto incluye justificación: “Carlos ha explorado activación de participación mediante protocolos de indagación guiada—enfoque que resuena con tu énfasis en autonomía estudiantil.”

      Métricas observables: tasa de éxito de match (% de conexiones que resultan en intercambio sostenido), tiempo hasta resolución de consulta, tasas de re-conexión entre mismo par.

      Efecto 2: Transferencia de Conocimiento Tácito

      Problema: van Houten (2023) documenta que conocimiento tácito profesional no puede simplemente “transferirse”—requiere observación, cuestionamiento y práctica con retroalimentación extendida. A distancia, sin observación directa de aula, transferir “qué hace exactamente la maestra cuando maneja disrupción” es extremadamente difícil.

      Mediación ToM: IA puede andamiar explicitación de conocimiento tácito mediante prompts que detectan brechas: “Has mencionado ‘crear ambiente seguro primero’—¿podrías describir 3 acciones concretas que haces en los primeros 5 minutos de clase?” IA reconoce cuando respuesta permanece abstracta y solicita concreción adicional. Simultáneamente, IA resume para el consultante qué aspectos de la práctica compartida son más transferibles a su contexto.

      Ejemplo conceptual: Profesor Beto comparte estrategia de “recogimiento emocional” al inicio de clase con adolescentes. IA detecta que término “recogimiento” es específico-de-contexto y solicita: “¿Cómo saben tus estudiantes que es momento de recogimiento? ¿Hay señal visual/auditiva?” Respuesta: “Bajo luces, pongo música instrumental 3 minutos”. IA reformula para consultante: “Beto establece transición ritual: señal ambiental (luces bajas + música) marca cambio de modo social a modo reflexivo—duración fija (3 min) crea predictibilidad.”

      Métricas observables: Presencia de conocimiento situado en transacciones (menciones de restricciones contextuales, riesgos específicos, relatos de praxis), índice de concreción (ratio de verbos de acción vs. sustantivos abstractos), evaluación retrospectiva de aplicabilidad.

      Efecto 3: Reducción de Fricción Colaborativa y Distribución Equitativa de Carga

      Problema: Comunidades peer voluntarias frecuentemente sufren saturación desigual—ciertos maestros responden desproporcionadamente a consultas, generando burnout y eventual abandono (Brown & Poortman, 2021).

      Mediación ToM: IA monitorea carga cognitiva de participantes mediante indicadores indirectos: frecuencia de respuestas, velocidad de respuesta (respuestas apresuradas pueden indicar saturación), presencia de errores o respuestas genéricas. Cuando identifica saturación, IA puede: (a) re-dirigir consultas a otros maestros con expertise similar, (b) sintetizar previamente discusiones similares para reducir repetición, (c) descomponer consultas complejas en subpreguntas manejables.

      Ejemplo conceptual: Maestra Diana ha respondido 15 consultas en últimos 7 días sobre “lectoescritura emergente K-2”. IA detecta patrón de respuestas más breves y mayor latencia. Nueva consulta llega sobre tema similar. En lugar de notificar a Diana, IA sintetiza primero sus 3 respuestas previas más relevantes y pregunta al consultante: “Diana y otros maestros han compartido estrategias sobre esto—aquí síntesis. ¿Algún aspecto específico necesitas ampliar?” Si consulta requiere elaboración, IA sugiere Maestra Elena (experiencia similar, baja actividad reciente).

      Métricas observables: Coeficiente Gini de distribución de respuestas (0 = perfecta equidad, 1 = máxima desigualdad), tasa de retención trimestral, tiempo hasta saturación por participante activo.

      Efecto 4: Elevación del Techo Cognitivo Colectivo

      Problema: Grupos frecuentemente convergen a nivel de conocimiento del “experto local”, sin mecanismos para acceder a conocimiento fuera de red inmediata. Esto genera “techos de conocimiento” donde comunidad recicla mismas prácticas sin incorporar innovaciones externas.

      Mediación ToM: IA actúa como “memoria transactiva externa” (Bienefeld et al., 2023)—sistema que sabe “quién sabe qué” incluyendo conocimiento documental externo. Cuando comunidad enfrenta pregunta donde experiencia interna es limitada, IA puede: (a) identificar literatura académica relevante y accesible, (b) sintetizar hallazgos en lenguaje pedagógico, (c) conectar con comunidades de práctica especializadas externas.

      Ejemplo conceptual: Grupo de maestros discute inclusión de estudiantes autistas nivel 2. Discusión recicla estrategias generales (“flexibilidad”, “estructura clara”). IA detecta que nadie ha mencionado intervenciones basadas en evidencia como TEACCH, PECS o historias sociales. IA interjecta: “Investigación documenta efectividad de estructuración física y visual mediante TEACCH especialmente con estudiantes que buscan predictibilidad—¿les comparto síntesis de 3 estrategias implementables en aula regular?” Vincula además a comunidad especializada donde maestros con formación en autismo podrían ofrecer mentoría.

      Métricas observables: Tasa de introducción de conceptos noveles (términos técnicos que aparecen por primera vez), diversidad de fuentes citadas (índice Shannon de diversidad informacional), conexiones inter-comunitarias.

      ToM Mediada: Cuatro Efectos Estructurales

      Explora cómo IA como mediador ToM transforma comunidades docentes peer-to-peer

      Efecto 1: Matching Realista

      Problema: Plataformas emparejan por variables superficiales que no capturan compatibilidad de estados mentales

      Basado en van Houten (2023), Brown & Poortman (2021), Bienefeld et al. (2023)

      Implicaciones de Diseño para un Sistema Investigable

      Para hacer operacional el marco “Rizomas Centauro Mediados por ToM”, se requieren decisiones de diseño que balanceen aspiraciones conceptuales con viabilidad técnica y ética. Presentamos requisitos mínimos para un sistema que permita observar y medir los fenómenos propuestos—sin declarar ser “solución completa”.

      Arquitectura de Tres Capas

      Capa 1: Registro Estructurado de Interacción

      Sistema debe capturar no solo contenido de intercambios sino metadatos que permitan inferir ToM y calidad colaborativa:

      • Diálogos completos (no solo mensajes finales) para análisis de ajustes iterativos
      • Temporal markers: latencias de respuesta, patrones de edición, tiempos de reflexión
      • Actos de habla codificados: solicitud de clarificación, provisión de contexto, justificación de práctica, cierre metacognitivo
      • Conexión con evidencia: cuando maestros reportan “probé estrategia X”, registro de artefacto (foto de actividad, muestra estudiantil, reflexión escrita)
      Capa 2: Motor ToM mediante LLM con Prompts Especializados

      IA requiere prompts que andamien razonamiento ToM—no simplemente “responde pregunta” sino “infiere estado mental de consultante, identifica brecha de conocimiento, genera clarificación que considera contexto del maestro”. Investigaciones sobre prompting de ToM (Qiu et al., 2024) demuestran que LLMs mejoran sustancialmente cuando prompts explicitan “razona sobre creencias, metas y conocimientos de tu interlocutor”.

      Ejemplo de prompt estructurado:

      PROMPT LISTO

      Mediador pedagógico en comunidad de maestros

      Copia, pega y reemplaza [CONSULTA] y [ACCIÓN].

      Eres mediador pedagógico en comunidad de maestros. Un maestro ha formulado consulta [CONSULTA].

      Antes de responder, infiere:

      1. Creencias pedagógicas implícitas (¿qué asume sobre aprendizaje?)
      2. Conocimiento previo (¿qué parece saber ya? ¿qué desconoce?)
      3. Restricciones contextuales (¿qué limitaciones enfrenta?)
      4. Tipo de ayuda útil (¿necesita teoría, estrategia práctica, validación, red de soporte?)
      Acción

      Con base en inferencias, [ACCIÓN]: identificar 2 maestros cuya experiencia sea relevante, o solicitar clarificación si consulta es ambigua, o sintetizar discusiones previas similares.

      #comunidad #ToM #mediación #CD0
      Capa 3: Ledger Append-Only y Métricas de Calidad

      Para investigación y transparencia, interacciones se registran en estructura append-only (sin edición retroactiva) con métricas calculadas periódicamente:

      • Q-score ToM: Puntaje de inferencia ToM derivado de análisis lingüístico (presencia de marcadores de mentalización, ajustes basados en feedback, perspectiva-toma)
      • Match success rate: % de conexiones propuestas por IA que generan intercambio sostenido (≥3 turnos de conversación)
      • Time-to-resolution: Tiempo entre consulta inicial y reporte de “esto me sirvió” o implementación
      • Reuse frequency: Cuántas veces estrategias compartidas son reportadas como “probé esto” por otros maestros
      • Saturation index: Medida de distribución equitativa de participación
      Consideraciones Éticas y de Privacidad

      Sistema propuesto genera tensiones éticas que requieren diseño deliberado:

      1. Consentimiento informado explícito: Maestros deben saber que IA analiza diálogos para matching, que interacciones se registran para investigación (anonimizadas), y tener opción de opt-out sin penalización.
      2. Anonimización por defecto con pseudónimos persistentes: Investigadores acceden a datos con identificadores como “Maestro_A7G3” que permiten análisis longitudinal sin revelar identidades reales. Participantes eligen cuánto revelan a pares (nombre real, escuela, foto opcional).
      3. Transparencia algorítmica parcial: IA explica por qué sugiere matches (“Carlos ha trabajado con protocolos de indagación científica”)—pero no expone puntajes ToM individuales que podrían generar ansiedad comparativa.
      4. Derecho a desconexión y eliminación: Maestros pueden solicitar eliminación de datos personales (GDPR-compatible), aunque contribuciones anonimizadas previas permanecen en registro para investigación.

      Agenda de Investigación 2025-2027: Hipótesis Cuantificables

      Para transformar marco conceptual en programa investigable, proponemos cuatro hipótesis con variables observables y predicciones específicas:

      H1: ToM Predice Sinergia en Colaboración Docente Humano-IA

      Hipótesis: Docentes con mayores indicadores de Theory of Mind (medidos por precisión contextual en consultas, ajustes iterativos basados en feedback, cierre metacognitivo) exhibirán mayor “capacidad colaborativa” (κ\kappa en modelo Riedl-Weidmann) cuando trabajen con asistencia de IA—controlando por habilidad pedagógica individual (θ\theta ).

      Variables operacionales:
      • VI: Q-score ToM (derivado de análisis LMRA de diálogos maestro-IA; ver Elounda et al., 2024)
      • VD: κi\kappa_i (capacidad colaborativa estimada vía Bayesian IRT sobre tareas de diseño instruccional con vs. sin IA)
      • Covariables: Años de experiencia docente, nivel educativo, área disciplinar

      Predicción: Correlación positiva significativa entre Q-score ToM y κi\kappa_i (esperado r≥0.20r \geq 0.20 , p<0.01p < 0.01 ), independiente de θi\theta_i .

      Método: Estudio longitudinal con 150-200 docentes durante 6 meses usando plataforma con motor ToM activado/desactivado (diseño cruzado).

      H2: ToM Reduce Carga Desigual y Mejora Sostenibilidad

      Hipótesis: Comunidades con mediación ToM activa exhibirán menor desigualdad en distribución de carga colaborativa y mayor retención trimestral que comunidades sin mediación.

      Variables operacionales:

      • VI: Presencia de mediación ToM (comunidades asignadas aleatoriamente a condición ToM-on vs. ToM-off)
      • VD1: Coeficiente Gini de distribución de respuestas (medido mensualmente)
      • VD2: Tasa de retención al T3 (% de participantes activos en mes 1 que permanecen activos en mes 3)

      Predicción: Comunidades ToM-on mostrarán Gini promedio ≤0.35 vs. ≥0.50 en ToM-off; retención 65%+ vs. 40-45%.

      Método: Diseño experimental con 20 comunidades (10 por condición), N≈25 docentes por comunidad, seguimiento durante 12 meses.

      H3: ToM Incrementa Presencia de Conocimiento Situado

      Hipótesis: Interacciones mediadas por ToM contendrán mayor densidad de conocimiento situado—restricciones contextuales, riesgos específicos, relatos de praxis—que interacciones sin mediación.

      Variables operacionales:

      • VI: Mediación ToM (presente/ausente)
      • VD: Índice de Conocimiento Situado = (menciones de contexto + relatos de práctica + restricciones identificadas) / total de turnos conversacionales

      Predicción: ICS promedio ≥0.40 en condición ToM vs. ≤0.25 sin ToM.

      Método: Análisis de contenido de 500 diálogos (250 por condición) usando codificación temática automatizada con validación humana.

      H4: Andamiaje ToM Mejora Calidad de Pregunta y Reduce Iteraciones de Clarificación

      Hipótesis: Cuando IA provee andamiaje ToM (prompts que explicitan “considera contexto de tu colega”), docentes formularán preguntas más precisas—reduciendo iteraciones de clarificación necesarias y tiempo hasta respuesta útil.

      Variables operacionales:

      • VI: Prompts con andamiaje ToM explícito vs. prompts neutrales
      • VD1: Especificidad de consulta (presencia de contexto, restricciones, intentos previos)
      • VD2: Número de turnos de clarificación antes de respuesta sustantiva
      • VD3: Tiempo hasta reporte de “respuesta útil”

      Predicción: Condición ToM requerirá ≤2 turnos de clarificación vs. ≥4 en neutral; tiempo hasta utilidad ≤48h vs. ≥96h.

      Método: Experimento aleatorizado 2×2 (andamiaje sí/no × experiencia docente alta/baja), N=100 docentes.

      Agenda de Investigación 2025-2027: Visualizando las Hipótesis

      Traduce conceptos técnicos en experiencias comprensibles

      H1: ToM Predice Sinergia en Colaboración Docente Humano-IA

      Predicción: Correlación r≥0.20 entre ToM y capacidad colaborativa (κ). Lo que significa: docentes con mayor ToM aprovechan mejor la IA.

      📊 Interpretación: Si esta hipótesis se confirma, entrenar ToM en docentes podría ser más efectivo que solo enseñar “cómo usar IA”.
      Hipótesis basadas en Riedl & Weidmann (2025), van Houten (2023), diseño experimental 2025-2027

      Conclusión: No IA Reemplaza, Sino IA Media la Coordinación

      Este artículo ha argumentado que la pregunta productiva sobre IA en desarrollo profesional docente no es “¿qué habilidades perderemos?” sino “¿qué capacidades se vuelven más críticas?”. Evidencia convergente de ciencias cognitivas (Woolley et al., 2010), estudios de colaboración humano-IA (Riedl & Weidmann, 2025; Dell’Acqua et al., 2023), y Theory of Mind en LLMs (Kosinski, 2024; Strachan et al., 2024) sugiere una respuesta: coordinación socio-cognitiva mediada por Theory of Mind.

      El marco “Rizomas Centauro Mediados por ToM” reposiciona IA no como fuente autoritativa de conocimiento pedagógico, sino como mediador que facilita negociación comunitaria de significado—la esencia del aprendizaje rizomático (Cormier, 2008). Tres contribuciones distinguen esta propuesta de aproximaciones previas:

      Primero, es medible. A diferencia de discursos aspiracionales sobre “aprendizaje personalizado” o “comunidades empoderadas”, el marco propone variables operacionales específicas (Q-score ToM, capacidad colaborativa κ, índice de conocimiento situado) y métodos establecidos (Bayesian IRT, análisis LMRA, coeficientes de desigualdad). Esto permite evaluar empíricamente cuándo, por qué y para quién la mediación ToM mejora aprendizaje—moviendo el campo de afirmaciones basadas en opinión hacia evidencia sistemática.

      Segundo, reconoce límites. La investigación sobre “fronteras irregulares” (Dell’Acqua et al., 2023) y ToM contextual (Sap et al., 2022) documenta que IA falla impredeciblemente. El marco no asume que IA “resolverá” desarrollo profesional docente, sino que puede mejorar aspectos específicos: matching por compatibilidad epistémica, explicitación de conocimiento tácito, distribución equitativa de carga, conexión con expertise externa. Maestros retienen agencia sobre cuándo confiar versus cuestionar recomendaciones de IA—calibración metacognitiva es competencia central (Caplin et al., 2024).

      Tercero, prioriza relación sobre rendimiento. Hallazgo de Zhang et al. (2024)—ToM mejora percepción de comprensión sin necesariamente elevar desempeño inmediato—es contraintuitivo pero pedagógicamente profundo. En desarrollo profesional docente, sentirse comprendido por sistema de mediación no es “variable blanda” sino prerequisito para participación sostenida. Comunidades peer voluntarias colapsan cuando maestros sienten que sus contextos específicos (restricciones institucionales, poblaciones estudiantiles particulares, recursos limitados) son invisibilizados por soluciones genéricas. ToM hace visible lo específico.

      Direcciones Futuras: De Proof-of-Concept a Infraestructura

      La agenda de investigación propuesta (H1-H4) representa primeros pasos hacia validación empírica. Si hipótesis se confirman, emergen preguntas de segunda generación:

      1. ¿Cómo escalabilizar sin centralizar? Sistemas peer-to-peer enfrentan tensión entre alcance (más maestros = más expertise potencial) y calidad (más maestros = más ruido). Arquitecturas federadas donde comunidades locales mantienen autonomía pero comparten infraestructura ToM podrían ofrecer balance.
      2. ¿Cómo mantener conocimiento local mientras aprende globalmente? IA podría identificar patrones exitosos en comunidad A (ej. “andamiaje de escritura con bilingües emergentes”) y sugerir adaptaciones contextualizadas a comunidad B—pero sin imponer soluciones descontextualizadas.
      3. ¿Cómo certificar sin burocratizar? Si maestros desarrollan expertise verificable mediante participación sostenida (contribuciones citadas frecuentemente, reporte de implementación exitosa), ¿podría comunidad emitir credenciales peer-validated que sistemas formales reconozcan?

      El horizonte más transformador es uno donde desarrollo profesional docente no sea experiencia aislada (taller anual, curso en plataforma MOOC) sino práctica continua—comunidad rizomática donde maestros negocian conocimiento diariamente, mediados por IA que hace coordinación menos costosa cognitivamente sin eliminar la negociación humana que genera aprendizaje genuino.

      En palabras de Wenger (1998, p. 7): “El aprendizaje no puede diseñarse—sucede, diseño o no diseño. Pero puede facilitarse o frustrarse”. Este artículo ha propuesto que IA con capacidades Theory of Mind no diseña el aprendizaje docente—facilita la coordinación que hace posible el aprendizaje emergente.

      Sintesis del Rizoma Centauro
      Referencias
      Bienefeld, N., Grote, G., & Müller, D. (2023). Human-AI teaming: Leveraging transactive memory and speaking up for enhanced team effectiveness. Frontiers in Psychology, 14, Article 1208019. https://doi.org/10.3389/fpsyg.2023.1208019
      Brown, C., & Poortman, C. L. (2021). Professional learning networks: A conceptual model and research opportunities. Educational Research, 63(4), 403–420. https://doi.org/10.1080/00131881.2021.1985398
      Caplin, A., Deming, D. J., Li, S., Martin, D. J., Marx, P., Weidmann, B., & Ye, K. J. (2024). The ABC’s of who benefits from working with AI: Ability, beliefs, and calibration. Management Science (Accepted). http://dx.doi.org/10.2139/ssrn.4925394
      Chiu, T. K. F., & Zhou, Y. (2024). Artificial intelligence in teaching and teacher professional development: A systematic review. Computers and Education: Artificial Intelligence, 7, Article 100158. https://doi.org/10.1016/j.caeai.2024.100158
      Cormier, D. (2008). Rhizomatic education: Community as curriculum. Innovate: Journal of Online Education, 4(5), Article 2. https://nsuworks.nova.edu/innovate/vol4/iss5/2
      Darling-Hammond, L., Hyler, M. E., & Gardner, M. (2017). Effective teacher professional development. Learning Policy Institute. https://learningpolicyinstitute.org/product/teacher-prof-dev
      Deleuze, G., & Guattari, F. (1987). A thousand plateaus: Capitalism and schizophrenia (B. Massumi, Trans.). University of Minnesota Press. (Original work published 1980)
      Dell’Acqua, F., McFowland III, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality. Harvard Business School Working Paper No. 24-013. https://doi.org/10.2139/ssrn.4573321
      El-Rashidy, S. (2022). Teachers’ virtual communities of practice: A strong response in times of crisis or just another fad? Education and Information Technologies, 27, 7389–7415. https://doi.org/10.1007/s10639-021-10857-w
      Elounda, T., Beutel, A., Robinson, D. G., Gu-Lemberg, K., Brakman, P. M., Mishkin, M., Shah, M., Heidecke, J., Weng, L., & Kalai, A. T. (2024). First-person fairness in chatbots. arXiv:2410.19803. https://arxiv.org/abs/2410.19803
      Frith, U., & Frith, C. D. (2006). The neural basis of mentalizing. Neuron, 50(4), 531–534. https://doi.org/10.1016/j.neuron.2006.05.001
      Gal, M. S., et al. (2024). Effective generative AI: The human-algorithm centaur. Harvard Data Science Review, Special Issue 5. https://doi.org/10.1162/99608f92.c16c696e
      Giannakos, M., Azevedo, R., & Kester, L. (2024). AI literacy and its implications for prompt engineering strategies. Computers and Education: Artificial Intelligence, 6, Article 100206. https://doi.org/10.1016/j.caeai.2024.100206
      Kosinski, M. (2024). Evaluating large language models in theory of mind tasks. Proceedings of the National Academy of Sciences, 121(45), e2405460121. https://doi.org/10.1073/pnas.2405460121
      Misfeldt, M., & Jankvist, U. T. (2025). Generative AI in teacher education: Educators’ perceptions of transformative potentials. Computers and Education: Artificial Intelligence, 8, Article 100347. https://doi.org/10.1016/j.caeai.2024.100347
      Poortman, C. L., Brown, C., & Schildkamp, K. (2020). Professional learning networks: From teacher learning to school improvement? Journal of Educational Change, 21, 1–18. https://doi.org/10.1007/s10833-019-09363-y
      Premack, D., & Woodruff, G. (1978). Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences, 1(4), 515–526. https://doi.org/10.1017/S0140525X00076512
      Qiu, S., Liu, M., Li, H., Zhu, S. C., & Zheng, Z. (2024). Minddial: Enhancing conversational agents with theory-of-mind for common ground alignment and negotiation. arXiv:2403.08811. https://arxiv.org/abs/2403.08811
      Riedl, C., Kim, Y. J., Gupta, P., Malone, T. W., & Woolley, A. W. (2021). Quantifying collective intelligence in human groups. Proceedings of the National Academy of Sciences, 118(21), e2005737118. https://doi.org/10.1073/pnas.2005737118
      Riedl, C., & Weidmann, B. (2025). Quantifying human-AI synergy. PsyArXiv Preprint. https://doi.org/10.31234/osf.io/x8j2t
      Sap, M., Le Bras, R., Fried, D., & Choi, Y. (2022). Neural theory-of-mind? On the limits of social intelligence in large LMs. Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 3762–3780. https://doi.org/10.18653/v1/2022.emnlp-main.248
      Shojaee, P., et al. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. arXiv:2501.03661. https://arxiv.org/abs/2501.03661
      Strachan, J. W. A., Albergo, D., Borghini, G., Pansardi, O., Scaliti, E., Gupta, S., Saxena, K., Rufo, A., Panzeri, S., Manzi, G., Panzeri, G., De Cicco, R., Truzzi, A., Becchio, C., & Pezzulo, G. (2024). Testing theory of mind in large language models and humans. Nature Human Behaviour, 8(7), 1285–1295. https://doi.org/10.1038/s41562-024-01882-z
      Tomasello, M. (2010). Origins of human communication. MIT Press.
      Trust, T., & Prestridge, S. (2021). The interplay of five elements of influence on educators’ PLN actions. Teaching and Teacher Education, 97, Article 103195. https://doi.org/10.1016/j.tate.2020.103195
      van Houten, M. M. (2023). Professional tacit knowledge sharing in practice: Agency, boundaries, and commitment. Journal of Workplace Learning, 35(9), 197–217. https://doi.org/10.1108/JWL-02-2023-0025
      Wang, Q., Saha, K., Gregori, E., Joyner, D. A., & Goel, A. K. (2021). Towards mutual theory of mind in human-AI interaction: How language reflects what students perceive about a virtual teaching assistant. Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems, Article 384, 1–14. https://doi.org/10.1145/3411764.3445645
      Wei, R. C., Darling-Hammond, L., Andree, A., Richardson, N., & Orphanos, S. (2009). Professional learning in the learning profession: A status report on teacher development in the U.S. and abroad. National Staff Development Council.
      Wenger, E. (1998). Communities of practice: Learning, meaning, and identity. Cambridge University Press.
      Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). Evidence for a collective intelligence factor in the performance of human groups. Science, 330(6004), 686–688. https://doi.org/10.1126/science.1193147
      Yang, X., Cheng, P.-Y., & Huang, Y.-M. (2021). Understanding teacher learning through teacher-created knowledge products and transactions. SAGE Open, 11(3), Article 21582440211032659. https://doi.org/10.1177/21582440211032659
      Zhang, S., Wang, X., Zhang, W., Schuurmans, D., Bosma, M., Xia, F., Chi, E., Le, Q. V., & Zhou, D. (2024). Mutual theory of mind in human-AI collaboration: An empirical study with LLM-driven AI agents in a real-time shared workspace task. arXiv:2409.08811. https://arxiv.org/abs/2409.08811
       
      Leave a Reply

      Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *