EdTech Congress Barcelona 2026: Reimaginar la educación y la formación en la era de la inteligencia artificial

Imagen en el auditorio del congreso
Imagen en el auditorio del congreso Edtech 2026. Elaboración propia

Los días 4 y 5 de febrero, el EdTech Congress Barcelona 2026 reunió a los principales actores del sector bajo el lema «Reimaginar la educación y la formación en la era de la inteligencia artificial». En un contexto marcado por la entrada en vigor de la Ley de IA de la Unión Europea (AI Act) en su totalidad, el congreso no solo mostró herramientas, sino que profundizó en la responsabilidad de la comunidad educativa ante una tecnología que definieron como «(in)evitable».

¿Qué es lo que nos hace verdaderamente humanos?

Uno de los puntos álgidos del evento fue la intervención del antropólogo Ignacio Martínez Mendizábal quien situó la esencia de lo humano más allá del procesamiento de datos. Mientras la IA destaca por descubrir regularidades y sistematizar patrones a gran velocidad, la mente humana funciona como un simulador de futuros.

Esta capacidad de imaginar escenarios posibles y, sobre todo, de idear y planificar procesos para alcanzarlos, es lo que nos define. Como se ejemplificó en el congreso, ideas culturales o sociales como la de formar castells (torres humanas) nacen de valores y voluntades que difícilmente podría generar una IA de forma autónoma.

¿Qué delegamos y qué no? La importancia de la autorregulación

El debate sobre la delegación tecnológica fue central. Para entender el impacto en el aprendizaje, se analizaron los tres niveles de riesgo propuestos por Cristóbal Cobo, reconocido especialista internacional en tecnología y educación:

  • Nivel operativo: Delegamos tareas técnicas o mecánicas que no afectan al razonamiento, como traducciones automáticas o transcripciones de audio a texto.
  • Nivel epistémico: Es el punto de mayor riesgo para la educación, ya que delegamos la construcción del conocimiento al pedir a la IA que realice resúmenes o extraiga ideas principales, lo que puede derivar en una comodidad cognitiva que apaga el pensamiento propio.
  • Nivel representacional: Es el grado máximo de delegación, donde permitimos que la IA tome nuestra voz o nos represente, perdiendo nuestra propia agencia y capacidad de decisión.

En un momento donde la humanidad parece haber estancado su cociente intelectual (Efecto Flynn inverso o negativo), es vital decidir qué procesos cognitivos debemos proteger para evitar la erosión de nuestras habilidades fundamentales o deskilling. Ante este riesgo, se propuso una dieta cognitiva que equilibre los «azúcares de efecto rápido» (IA) con «platos de digestión lenta» como la lectura profunda y la escritura manual. Expertos como Cristóbal Cobo y Mariana Ferrarelli reivindicaron la pedagogía de la lentitud: el aprendizaje real requiere enfrentarse con textos complejos y aprender del disenso frente a una IA a menudo complaciente.

El objetivo es fomentar la autorregulación frente a la restricción. Esto significa que, en lugar de imponer prohibiciones externas, que se consideran una vía sencilla que no prepara para la realidad, el sistema educativo debe enseñar activamente al alumnado a gestionar su propia relación con la IA. Autorregularse implica que el estudiante desarrolle el criterio necesario para identificar cuándo la IA es una ayuda útil y cuándo su uso erosiona sus propias habilidades críticas y limita su crecimiento intelectual.

Recomendaciones pedagógicas para el aula

Para integrar esta autorregulación en el día a día escolar, el congreso destacó varias líneas de actuación:

  • Combatir la antropomorfización: Enseñar que la IA es una herramienta de cálculo y no un ser humano, evitando otorgarle una autoridad o conciencia que no posee.
  • Guía docente frente a vacíos: La IA suele ocupar los huecos que la sociedad y la educación dejan desatendidos; es responsabilidad del profesorado guiar al alumnado para que no recurra a herramientas externas por falta de orientación institucional.
  • Ayuno digital selectivo: Delimitar claramente espacios sin IA para proteger la lectura profunda y el aprendizaje tradicional como base del alfabetismo digital. En contraste, los espacios con IA se presentan como una oportunidad para la creación de actividades significativas. Ejemplos pueden ser la investigación crítica, donde el alumnado investiga un tema y utiliza la IA para generar ideas que debe revisar y corregir. Otra propuesta son los laboratorios de disenso, donde se usa la IA para generar argumentos opuestos que obliguen al estudiante a defender su postura desde el pensamiento crítico.
  • Responsabilidad y marco legal: Priorizar soluciones técnicas del contexto Edtech que garanticen que la supervisión final siempre recae en el docente y que los datos se mantienen bajo control soberano en servidores europeos para respetar las indicaciones de la Ley de IA de la Unión Europea (AI Act). En este sentido, se ha constatado en el congreso cómo el cumplimiento normativo es ya una realidad tangible en el sector

El EdTech Congress 2026 nos recuerda que la tecnología no debe ser el fin, sino el medio para potenciar lo que nos hace humanos. La verdadera innovación en nuestras aulas vendrá de nuestra capacidad para educar ciudadanos críticos, capaces de autorregularse y de decidir qué parte de su inteligencia delegan y cuál cultivan con esfuerzo.