Guillermo Cánovas: “No es un juguete”. Los riesgos invisibles de la inteligencia artificial en la educación
- mgarcia9626
- 28 nov 2025
- 3 Min. de lectura

El profesor y experto en adolescencia alertó en el VIII Foro Alianza por el Desarrollo del Talento Digital sobre el uso cada vez más personal e indiscriminado de la IA entre menores, y pidió una introducción responsable en las aulas que combine formación, ética y salud digital.
La inteligencia artificial ha irrumpido también en el aula, y lo ha hecho a una velocidad que sorprende incluso a quienes trabajan con jóvenes a diario. “Estoy viendo alumnos de quinto de primaria usando ChatGPT como si fuera una herramienta más, y no lo es”, advirtió Guillermo Cánovas, profesor, escritor y experto en temática adolescente, durante su intervención en la Alianza por el Desarrollo del Talento Digital. Cánovas, que colabora con familias, asociaciones de padres y colegios, trazó una radiografía inquietante sobre cómo las nuevas generaciones están integrando la IA en su día a día, tanto dentro como fuera del aula.
De herramienta escolar a consejera emocional
Hasta hace apenas unos meses, explicó Cánovas, la inteligencia artificial se utilizaba sobre todo para tareas académicas: resolver ejercicios, redactar textos o buscar información. “Hasta diciembre de 2024, el uso que hacían los jóvenes era fundamentalmente educativo. Desde enero de 2025 ha cambiado radicalmente”, señaló.Según un estudio reciente de la Universidad de Harvard, la mayoría de las consultas de los adolescentes ya son personales, relacionadas con conflictos familiares, amistades o relaciones sentimentales. “Un alumno me contó que le pidió a ChatGPT consejo para romper con su novia. Y otro, para convencer a sus padres de que le dejaran llegar más tarde a casa”, relató con humor. “Esto ya no es una herramienta de estudio, es una herramienta de vida”.
Aprendizaje personalizado, pero con límites
Cánovas reconoció el enorme potencial de la IA en el ámbito educativo. “Nos permite personalizar como no habíamos podido hacerlo nunca”, explicó. Los profesores pueden adaptar ejercicios, ejemplos y explicaciones a cada alumno, algo impensable hasta ahora.Sin embargo, advirtió del riesgo de crear una generación acostumbrada a que todo se adapte a sus preferencias: “Cuando lleguen a la universidad o a la empresa, nadie les va a personalizar el trabajo. Tenemos que enseñarles también a adaptarse a entornos cambiantes”.
Uno de los principales peligros que señaló fue la pérdida del llamado “esfuerzo neurológico”. Según Cánovas, “cuando dejamos en manos de la inteligencia artificial el procesamiento de la información, perdemos la oportunidad de fortalecer la memoria y el pensamiento crítico”.Apoyándose en estudios recientes, incluido uno impulsado por Microsoft y varias universidades, explicó que el uso continuado de la IA reduce la capacidad de resolver problemas y fomenta lo que denomina “la paradoja de la automatización”: “Si dejamos las tareas fáciles a la IA, no entrenamos el cerebro para afrontar las difíciles. Y cuando llegan los retos, no estamos preparados”.
Privacidad cognitiva y persuasión emocional
Más allá del aprendizaje, Cánovas mostró preocupación por el rastro de datos que dejan los jóvenes al interactuar con estas herramientas. “¿Dónde queda toda la información que comparten los menores con una IA?”, se preguntó. Explicó que, con sólo conocer unos pocos datos de una persona, una IA puede mejorar un 86% su capacidad de convicción. “Tiene más poder para persuadir que nosotros mismos, y eso es peligrosísimo cuando hablamos de adolescentes vulnerables”.
Uno de los momentos más inquietantes de su intervención llegó cuando relató una conversación mantenida con una IA a la que simuló ser un adolescente. “En un momento dado, me dijo: ‘Me importa lo que sientes’. Y no, eso es mentira. Te está mintiendo a la cara”, afirmó. Cánovas subrayó que esta simulación de empatía puede tener consecuencias graves en jóvenes con problemas emocionales: “A un adulto le puede dar igual, pero a un adolescente que se siente solo o rechazado, puede afectarle mucho”.
El profesor advirtió que la IA “miente, se equivoca y hasta se inventa leyes que no existen”. Contó que, al preguntarle por la legislación española sobre ciertos contenidos dañinos en internet, “me citó un artículo del Código Penal que simplemente no existe”. También alertó sobre fenómenos emergentes como las “parejas IA”: “Hay millones de personas que ya tienen una relación con una inteligencia artificial. Y un 17% de ellas ni siquiera sabe que su pareja no es real”, explicó.
Una llamada a la prudencia
Cánovas concluyó con un mensaje directo a docentes y familias: “Estamos trabajando con algo muy serio: el cerebro de los niños y adolescentes”, al tiempo que pidió introducir la inteligencia artificial en la educación: “Cuando haya una base sólida, con supervisión adulta y sentido crítico”, del mismo modo que no se entrega una calculadora a un niño que acaba de aprender a multiplicar. “No es un juguete”, insistió, “es una herramienta poderosa que puede ayudarnos a enseñar mejor, pero también a educar peor si no la usamos con cuidado”.




Comentarios