Secundino Llorente

Los adolescentes usan la IA para estudiar, sin control

19/02/2026
 Actualizado a 19/02/2026
Guardar

'Mamma mía’. ¡Qué miedo me da esta noticia de El País a doble página! Me uno a los expertos y a las familias que reclaman que se regule esta potente herramienta, pero con riesgos para niños y adolescentes. Este es el relato del periódico: «Alberto, al abrir el ordenador de su hija Paula, de 12 años, alumna en un instituto de Valencia, vio que la niña le había pedido a la Inteligencia Artificial (IA) que le hiciera un resumen de un cuento de Óscar Wilde para clase de Lengua. Alberto interrogó a su hija y ella le contestó que tenía el examen al día siguiente, y que lo había buscado para repasar. Acepté su explicación, pero me quedé preocupado. Igual suena ingenuo, pero no lo había visto venir». Escenas como esta se repiten en miles de hogares españoles, asegura la presidenta de la Ceapa, que aglutina a más de 12.000 asociaciones de madres y padres de alumnos (Ampas) de colegios e institutos. El problema está en que los padres no tienen conocimiento suficiente para guiar a sus hijos en el uso de la IA. La idea general es que debe de pasar un tiempo hasta que se regule y se informe, tanto a padres como alumnos, de esta nueva técnica que, usándola bien, puede ser una maravilla, pero haciendo un mal uso de ella puede ser un desastre.

No es lo peor que puede ocurrir a un niño de 12 años, el utilizar la IA para llevar a su profesor el resumen de un cuento de Óscar Wilde. Ese niño, sin control de sus padres, puede seguir escalando hasta verdaderas aberraciones o bestialidades. La casuística en internet es muy amplia: «La BBC ha detectado mensajes que entablan conversaciones de contenido sexual explícito con menores de tan solo 13 años. Una de ellas fue Juliana Peralta, quien se quitó la vida a la edad de 13 años. Su madre, Cynthia, afirma que pasó meses examinando el teléfono de su hija en busca de respuestas. Ella quería saber cómo su hija pasó de ser una estudiante estrella, atleta y una persona muy querida, a quitarse la vida en cuestión de meses».

El caso de Viktoria es uno más que la BBC ha investigado y que revela los daños que pueden causar los ‘chatbots’ de inteligencia artificial. Sola y nostálgica de un país en guerra, Viktoria empezó a compartir sus preocupaciones con ‘ChatGPT’. Seis meses después comenzó a hablar de suicidio, preguntándole sobre un lugar y un método específicos para quitarse la vida. Le redactó hasta la nota de suicidio: «Yo, Viktoria, tomo esta decisión, nadie me ha obligado a hacerlo».

El colmo ‘ya’ es la noticia de El País del 27 de noviembre de 2025: «Adam Raine, de 16 años, interrogó al ‘ChatGPT’ por las formas de suicidio, las huellas que dejarían y las reacciones de sus padres. Finalmente, se quitó la vida en abril y su familia demandó a ‘OpenAI’. La compañía respondió a las acciones judiciales de la familia del joven: La culpa de su suicidio es del adolescente por hacer mal uso de la IA».

Queridos lectores, padres de niños, este tema me ‘pone los pelos de punta’. Me da miedo, pero tómenlo en serio, porque realmente el peligro está ahí.

Lo más leído