Ya casi no me sorprendo de nada, pero hay noticias que me obligan a pensar que el mundo está cambiando tanto y tan deprisa que mi mente no es capaz de asimilar con facilidad lo que está sucediendo. Imagina que un día te levantas relajado y recibes un Whatsapp avisándote de que circula un vídeo tuyo por las redes sociales de algo que tú no sabes nada y ni tan si quiera se te ha pasado por la cabeza. Lo analizas y te das cuenta de que han usado la Inteligencia Artificial para poner tu cara en ese vídeo. En las redes sociales esto se difunde como la pólvora y, como el vídeo parece tan real, resulta muy difícil detectar que es falso. Ya te han cargado para siempre el sambenito. No me negarán ustedes que es «un mundo de locos».
Esto ocurrió hace unos días en Almendralejo. La noticia acaparó durante unos días la portada en los periódicos y abría los telediarios. 22 niñas de 11 a 17 años vienen asustadas a sus casas para decir a sus madres que su cuerpo desnudo está en los Whatsapp de todo el pueblo. Hay 10 presuntos autores implicados, menores de edad, de cuatro centros educativos del pueblo. El temor de los padres es que las imágenes se suban a webs pornográficas.
Conocí Almendralejo hace muchos años. Allí empecé mi andadura como profesor en el colegio Santa Ana, el único que en aquel momento había en la zona, con más de mil alumnos que iban desde los cuatro hasta los veinte años. Era una dedicación completa a un grupo y a mí me tocaron los de doce años. Es la Tierra de Barros en la que el polvo de los caminos cubría los pies y cuando llovía se convertía en barro. ¿Cómo me iba a imaginar yo que aquel pueblo y aquellos niños de 12 años iban a estar en boga por una noticia de este tipo?
Las fotos desnudas llevadas a cabo con inteligencia artificial (IA), conocidas como ‘deepfakes’, fueron realizadas con la aplicación ‘ClothOff’. Estos ‘deepfakes’ son reproducciones hiperrealistas que lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo. Bajo el lema «Desnuda a cualquiera, desnuda a una chica gratis», la aplicación permite desvestir a cualquier persona que aparezca en una fotografía en la galería de imágenes del teléfono. Cuesta 10 euros usar la Inteligencia Artificial para crear 25 imágenes de personas sin ropa. Y todos estos problemas aparecen al llegar la Inteligencia Artificial que es una tecnología nueva y aún misteriosa, pero que ya está aquí, en nuestras vidas. Es capaz de realizar tareas que requieren inteligencia humana. Nadie pone en duda que esta herramienta es positiva, si la utilizas con buenas intenciones, pero si la utilizas mal, como ocurrió con los muchachos de Almendralejo, te enfrentarás a posibles delitos. En medicina esta tecnología se está utilizando para detectar posibles tumores. En la enseñanza es una amenaza peligrosa y los profesores universitarios comentan que un trabajo de investigación o una tesis doctoral que llevaría a un alumno cinco años de trabajo, la IA te la ofrece perfectamente redactada en una hora y, en cuanto a los ‘deepfakes’, en el museo Dalí de Florida podemos encontrar un ‘deepfake’ del pintor, que nos presenta sus obras y hasta se hace selfies con los visitantes. Estamos convencidos de que esta herramienta, utilizada para un buen fin de ayuda a la ciudadanía y dentro de unos principios éticos, será importante en el futuro. Pero en este caso, su utilización ha sido pésima. Hasta ahora la mayoría eran bromas, pero la reciente publicación de vídeos como el de Almendralejo, ha empezado a generar preocupación: ¿qué se debe de hacer respecto a un ‘deepfake’? Es verdad que regular la tecnología en sí no parece una opción razonable. Deberíamos movernos en el siempre delicado equilibrio que existe entre la libertad informativa y los derechos relativos al honor, a la intimidad y a la propia imagen. Como decíamos, la tecnología en sí misma es neutra. Pero los tribunales tendrán que estar atentos a estas evoluciones tecnológicas en una sociedad para garantizar un entorno digital seguro y veraz. La ley va un paso por detrás de la tecnología y nos encontramos con un vacío legal. Ciertamente puede haberse iniciado como una broma, pero la trascendencia es preocupante y una auténtica barbaridad y pensamos que puede tener consecuencias graves para los que hayan elaborado estas fotografías, aunque sean menores de edad. Este tipo de montajes atenta contra la intimidad de las protagonistas, aunque el cuerpo no sea real, y sus autores deben ser castigados. Los padres de las niñas aseguraban que «esto no es un juego: es un delito». Por otra parte, lo que importa es el delito en sí, no la herramienta tecnológica que se utilice para ello. A partir del caso de Almendralejo, ha salido a la luz que, en Ayamonte, Huelva, se investiga a un menor por desnudar a veinte compañeras, pero aquí la manipulación no tiene nada que ver con la IA, sino con el Photoshop de siempre.