Las herramientas que permiten a los adolescentes crear imágenes falsas de desnudos de otros están comprometiendo la seguridad infantil, y los padres deben involucrarse. Con el regreso de los estudiantes a las aulas este otoño, muchos docentes se preocupan por las nuevas herramientas de IA que obstaculizan el aprendizaje. Sin embargo, se está desarrollando una tendencia aún más preocupante en el uso de IA: niños mayores están empezando a usar aplicaciones de "desnudez" para crear desnudos falsos de sus compañeros. Tras algunas noticias sobre incidentes en lugares como California y Nueva Jersey , la prevalencia de este fenómeno no está clara, pero parece que aún no ha desbordado las escuelas. Esto significa que ahora es el momento de que padres y escuelas planifiquen proactivamente la prevención y la respuesta a este uso degradante e ilegal de la IA. Riana Pfefferkorn, investigadora de políticas de HAI, estudia la proliferación y el impacto del material de abuso sexual infantil generado por IA. En un informe de mayo de 2025 , ella y las coautoras Shelby Grossman y Sunny Liu recopilaron información de educadores, plataformas, fuerzas del orden, legisladores y víctimas para evaluar la magnitud del problema y cómo las escuelas están gestionando este riesgo emergente. Aunque es pronto y no tenemos una visión precisa de la extensión del problema, la mayoría de las escuelas aún no abordan los riesgos de los materiales de abuso sexual infantil generados por IA con sus estudiantes. Cuando las escuelas experimentan un incidente, sus respuestas suelen empeorar la situación de las víctimas, afirma Pfefferkorn. Fácil acceso, consecuencias devastadoras Investigaciones previas han establecido que la proliferación de material de abuso sexual infantil es un problema creciente en la era de la IA. Un estudio realizado en 2023 por académicos de Stanford generó conciencia al analizar las implicaciones del contenido explícito altamente realista producido por modelos de aprendizaje automático generativo. Ese mismo año, un informe de seguimiento analizó la presencia de imágenes conocidas de abuso sexual infantil en un conjunto de datos popular utilizado para el entrenamiento de modelos de IA. Basándose en este trabajo, Pfefferkorn y sus colegas querían comprender cómo las escuelas, las plataformas y las fuerzas del orden están gestionando la última amenaza para la seguridad infantil. A diferencia de las tecnologías anteriores que podían usarse con fines ilegales, las aplicaciones llamadas "desnudar" o "desvestirse" están diseñadas específicamente para que usuarios sin experiencia creen imágenes pornográficas usando solo la foto de una persona vestida. No es necesario saber usar Photoshop ni ser un experto en el entrenamiento de un modelo de IA de código abierto para crear imágenes creíbles que puedan traumatizar emocionalmente a la persona representada y dañar su reputación. Los niños pueden encontrar estas herramientas a través de tiendas de aplicaciones, motores de búsqueda y anuncios en redes sociales, y aunque no consideren su conducta como ciberacoso o pornografía infantil ilegal, tiene consecuencias devastadoras. “Estas aplicaciones eliminan todo el trabajo que antes se requería para crear material de abuso sexual infantil, por lo que es sorprendentemente fácil para los estudiantes descubrir y usar estas herramientas unos contra otros”, explica Pfefferkorn. Mitigación del daño Las comunidades tienen algunas maneras de mitigar el daño de los desnudos deepfake. La ley federal exige que las plataformas tecnológicas reporten y eliminen material de abuso sexual infantil cuando lo encuentren en sus servicios, ya sea real o generado por IA, y las empresas parecen estar cumpliendo, según el informe de Stanford. Además, una nueva ley federal pronto exigirá que las plataformas eliminen, a petición de la víctima, los desnudos (ya sean reales o deepfake) publicados en línea sin consentimiento. Las víctimas también pueden emprender acciones legales contra la persona que creó o compartió imágenes de desnudos deepfake; sin embargo, el sistema de justicia penal no está preparado para los delincuentes infantiles, y el informe de Stanford cuestiona si las consecuencias penales para los menores son apropiadas. Las escuelas también cuentan con recursos, como se describe en un reciente informe de políticas de HAI, " Abordar el material de abuso sexual infantil generado por IA: Oportunidades para la política educativa" . Pueden suspender o expulsar a los perpetradores o remitirlos a un programa de justicia restaurativa. Sin embargo, hasta la fecha, pocas instituciones académicas parecen haber establecido políticas para gestionar este nuevo tipo de riesgo. El informe de Pfefferkorn concluye que las escuelas que no están preparadas para un incidente de desnudos en deepfake pueden malinterpretar sus obligaciones legales, y que una respuesta escolar fallida puede exacerbar el sufrimiento de la víctima y socavar la confianza de la comunidad. Ante este panorama, Pfefferkorn concluye que la mejor manera de detener los desnudos deepfake es la prevención, no la reacción. Esto significa que los padres deben involucrarse. Recomienda que sigan estos consejos de seguridad: Enseñe a los niños sobre el consentimiento y que respetar la autonomía corporal incluye imágenes de personas, incluso imágenes sintéticas de su propia imagen. Los niños deben entender que "desnudar" la foto de alguien no tiene gracia; es perjudicial y puede meterlos en serios problemas. Anime a los estudiantes a denunciar si observan este comportamiento, ya sea en su entorno o en su entorno. Si un niño no se siente cómodo hablando directamente con un adulto o teme ser culpado, muchas escuelas ya cuentan con líneas telefónicas anónimas para que los estudiantes alerten a las autoridades sobre el ciberacoso. Piénsalo dos veces antes de compartir imágenes de tus hijos en redes sociales, donde personas maliciosas pueden encontrarlos y manipularlos con herramientas para desnudarlos. Usa herramientas de edición de fotos para cubrir la cara de tu hijo con un emoji, por ejemplo. Pregunte a los administradores escolares qué medidas están tomando para concienciar y mitigar los efectos nocivos del material de abuso sexual infantil generado por IA. Las escuelas tomarán medidas si suficientes padres expresan sus preocupaciones. Aunque no podemos eliminar las aplicaciones de nudificación de internet para siempre, con una combinación de educación preventiva, mensajes escolares y regulación, podemos reducir la probabilidad de que un joven descubra y use estas herramientas. A todas las partes que desempeñan un papel en la protección de la seguridad infantil, Pfefferkorn les dice: «No normalicemos este comportamiento».