Eliminar contenido de menores en las redes
Ley “Take It Down” y herramientas digitales contra la difusión no consentida de imágenes íntimas
Imaginemos a Lucía, una adolescente de 15 años llena de ilusiones al comenzar el nuevo curso. Un día, un compañero de clase le hace confiarse y le pide una foto en ropa interior para algo que insiste es “inofensivo”. Lucía se siente presionada y accede. Horas después, corre el rumor de que esa foto íntima se ha filtrado: primero a un grupo de WhatsApp, luego a toda la escuela, y al día siguiente aparece en redes sociales. Pronto recibe insultos y burlas de compañeros. La angustia y la vergüenza son insoportables; tras días de acoso virtual sin tregua, Lucía se aísla y termina tomando la trágica decisión de quitarse la vida. El caso de Lucía está inspirado en un caso que no quiero reproducir el nombre real, para no hacer patente de nuevo a su familia y seres queridos el caso de su familiar o amiga.
El ejemplo estremecedor, que refleja una realidad: la difusión sin permiso de imágenes íntimas es ciberacoso real. UNICEF define el ciberacoso como actos repetidos que buscan humillar a alguien en entornos digitales, incluyendo “publicar fotografías o videos vergonzosos de alguien en redes sociales”. Resalta que muchos jóvenes sufren estos abusos y “algunos son víctimas de formas extremas de abuso en línea. Incluso algunos se han quitado la vida”.
Por fortuna, existe esperanza: leyes recientes y plataformas especializadas están empezando a poner freno a estos delitos. A continuación revisamos las principales iniciativas legales y tecnológicas –globales y europeas– para retirar rápidamente esas imágenes y apoyar a las víctimas.
La ley “Take It Down”: respuesta legal global contra la pornografía de venganza
En mayo de 2025 el presidente Donald Trump firmó la ley 'Take It Down Act', pensada para castigar la difusión no consentida de imágenes íntimas (la llamada “pornovenganza”) y de “deepfakes” sexuales creados con IA. El texto prohíbe “publicar conscientemente” imágenes íntimas sin permiso, incluyendo deepfakes, y obliga a sitios web y redes sociales a eliminar ese material en un plazo máximo de 48 horas tras recibir una denuncia. Las plataformas además deben borrar cualquier copia o reproducción. Quien publique o amenace con difundir dichas imágenes enfrenta penas de hasta dos años de cárcel (agravadas si la víctima es menor).
La ley fue aprobada con enorme respaldo político (409 votos a favor en la Cámara de Representantes), apoyada por grupos como los Feministas por los Derechos de las Mujeres y el NCMEC (Centro Nacional de Niños Desaparecidos y Explotados). Precisamente, la NCMEC celebró que la norma cierra “un peligroso vacío legal” al alcanzar con sanciones tanto imágenes reales como alteradas digitalmente que afecten a menores –sitios que antes podían eludir las leyes de pornografía infantil clásicas.
Este avance legislativo se inspira en casos reales de víctimas. Por ejemplo, Melania Trump y los senadores Cruz y Klobuchar citaron el caso de una niña de 14 años (Elliston Berry) cuyo rostro había sido usado en un video sexual falso de Snapchat. Cuando la familia no logró que la app retirara el deepfake, impulsaron la ley Take It Down. En palabras de los legisladores, “compartir imágenes íntimas (reales o generadas por IA) sin consentimiento puede arruinar vidas”, y con esta ley “las víctimas podrán hacer que este material sea eliminado de las redes sociales”.
Puntos clave de la ley Take It Down:
- Alcance federal amplio: por primera vez ordena a las empresas tecnológicas retirar imágenes íntimas no consentidas (adultos o menores) bajo ley federal.
- Plazos de actuación: obliga a borrar el material sospechoso en máximo 48 horas tras la petición de la víctima.
- Responsabilidad de plataformas: si cumplen y retiran el contenido, reciben inmunidad legal similar a la del “copyright” (DMCA); si no, pueden ser sancionadas.
- Profundiza las legislaciones previas: se suma a las leyes estatales existentes contra la pornovenganza, pero va más allá al cubrir expresamente deepfakes y videos manipulados.
En suma, el Take It Down Act supone un gran paso para garantizar derechos digitales a las víctimas: víctimas de pornovenganza y menores explotados sexualmente tendrán un recurso legal claro para eliminar su contenido de Internet, incluso de los contenidos subidos por familiares o por parientes que quieran eliminar.
Plataformas y apps contra la difusión de imágenes íntimas
Además de leyes, varias iniciativas tecnológicas permiten a las víctimas controlar y eliminar sus imágenes privadas en la práctica. Destacan sobre todo dos tipos de herramientas: plataformas de denuncia especializadas y funciones incorporadas en redes sociales.
- “Take It Down” de NCMEC (EE UU): lanzada en 2023 por el Centro Nacional para Niños Desaparecidos y Explotados, es una plataforma gratuita de alcance mundial dedicada a menores. En takeitdown.ncmec.org cualquier joven (o sus padres/tutores) puede reportar fotos o videos desnudos o sexualmente explícitos suyos publicados cuando tenía menos de 18 añosabout.fb.com. El sistema genera una huella digital (hash), no el vídeo o fotografía originales, es un patrón de búsqueda, como una huella digital para localizar videos o fotografías que concuerden con el contenido denunciado. Ese contenido y la comparte con empresas colaboradoras (Meta, OnlyFans, Pornhub, etc.) para que lo detecten en sus sitios y lo eliminen automáticamente. Según NCMEC, esta iniciativa ya ha recibido cientos de casos en sus primeros meses. En palabras de sus responsables, “el pasado no define el futuro y existen herramientas para llevarlo abajo” (Take it Down). Recuerden que las plataformas más populares son americanas: Meta (Facebook, Instagram, Whatsapp), Pornhub, Onlyfans, etc
- StopNCII.org (Revenge Porn Helpline, Reino Unido): plataforma gratuita de apoyo a víctimas adultas (más de 18 años) de difusión no consentida de imágenes íntimas. Quienes temen que sus fotos íntimas vayan a publicarse pueden cargar sus archivos en StopNCII.org. El sistema genera también un hash único de cada imagen que, sin salir del dispositivo, se envía a empresas colaboradoras para detectar y bloquear cualquier copia futura. Este servicio global, desarrollado con ayuda de Meta, ha logrado retirar con éxito más del 90% de las imágenes denunciadas, superando las 200.000 eliminaciones.
- Project Arachnid (Canadá): iniciativa pionera del Centro Canadiense para la Protección Infantil que emplea IA para escanear automáticamente Internet en busca de pornografía infantil (CSAM). Cada imagen sospechosa recibe un hash y un equipo global la revisa; luego se envían masivas notificaciones de retiro a proveedores de alojamiento de contenidos. Este “traumático telaraña” funciona 24/7: para mediados de agosto de 2025 había procesado más de 175 mil millones de imágenes y emitido 130 millones de pedidos de eliminación. Más de 18 organizaciones en 17 países participan. Todo ello acelera que los sitios web y foros violadores de la ley se limpien de contenido infantil.
- Medidas en redes sociales: las grandes plataformas han sumado funciones automáticas. Por ejemplo, Meta (Facebook/Instagram) afirma que su inteligencia artificial identifica el 99% de las imágenes de explotación infantil antes de que circulen. Además, se han lanzado iniciativas de prevención: Instagram prueba una “protección contra desnudos” en mensajes directos, que difumina automáticamente fotos con desnudos y alerta al usuario antes de enviarlas. También proporciona consejos de seguridad al compartir imágenes (p.ej. advertir que el otro puede hacer capturas) y enlaza a recursos especializados: para adultos dirige a StopNCII.org, y para menores a TakeItDown.ncmec.org. Con estas herramientas, cualquier persona —víctima o testigo— puede reportar contenido abusivo directamente desde la app y buscar apoyo.
En conjunto, estas plataformas confirman que no estamos solos: desde organizaciones sin fines de lucro hasta grandes tecnológicas, hay múltiples vías para denunciar y borrar imágenes nocivas. Como podemos ver no es necesario pedir el DNI o pasaporte a nadie para proteger a los menores.
Iniciativas legales y de protección en España
La Ley Orgánica 8/2021 de protección integral contra la violencia infantil impone a todos los ciudadanos el deber genérico de comunicar de inmediato cualquier indicio de violencia contra niños, ya sea físico o digital. Especialmente, obliga a denunciar cualquier contenido en Internet que constituya violencia o abuso hacia menores, ya sea delito o no.
Más aún, en marzo de 2025 el Gobierno impulsó un anteproyecto de ley para menores en entornos digitales. Entre otras novedades, eleva las penas por crear o difundir imágenes íntimas falsas (deepfakes) de menores y prevé que los jueces ordenen retirar de forma inmediata esos contenidos nocivos y bloqueen los servicios que los albergan, incluso si están en el extranjero. Además, fija los 16 años como edad mínima para registrarse en redes sociales, reforzando la protección legal de los adolescentes en línea.
Por otra parte, la Agencia Española de Protección de Datos (AEPD) recuerda que toda imagen personal es dato protegido por el Reglamento Europeo. Esto implica que la persona afectada (o sus padres, si es menor de 14) puede ejercer el derecho de supresión. La AEPD orienta a las víctimas sobre cómo proceder:
- Contactar al publicador original. Siempre que sea posible, conviene pedir educadamente al responsable de la web o red social que retire la foto o video.
- Denunciar en la plataforma. Si no hay respuesta o se niegan, usar los formularios oficiales de la red social (por ejemplo, las opciones de “Denunciar” en Facebook, Instagram, Twitter, YouTube, TikTok, etc.).
- Reclamar ante la AEPD. Transcurrido un mes sin solución satisfactoria, se puede presentar recurso ante la AEPD, demostrando que se solicitó la supresión a la plataforma. La agencia entonces tutelará el derecho a eliminar ese contenido personal.
Estas vías funcionan al margen incluso del ámbito penal: aplican de inmediato el reglamento de privacidad para “borrar” de Internet las imágenes personales. Por ejemplo, la AEPD informa sobre formularios de Google para eliminar fotos íntimas de sus motores de búsqueda si pueden considerarse un riesgo. En definitiva, que no deben compartir ni reenviar imágenes comprometedoras.
Responsabilidad compartida: todos contra el bullying digital
Detener la difusión de material sexual de menores no es tarea exclusiva de leyes o tecnologías: todos debemos actuar. La UNICEF enfatiza que la protección de niños y jóvenes en Internet es una responsabilidad colectiva. Como resume el organismo, aunque las empresas tecnológicas deben mejorar sus controles, “de todos nosotros depende que estas empresas rindan cuentas” cuando fallen.
¿Qué puede hacer cada uno? Padres y educadores deben conversar abiertamente con menores sobre los riesgos de compartir fotos íntimas y enseñarles a configurar su privacidad. Los propios adolescentes pueden ser primeros aliados: si ven que un amigo sufre ciberacoso, deben alertar a un adulto o apoyarlo (escuchándolo, documentando el caso, e incluso siendo testigos en denuncias).
Los compañeros nunca deben viralizar ni burlarse de las víctimas; al contrario, deben denunciar el contenido abusivo en la plataforma y solidarizarse. Los ciudadanos en general pueden usar las herramientas descritas: si encuentran material de abuso, reportarlo (por ejemplo, a NCMEC o autoridades) o usar los canales oficiales de las redes para pedir su retirada. Cada acto de no compartir rompe la cadena de violencia digital.
De hecho, plataformas populares ya ofrecen recursos integrados. Como vimos, Instagram/Meta difumina desnudos en chats y avisa al usuario con mensajes de seguridad antes de publicar imágenes sensibles. Además, vincula “StopNCII” y “Take It Down” en sus guías de ayuda para víctimas. Esto señala que, además de la vigilancia, existen opciones de apoyo e información (líneas de ayuda, centros de asesoramiento, etc.) para cualquiera en riesgo.
Regreso a clases sin bullying en internet: en el nuevo curso escolar debemos aprender de casos trágicos como el de Lucía.
Comprometámonos a educar a los jóvenes sobre respeto en línea y privacidad. Animémoslos a utilizar los recursos disponibles y a no participar nunca en la difusión de imágenes íntimas. Con la combinación de leyes firmes (como el Take It Down Act), herramientas tecnológicas (Take It Down, StopNCII, Project Arachnid, etc.) y una actitud activa de padres, docentes y compañeros, es posible reducir drásticamente estos abusos.
Hay esperanza: cada paso cuenta para proteger a nuestros hijos en el entorno digital, evitando que se repitan tragedias. Por el bien de nuestros niños y adolescentes, hagamos de Internet un lugar más seguro para todos.
Todos podemos y debemos contribuir a eliminar el abuso sexual en línea.
Linkedin: Aquilino García