Skip to content

Adolescente demanda app “nudify” por temor constante tras creación de “nudes” fa

octubre 19, 2025

Una adolescente, víctima de la creación y difusión de imágenes falsas de desnudos (deepfake nudes), ha presentado una demanda con el objetivo de que se retire la aplicación que, según afirma, la ha sumido en un estado de “temor constante”.

En la demanda, la joven, a quien se le concedió el anonimato por ser menor de edad (17 años), acusa a ClothOff de facilitar intencionalmente la generación y distribución de material de abuso sexual infantil (CSAM) e imágenes íntimas no consentidas (NCII) de adultos. También alega que la red social Telegram contribuye a la promoción de ClothOff a través de bots automatizados que han atraído a cientos de miles de suscriptores.

La operación de ClothOff, según la demandante, va más allá de la promoción de una única aplicación, que puede utilizarse de forma gratuita para transformar una fotografía común de Instagram en CSAM o NCII en “tres clics”.

La aplicación está afiliada con al menos otras 10 plataformas que pueden ser utilizadas para “desvestir” imágenes de “cualquiera”, utilizando la misma tecnología, que ClothOff asegura que está en “constante mejora”. La demanda alega que desarrolladores y empresas pueden acceder directamente a esta tecnología a través de una API que “permite a los usuarios crear CSAM y NCII privados”, incluyendo “los tipos de contenido más extremos, evadiendo mejor la detección”, lo que “exacerba el alcance y el daño de las actividades ilegales y predatorias de ClothOff”.

“Debido a que el código de la API es fácil de integrar, cualquier sitio web, aplicación o bot puede integrarlo fácilmente para producir y distribuir masivamente CSAM y NCII de adultos y menores sin supervisión”, señala la demanda, que también indica que ClothOff ha inspirado “múltiples” sitios web y aplicaciones “imitadoras”.

La demanda afirma que, en promedio, ClothOff y sus aplicaciones generan 200,000 imágenes diariamente y han alcanzado al menos 27 millones de visitantes desde su lanzamiento. Para los usuarios que buscan “contenido premium”, ClothOff acepta pagos con tarjeta de crédito o criptomonedas entre $2 y $40, con el “único propósito” de lucrar con “atraer a los usuarios para obtener fácil, rápida y anónimamente CSAM y NCII de individuos identificables que son casi indistinguibles de fotos reales”.

Imágenes sin advertencia

“ClothOff no añade ningún sello a las imágenes para indicar que no son reales, y los espectadores que no conocen la procedencia de las imágenes no tienen forma de saber si las imágenes son auténticas o fabricadas”, señala la demanda. “Una vez creadas, estas imágenes pueden compartirse sin cesar sin el conocimiento de la víctima representada y sin su consentimiento”.

Además, la demanda alega que ClothOff permite a los usuarios crear galerías de desnudos falsos, lo que sugiere que la plataforma almacena imágenes de las víctimas. Esto aterrorizó a la adolescente, quien teme que ClothOff esté entrenando su imagen para “generar mejor CSAM de otras chicas”.

ClothOff aún no ha respondido a la demanda, pero su sitio web afirma que la compañía nunca guarda datos y que es “imposible” “desvestir” imágenes de menores. El sitio afirma que cualquier intento de generar desnudos falsos de un menor resultaría en la suspensión de la cuenta.

Sin embargo, la demanda de la adolescente alega que tales descargos de responsabilidad no se publicaron cuando ClothOff produjo CSAM basado en una foto de Instagram tomada cuando ella tenía 14 años.

“En cualquier caso, este descargo de responsabilidad de ClothOff es ineficaz y falso”, alega la demanda, afirmando que “los usuarios de ClothOff podían entonces, y todavía pueden, subir fotos de chicas vestidas menores de 18 años para obtener CSAM de ellas”, y ClothOff no hace nada para impedirlo.

Peticiones de la demandante

La adolescente espera que el tribunal intervenga para poner fin a las operaciones de ClothOff, bloquear todos los dominios asociados a ella e impedir cualquier comercialización o promoción, incluso a través de bots de Telegram. También pide que se eliminen sus imágenes, así como todo el CSAM y NCII que ClothOff pueda estar almacenando, además de daños punitivos debido al “intenso” sufrimiento emocional.

Telegram responde

Telegram aparentemente ya ha actuado para eliminar el bot de ClothOff y probablemente buscará poner fin a su participación en la demanda.

Un portavoz dijo a The Wall Street Journal que “la pornografía no consentida y las herramientas para crearla están explícitamente prohibidas por los términos de servicio de Telegram y se eliminan siempre que se descubren”.

Para la adolescente demandante, el objetivo principal sigue siendo ClothOff. Sus abogados creen que es posible que se bloquee la aplicación y sus sitios afiliados en los Estados Unidos si ClothOff no responde y el tribunal le concede una sentencia por defecto.

Pero, independientemente del resultado del litigio, la adolescente espera estar siempre “atormentada” por los desnudos falsos que un chico de la escuela secundaria generó sin enfrentar ningún cargo.

Según el WSJ, la adolescente demandó al chico que, según ella, la hizo querer abandonar la escuela. Su demanda señaló que se le informó que “los individuos responsables y otros testigos potenciales no cooperaron, hablaron o proporcionaron acceso a sus dispositivos electrónicos a las fuerzas del orden”.

La adolescente se ha sentido “mortificada y emocionalmente angustiada, y ha experimentado consecuencias duraderas desde entonces”, señala su demanda. No tiene idea de si ClothOff puede seguir distribuyendo las imágenes dañinas, y no tiene idea de cuántos adolescentes pueden haberlas publicado en línea. Debido a estas incógnitas, está segura de que pasará “el resto de su vida” vigilando “la reaparición de estas imágenes”.

“Saber que las imágenes CSAM de ella inevitablemente llegarán

Fuente original: ver aquí