MADRID, 20 Oct. (Portaltic/EP) -
Una adolescente víctima de la aplicación ClothOff, que usa la inteligencia artificial generativa para desnudar a cualquiera a partir de una imagen con ropa, ha demandado a los creadores por las secuelas arrastra y por el potencial uso que estén haciendo de sus imágenes para entrenar modelos de IA.
En 2023, compañeros de instituto de Jane Doe -nombre genérico que se usa para no identificar a la menor de edad, en este caso, de 17 años- obtuvieron y usaron imágenes de ella para cargarlas en la aplicación ClothOff, que con solo tres clics desnuda a la persona, ofreciendo un resultado que no puede diferenciarse de una imagen real.
"Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces", recoge el texto de la demanda, presentada en el Tribunal de Distrito de Los Estados Unidos del Distrito de Nueva Jersey.
Ello le ha llevado a demandar junto con sus padres a la empresa AI/Robotics Venture Strategy 3, responsable de la aplicación, por entender que su modelo de negocio no solo facilita la creación de desnudos ilegales, sino también su distribución y la monetización a través de los planes de pago, e incluso a través de la provisión de la tecnología de base a desarrolladores y otras plataformas.
"Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos", se indica, en referencia a las imágenes hiperrealistas de desnudos de personas sin su consentimiento que produce, ya sean menores (lo que se llama material de abuso sexual infantil) o adultos (imágenes íntimas sin consentimiento) "convirtiéndolo en un caldo de cultivo por pornografía infantil, explotación y abuso sexual".
También se señala que, "porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su CSAM permanezca disponible en ClothOff y en otros lugares. Le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas".
Según se recoge en la demanda, ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas. La propia promoción de la app invita a los usuarios a "desnudas a cualquiera" con su servicio gratuito.