Casi un año después de que imágenes de chicas de secundaria desnudas generadas por inteligencia artificial revolucionaran una comunidad en el sur de España, un tribunal de menores condenó este verano a 15 de sus compañeras de clase a un año de libertad condicional.
Pero la herramienta de inteligencia artificial utilizada para crear los deepfakes dañinos todavía es fácilmente accesible en Internet y promete “desnudar cualquier foto” cargada al sitio web en cuestión de segundos.
Ahora se está llevando a cabo un nuevo esfuerzo para cerrar la aplicación y otras similares en California, donde San Francisco presentó esta semana una demanda única en su tipo que, según los expertos, podría sentar un precedente, pero que también enfrentará muchos obstáculos.
“La proliferación de estas imágenes ha explotado a una cantidad alarmante de mujeres y niñas en todo el mundo”, dijo David Chiu, el fiscal electo de la ciudad de San Francisco que presentó el caso contra un grupo de sitios web ampliamente visitados con sede en Estonia, Serbia, el Reino Unido y otros lugares.
“Estas imágenes se utilizan para acosar, humillar y amenazar a mujeres y niñas”, dijo en una entrevista con The Associated Press. “Y el impacto en las víctimas ha sido devastador para su reputación, su salud mental, la pérdida de autonomía y, en algunos casos, ha provocado que algunas tengan tendencias suicidas”.
La demanda interpuesta en nombre de los ciudadanos de California alega que los servicios violaron numerosas leyes estatales contra prácticas comerciales fraudulentas, pornografía no consentida y abuso sexual infantil. Pero puede resultar difícil determinar quién administra las aplicaciones, que no están disponibles en las tiendas de aplicaciones de teléfonos, pero sí se encuentran fácilmente en Internet.
El año pasado, la AP se puso en contacto con un servicio que afirmó por correo electrónico que su “director ejecutivo tiene su base y se desplaza por todo Estados Unidos”, pero se negó a proporcionar pruebas o a responder a otras preguntas. La AP no menciona las aplicaciones específicas que están siendo demandadas para no promocionarlas.
“Hay varios sitios en los que no sabemos en este momento exactamente quiénes son estos operadores ni desde dónde operan, pero tenemos herramientas de investigación y autoridad para emitir citaciones judiciales para investigar eso”, dijo Chiu. “Y ciertamente utilizaremos nuestros poderes en el curso de este litigio”.
Muchas de estas herramientas se utilizan para crear falsificaciones realistas que “desnudan” fotos de mujeres adultas vestidas, incluidas celebridades, sin su consentimiento. Pero también han aparecido en escuelas de todo el mundo, desde Australia hasta Beverly Hills en California, generalmente con niños que crean imágenes de compañeras de clase que luego circulan ampliamente por las redes sociales.
En uno de los primeros casos ampliamente publicitados, el pasado mes de septiembre en Almendralejo, España, un médico cuya hija estaba entre un grupo de niñas victimizadas el año pasado y ayudó a sacarlo a la luz pública, dijo que está satisfecha por la severidad de la sentencia que enfrentan sus compañeras de clase después de una decisión judicial a principios de este verano.
Pero “no es sólo responsabilidad de la sociedad, de la educación, de los padres y de las escuelas, sino también de los gigantes digitales que se benefician de toda esta basura”, dijo la Dra. Miriam al Adib Mendiri en una entrevista el viernes.
Aplaudió la acción de San Francisco, pero dijo que se necesitan más esfuerzos, incluso de empresas más grandes como Meta Platforms con sede en California y su filial WhatsApp, que fue utilizada para hacer circular las imágenes en España.
Si bien las escuelas y las agencias policiales han buscado castigar a quienes crean y comparten los deepfakes, las autoridades han tenido dificultades para saber qué hacer con las herramientas en sí.
En enero, el poder ejecutivo de la Unión Europea explicó en una carta a un miembro español del Parlamento Europeo que la aplicación utilizada en Almendralejo “no parece” estar sujeta a las nuevas y amplias normas del bloque para reforzar la seguridad en línea porque no es una plataforma lo suficientemente grande.
Las organizaciones que han estado siguiendo el crecimiento de material de abuso sexual infantil generado por IA seguirán de cerca el caso de San Francisco.
La demanda “tiene el potencial de sentar un precedente legal en esta área”, dijo Emily Slifer, directora de políticas de Thorn, una organización que trabaja para combatir la explotación sexual infantil.
Un investigador de la Universidad de Stanford dijo que debido a que muchos de los acusados residen fuera de Estados Unidos, será más difícil llevarlos ante la justicia.
Chiu “tiene una batalla cuesta arriba en este caso, pero podría lograr que algunos de los sitios sean retirados del mercado si los acusados que los administran ignoran la demanda”, dijo Riana Pfefferkorn de Stanford.
Ella dijo que eso podría suceder si la ciudad gana por defecto en su ausencia y obtiene órdenes que afecten a los registradores de nombres de dominio, proveedores de servicios web y procesadores de pagos “que efectivamente cerrarían esos sitios incluso si sus propietarios nunca aparecen en el litigio”.