Caroline Mullet, estudiante de sexto grado en Issaquah High School cerca de Seattle, fue a su primer baile de bienvenida el otoño pasado, una fiesta con temática de James Bond con mesas de blackjack a la que asistieron cientos de niñas vestidas con vestidos de fiesta.
Semanas más tarde, ella y otros estudiantes se enteraron de que un compañero de clase estaba circulando imágenes falsas de desnudos de chicas que habían asistido al baile, imágenes sexualmente explícitas que había fabricado usando una aplicación de inteligencia artificial diseñada para “desnudar” automáticamente a chicas vestidas como miembros de la realeza. niñas y mujeres.
Mullet, de 15 años, alertó a su padre, Mark, un senador demócrata del estado de Washington. Aunque no estaba entre las chicas de las fotos, preguntó si se podía hacer algo para ayudar a sus amigas, quienes se sentían “extremadamente incómodas” porque sus compañeros de clase habían visto imágenes simuladas de ellas desnudas. Pronto, el senador Mullet y un colega de la Cámara de Representantes propusieron una legislación para prohibir el intercambio de representaciones sexuales explícitas de menores reales generadas por IA.
“Odio la idea de tener que preocuparme de que esto le vuelva a suceder a cualquiera de mis amigos, a mis hermanas o incluso a mí misma”, dijo Mullet a los legisladores estatales durante una audiencia sobre el proyecto de ley en enero.
La legislatura estatal aprobó el proyecto de ley sin oposición. El gobernador Jay Inslee, un demócrata, la promulgó el mes pasado.
Los estados están en primera línea de la rápida propagación de una nueva forma de explotación sexual y acoso entre pares en las escuelas. Los adolescentes de todo Estados Unidos utilizaron aplicaciones de “nudificación” ampliamente disponibles para inventar subrepticiamente imágenes sexualmente explícitas de sus compañeros de clase y luego hicieron circular los desnudos simulados a través de chats grupales en aplicaciones como Snapchat e Instagram.
Ahora, impulsados en parte por informes preocupantes de adolescentes como Mullet, los legisladores federales y estatales se apresuran a implementar protecciones en un esfuerzo por mantenerse al día con las aplicaciones de inteligencia artificial que explotan.
Desde principios del año pasado, al menos dos docenas de estados han presentado proyectos de ley para combatir las imágenes sexualmente explícitas generadas por IA (conocidas como deepfakes) de personas menores de 18 años, según datos compilados por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro. . Y varios estados han adoptado las medidas.
Entre ellos, Dakota del Sur aprobó este año una ley que hace ilegal poseer, producir o distribuir material de abuso sexual generado por IA que represente a menores reales. El año pasado, Luisiana promulgó una ley de deepfake que criminaliza las representaciones sexualmente explícitas de menores generadas por IA.
“Tenía una sensación de urgencia al escuchar estos casos y cuánto daño se había causado”, dijo la representante Tina Orwall, una demócrata que redactó la ley explícita sobre falsificaciones profundas del estado de Washington después de escuchar sobre incidentes como el de Issaquah High.
Algunos legisladores y expertos en protección infantil dicen que tales reglas se necesitan con urgencia porque la fácil disponibilidad de aplicaciones de desnudez impulsadas por inteligencia artificial está permitiendo la producción y distribución en masa de imágenes gráficas falsas que potencialmente pueden circular en línea a lo largo de la vida, amenazando la salud mental, la reputación y la salud mental de las niñas. salud física. seguridad.
“Un niño con su teléfono en el transcurso de una tarde puede victimizar a 40 niñas menores de edad”, dijo Yiota Souras, directora jurídica del Centro Nacional para Niños Desaparecidos y Explotados, “y luego sus imágenes están disponibles”.
En los últimos dos meses, los incidentes de desnudos falsos se han extendido a escuelas, incluidas Richmond, Illinois, Beverly Hills y Laguna Beach, California.
Sin embargo, pocas leyes en Estados Unidos protegen específicamente a los niños menores de 18 años de la explotación por parte de aplicaciones de inteligencia artificial.
Esto se debe a que muchos estatutos actuales que prohíben la pornografía infantil o la pornografía de adultos no consensuada (que involucran fotos o videos reales de personas reales) pueden no cubrir imágenes explícitas generadas por IA que usan rostros de personas reales, dijo el representante federal demócrata Joseph D. Morelle. De Nueva York.
El año pasado presentó un proyecto de ley que tipificaría como delito la divulgación de imágenes íntimas de adultos o menores identificables generadas por IA. También daría a las víctimas, o a los padres, del deepfake el derecho a demandar a los perpetradores individuales por daños y perjuicios.
“Queremos que esto sea muy doloroso para cualquiera que piense siquiera en hacer esto, porque es un daño que no se puede deshacer simplemente”, dijo Morelle. “Aunque a un chico de 15 años le parezca una broma, es algo muy serio”.
La representante estadounidense Alexandria Ocasio-Cortez, otra demócrata de Nueva York, presentó recientemente un proyecto de ley similar para permitir a las víctimas presentar demandas civiles contra los perpetradores de deepfake.
Pero ninguno de los proyectos de ley otorgaría explícitamente a las víctimas el derecho a demandar a los desarrolladores de aplicaciones de desnudez basadas en inteligencia artificial, una medida que, según los abogados litigantes, ayudaría a detener la producción masiva de deepfakes sexualmente explícitos.
“Se necesita legislación para detener la comercialización, que es la raíz del problema”, dijo Elizabeth Hanley, abogada de Washington que representa a víctimas en casos de agresión y acoso sexual.
El código legal de los Estados Unidos prohíbe la distribución de pornografía infantil generada por computadora que muestre a menores identificables participando en conductas sexualmente explícitas. El mes pasado, la Oficina Federal de Investigaciones emitió una advertencia de que dicho material ilegal incluía imágenes realistas de abuso sexual infantil generadas por IA.
Sin embargo, las representaciones falsas generadas por IA de adolescentes reales y desnudas pueden no constituir “material de abuso sexual infantil”, dicen los expertos, a menos que los fiscales puedan demostrar que las imágenes falsas cumplen con los estándares legales para conducta sexual explícita u obscenidad de los genitales.
Algunos abogados defensores han intentado aprovechar la aparente ambigüedad jurídica. Un abogado que defendió a un estudiante de secundaria en una demanda por deepfake en Nueva Jersey argumentó recientemente que el tribunal no debería bloquear temporalmente a su cliente, que había creado imágenes de desnudos de un compañero de clase con IA, para que no pudiera ver o compartir las imágenes porque no eran dañinas ni ilegales. Las leyes federales, argumentó el abogado en un expediente judicial, no fueron diseñadas para aplicarse “a imágenes sintéticas generadas por computadora que ni siquiera incluyen partes reales del cuerpo humano”. (El acusado finalmente acordó no oponerse a una orden de restricción sobre las imágenes).
Ahora los estados están trabajando para aprobar leyes que detengan la explotación de imágenes basadas en inteligencia artificial. Este mes, California presentó un proyecto de ley para actualizar la prohibición estatal de la pornografía infantil para cubrir específicamente el material abusivo generado por inteligencia artificial.
Y los legisladores de Massachusetts están ultimando una legislación que penalizaría el intercambio no consensuado de imágenes explícitas, incluidas las deepfakes. También requeriría que una agencia estatal desarrolle un programa de desvío para menores que comparten imágenes explícitas para enseñarles sobre temas como el “uso responsable de la inteligencia artificial generativa”.
Los castigos pueden ser severos. Según la nueva ley de Luisiana, cualquier persona que, a sabiendas, cree, distribuya, promueva o venda deepfakes sexualmente explícitos de menores puede enfrentarse a una pena mínima de prisión de cinco a 10 años.
En diciembre, agentes de policía del condado de Miami-Dade arrestaron a dos niños de secundaria por supuestamente crear y compartir imágenes falsas de desnudos mediante IA de dos compañeros de clase, de 12 y 13 años, según documentos que la policía obtuvo por The New York Times a través de una solicitud de registros públicos. Los niños fueron acusados de delitos graves de tercer grado en virtud de una ley estatal de 2022 que prohíbe las representaciones sexuales alteradas sin consentimiento. (La Fiscalía Estatal del Condado de Miami-Dade dijo que no podía comentar sobre un caso abierto).
La nueva ley de deepfake en el estado de Washington adopta un enfoque diferente.
Después de enterarse del incidente en Issaquah High por su hija, el senador Mullet se comunicó con el congresista Orwall, un defensor de los sobrevivientes de agresión sexual y ex trabajador social. La Sra. Orwall, que había trabajado en uno de los primeros proyectos de ley de pornografía de venganza del estado, luego fue autora de un proyecto de ley de la Cámara para prohibir la distribución de imágenes íntimas o sexualmente explícitas de menores o adultos generadas por IA. (El señor Mullet, que patrocinó el proyecto de ley del Senado, ahora se postula para gobernador).
Según la ley resultante, los infractores por primera vez podrían ser acusados de delitos menores, mientras que las personas con condenas previas por difundir imágenes sexualmente explícitas enfrentarían cargos por delitos graves. El nuevo estatuto sobre deepfake entrará en vigor en junio.
“No es sorprendente que estemos atrasados en materia de protección”, dijo la Sra. Orwall. “Por eso queríamos avanzar tan rápido”.