
Los deepfakes explícitos son ahora un delito federal, pero su aplicación podría ser un gran desafío.
Una ley que es a la vez específica y amplia puede resultar complicada de cumplir.
El 19 de mayo, el presidente Donald Trump y la primera dama Melania Trump se mostraron optimistas al firmar la primera gran legislación sobre tecnología de la administración, conocida como la Ley Take It Down. Esta iniciativa bipartidista ha sido considerada un logro por quienes llevan tiempo pidiendo la criminalización de la distribución no consensuada de imágenes íntimas (NDII) y un camino federal para el resarcimiento de las víctimas. Cliff Steinhauer, director de seguridad de la información y compromiso en la National Cybersecurity Alliance, señaló que podría ser un impulso necesario en un entorno legislativo lento. "Es positivo que se obligue a las empresas de redes sociales a tener un proceso para eliminar contenido cuando se solicita", comentó. "Esto es un comienzo para construir la infraestructura que permita responder a este tipo de peticiones, y solo representa un pequeño aspecto de los problemas que planteará la IA".
Sin embargo, algunos grupos de derechos digitales advierten que la legislación podría generar falsas esperanzas sobre rápidas resoluciones legales para las víctimas, debido a procedimientos de verificación poco claros y una lista de contenido aplicable demasiado amplia. La implementación de la ley también presenta incertidumbres. La disposición de notificación y eliminación de la Ley Take It Down podría enfrentar serios inconvenientes. Según la Cyber Civil Rights Initiative (CCRI), "la provisión de eliminación de la Ley Take It Down se ha presentado como una garantía virtual para las víctimas de que las representaciones visuales íntimas no consensuadas serán retiradas de sitios web y servicios en línea en un plazo de 48 horas". Sin embargo, critican la falta de salvaguardias contra falsos reportes, la definición arbitraria de las plataformas cubiertas y la amplia discreción otorgada a la FTC sin un camino claro para el resarcimiento individual.
Las preocupaciones sobre la moderación de contenido y la libertad de expresión persistirán entre los activistas digitales. Tienen temor de que los editores eliminen material legal para evitar repercusiones criminales o limiten la expresión libre, como la pornografía consensual LGBTQ. Algunos consideran que el sistema de eliminación de la ley, inspirado en la Ley de Derecho de Autor de milenio digital (DMCA), podría otorgar un poder excesivo a la FTC, responsable de hacer cumplir la ley sobre los editores de contenido en línea.
Becca Branum, directora adjunta del proyecto de expresión libre del Center for Democracy & Technology (CDT), remarcó que, aunque la Ley Take It Down tiene defectos, la FTC y las plataformas deben cumplir las mejores intenciones de la legislación mientras respetan los derechos de privacidad y expresión de todos los usuarios. La CCRI y el CDT estuvieron activos en la cabildeo para ajustar las disposiciones de la ley, con la CCRI cuestionando excepciones que permiten la publicación de imágenes por parte de quienes aparecen en ellas. Temen que el proceso de eliminación dé lugar a abusos, incluido el envío de reportes falsos por parte de individuos descontentos o grupos con motivaciones políticas.
Por otro lado, el CDT considera que las disposiciones específicas sobre IA de la ley son demasiado limitadas, argumentando que se centran solo en imágenes generadas por IA capaces de causar que una "persona razonable crea que el individuo está representado". Esto podría dejar fuera de la ley situaciones en las que los perpetradores perjudican a las víctimas de maneras no previstas.
Además, aunque la autoridad de eliminación de la FTC para los editores aplicables es extensa, su supervisión no se aplica a otros, como sitios que no alojan contenido generado por usuarios, sino su propio contenido curado. Estos sitios no están obligados a eliminar medios dentro del plazo mencionado y solo pueden ser perseguidos en casos criminales, un hecho criticado por el CDT, que advierte sobre la falta de atención histórica hacia crímenes que afectan desproporcionadamente a mujeres.
Steinhauer especula que el proyecto podría enfrentar problemas de infraestructura en sus primeras fases de aplicación, ya que será complicado para los editores verificar que las personas que presentan reclamaciones realmente están representadas en el contenido no consensuado en 48 horas, a menos que inviertan en una mayor supervisión. Las herramientas de moderación automática podrían ayudar, aunque conlleven sus propios problemas.
La dificultad para detectar y probar que imágenes y videos son generados sintéticamente se añade a la confusión en torno a este tema. "La Ley Take It Down efectivamente aumenta la responsabilidad de los editores de contenido, y ahora recae sobre ellos probar que el contenido que publican no es un deepfake", explicó Manny Ahmed, fundador y CEO de la empresa OpenOrigins. La preocupación por el uso de esta poderosa herramienta de eliminación como un arma de censura y vigilancia se hace evidente, especialmente en un contexto donde el gobierno busca sembrar desconfianza entre sus ciudadanos. Sin embargo, Steinhauer alienta a mantener una mente abierta, afirmando que esto podría abrir la puerta a discusiones razonables y a una regulación equilibrada.
A pesar de que Trump impulsó esta ley, también promovió un proyecto más amplio que incluye una prohibición de 10 años sobre la regulación de IA a nivel estatal y local. La incertidumbre sobre el futuro de la ley se mantiene, con organizaciones de derechos anticipando desafíos legales basados en la libertad de expresión. "Actualmente no existe una ley que impida crear material no pornográfico o sexual con tu imagen", añadió Steinhauer. La discusión sobre cómo regular la IA está lejos de ser resolutiva.