Los defensores de la privacidad y los derechos digitales están generando alarmas sobre una ley que muchos esperarían que animen: una represión federal contra el porno de venganza y los profundos profundos generados por IA.
La Ley de Take It Down recién firmada hace que sea ilegal publicar imágenes explícitas no consensuadas, reales o generadas por IA, y ofrece plataformas solo 48 horas para cumplir con la solicitud o responsabilidad facial de una víctima. Si bien es ampliamente elogiado como una victoria desde hace mucho tiempo para las víctimas, los expertos también advirtieron su lenguaje vago, los estándares laxos para verificar las afirmaciones y la escasa ventana de cumplimiento podría allanar el camino para exagerar, censura de contenido legítimo e incluso vigilancia.
“La moderación de contenido a escala es ampliamente problemática y siempre termina con un discurso importante y necesario censurarse”, dijo a TechCrunch, directora de asuntos federales de la Fundación Electrónica de Frontier, una organización de derechos digitales.
Las plataformas en línea tienen un año para establecer un proceso para eliminar imágenes íntimas no consensuadas (NCII). Si bien la ley requiere que las solicitudes de derribo provienen de víctimas o sus representantes, solo solicita una firma física o electrónica, no se necesita una identificación con foto u otra forma de verificación. Eso probablemente tiene como objetivo reducir las barreras para las víctimas, pero podría crear una oportunidad de abuso.
“Realmente quiero estar equivocado sobre esto, pero creo que habrá más solicitudes para eliminar imágenes que representan a las personas queer y trans en las relaciones, e incluso más que eso, creo que será porno consensual”, dijo McKinney.
La senadora Marsha Blackburn (R-TN), copatrocinadora de la Ley Take It Down, también patrocinó la Ley de Seguridad en línea de los niños que coloca la responsabilidad en las plataformas para proteger a los niños del contenido dañino en línea. Blackburn ha dicho que cree que el contenido relacionado con las personas transgénero es perjudicial para los niños. Del mismo modo, la Fundación Heritage, el grupo de expertos conservador detrás del Proyecto 2025, también ha dicho que “mantener el contenido trans alejado de los niños es proteger a los niños”.
Debido a la responsabilidad que enfrentan las plataformas si no retiran una imagen dentro de las 48 horas posteriores a la recepción de una solicitud, “el valor predeterminado será que simplemente la eliminarán sin investigar si esto es realmente NCII o si es otro tipo de habla protegida, o si es relevante para la persona que está haciendo la solicitud”, dijo McKinney.
Snapchat y Meta han dicho que apoyan la ley, pero ninguno respondió a las solicitudes de TechCrunch para obtener más información sobre cómo verificará si la persona que solicita un derribo es una víctima.
Mastodon, una plataforma descentralizada que aloja su propio servidor insignia al que otros pueden unirse, le dijo a TechCrunch que se inclinaría hacia la eliminación si fuera demasiado difícil verificar a la víctima.
Mastodon y otras plataformas descentralizadas como Bluesky o Pixed pueden ser especialmente vulnerables al efecto relajante de la regla de derribo de 48 horas. Estas redes dependen de servidores operados de forma independiente, a menudo administradas por organizaciones sin fines de lucro o individuos. Según la ley, la FTC puede tratar cualquier plataforma que no “cumpla razonablemente” con las demandas de derribo como cometer un “acto o práctica injusto o engañoso”, incluso si el anfitrión no es una entidad comercial.
“Esto es preocupante a su enfrentamiento, pero es particularmente así en un momento cuando el presidente de la FTC ha tomado medidas sin precedentes para politizar la agencia y ha prometido explícitamente utilizar el poder de la agencia para castigar las plataformas y los servicios ideológicos, en oposición a principios,”, la iniciativa de derechos civiles cibernéticos, una organización sin procesos dedicada a la finalización de una venganza, en una declaración de principios.
Monitoreo proactivo
McKinney predice que las plataformas comenzarán a moderar el contenido antes de que se difunda, por lo que tienen menos publicaciones problemáticas para derribar en el futuro.
Las plataformas ya están utilizando AI para monitorear el contenido dañino.
Kevin Guo, CEO y cofundador de la startup de detección de contenido generada por AI Hive, dijo que su compañía trabaja con plataformas en línea para detectar deffakes y material de abuso sexual infantil (CSAM). Algunos de los clientes de Hive incluyen Reddit, Giphy, Vevo, Bluesky y Bereal.
“En realidad éramos una de las compañías tecnológicas que respaldaron ese proyecto de ley”, dijo Guo a TechCrunch. “Ayudará a resolver algunos problemas bastante importantes y obligará a estas plataformas a adoptar soluciones de manera más proactiva”.
El modelo de Hive es un software como servicio, por lo que el inicio no controla cómo las plataformas usan su producto para marcar o eliminar contenido. Pero Guo dijo que muchos clientes insertan la API de Hive en el punto de cargar para monitorear antes de que se envíe algo a la comunidad.
Un portavoz de Reddit le dijo a TechCrunch que la plataforma utiliza “herramientas, procesos y equipos internos sofisticados para abordar y eliminar” NCII. Reddit también se asocia con SWGFL sin fines de lucro para implementar su herramienta StopNCII, que escanea el tráfico en vivo para coincidir con una base de datos de NCII conocida y elimina las coincidencias precisas. La compañía no compartió cómo garantizaría que la persona que solicite el derribo sea la víctima.
McKinney advierte que este tipo de monitoreo podría extenderse a mensajes cifrados en el futuro. Si bien la ley se centra en la difusión pública o semipública, también requiere que las plataformas “eliminen y realicen esfuerzos razonables para evitar la reuplicación” de las imágenes íntimas no consensuadas. Ella argumenta que esto podría incentivar el escaneo proactivo de todo el contenido, incluso en espacios cifrados. La ley no incluye ninguna talla para servicios de mensajería cifrados de extremo a extremo como WhatsApp, Signal o iMessage.
Meta, Signal y Apple no han respondido a la solicitud de TechCrunch para obtener más información sobre sus planes de mensajes cifrados.
Implicaciones más amplias de libertad de expresión
El 4 de marzo, Trump pronunció un discurso conjunto al Congreso en el que elogió la Ley de Take It y dijo que esperaba firmarlo.
“Y también voy a usar esa factura para mí, si no te importa”, agregó. “No hay nadie que sea tratado peor que yo en línea”.
Mientras el público se rió del comentario, no todos lo tomaron como una broma. Trump no ha sido tímido para suprimir o tomar represalias contra el discurso desfavorable, ya sea etiquetando a los principales medios de comunicación “enemigos de la gente”, prohíbe la prensa asociada de la Oficina Oval a pesar de una orden judicial o retirando fondos de NPR y PBS.
El jueves, la administración Trump prohibió a la Universidad de Harvard aceptar las admisiones de estudiantes extranjeros, aumentar un conflicto que comenzó después de que Harvard se negó a adherirse a las demandas de Trump de hacer cambios en su plan de estudios y eliminar el contenido relacionado con DEI, entre otras cosas. En represalia, Trump ha congelado fondos federales para Harvard y amenazó con revocar el estado exento de impuestos de la universidad.
“En un momento en que ya vemos que las juntas escolares intentan prohibir los libros y estamos viendo que ciertos políticos sean muy explícitamente sobre los tipos de contenido que no quieren que la gente vea, ya sea que sea la teoría crítica de la raza o la información del aborto o la información sobre el cambio climático … es profundamente incómodo para nosotros con nuestro trabajo anterior en la moderación de contenido para ver a los miembros de ambas partes abiertas abiertas por la modernización de contenido en esta escala”, McKinney dice.