Cientos de personas en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones de identidad generadas por IA, o deepfakes. Si bien es poco probable que esto impulse una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), sí actúa como un indicador de cómo los expertos se apoyan en este tema controvertido.
La carta, firmada por más de 500 personas en el campo de la IA y sus alrededores en el momento de su publicación, declara que “los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de los deepfakes”.
Piden la criminalización total de los materiales de abuso sexual infantil (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se exigen sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes dañinos. Y se pide a los desarrolladores que, en primer lugar, impidan que se realicen deepfakes dañinos utilizando sus productos, con sanciones si sus medidas preventivas son inadecuadas.
Entre los firmantes más destacados de la carta se encuentran:
- Jaron Lanier
- Frances Haugen
- Estuardo Russell
- Andrés Yang
- Marietje Schaake
- Steven Pinker
- Gary Marcos
- Oren Etzioni
- genevieve smith
- Yoshua Bengio
- Daniel Hendrycks
- Tim Wu
También están presentes cientos de académicos de todo el mundo y de muchas disciplinas. En caso de que tenga curiosidad, una persona de OpenAI firmó, un par de Google Deepmind y, al momento de esta publicación, ninguna persona de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí no es estándar). Curiosamente, en la carta están ordenados por “Notabilidad”.
Este está lejos de ser el primer llamado a tomar medidas de este tipo; de hecho, se han debatido en la UE durante años antes de ser propuestos formalmente a principios de este mes. Quizás sea la voluntad de la UE de deliberar y seguir adelante lo que impulsó a estos investigadores, creadores y ejecutivos a hablar.
O tal vez sea el lento avance de KOSA hacia la aceptación y su falta de protección para este tipo de abuso.
O tal vez sea la amenaza (como ya hemos visto) de llamadas fraudulentas generadas por IA que podrían influir en las elecciones o estafar a personas ingenuas para quitarles su dinero.
O tal vez sea que el grupo de trabajo de ayer se anunció sin una agenda particular más que escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían restringirse legislativamente.
Como puede ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo “¡¿Quizás deberíamos, ya sabes, hacer algo?!”
Nadie sabe si alguien se dará cuenta de esta carta: nadie realmente prestó atención a la infame carta que pedía a todos “pausar” el desarrollo de la IA, pero, por supuesto, esta carta es un poco más práctica. Si los legisladores deciden abordar el tema, algo poco probable dado que es un año electoral con un Congreso muy dividido, tendrán esta lista a la que recurrir para tomar la temperatura de la comunidad académica y de desarrollo mundial de AI.