Home Tecnología Meta suspende sus planes para entrenar la IA utilizando los datos de los usuarios europeos, cediendo a la presión regulatoria

Meta suspende sus planes para entrenar la IA utilizando los datos de los usuarios europeos, cediendo a la presión regulatoria

by internauta
0 comment


Meta ha confirmado que detendrá sus planes para comenzar a entrenar sus sistemas de IA utilizando datos de sus usuarios en la Unión Europea y el Reino Unido.

La medida sigue al rechazo de la Comisión Irlandesa de Protección de Datos (DPC), el principal regulador de Meta en la UE, que actúa en nombre de varias autoridades de protección de datos en todo el bloque. La Oficina del Comisionado de Información (ICO) del Reino Unido también solicitó que Meta pausara sus planes hasta que pudiera satisfacer las preocupaciones que había planteado.

“La DPC acoge con satisfacción la decisión de Meta de pausar sus planes para entrenar su modelo de lenguaje grande utilizando contenido público compartido por adultos en Facebook e Instagram en toda la UE y el EEE”, dijo la DPC en un comunicado el viernes. “Esta decisión se produjo tras un intenso compromiso entre el DPC y Meta. La DPC, en cooperación con sus autoridades de protección de datos de la UE, seguirá colaborando con Meta en este tema”.

Si bien Meta ya está aprovechando el contenido generado por los usuarios para entrenar su IA en mercados como los EE. UU., las estrictas regulaciones GDPR de Europa han creado obstáculos para Meta (y otras empresas) que buscan mejorar sus sistemas de IA, incluidos grandes modelos de lenguaje con capacitación generada por los usuarios. material.

Sin embargo, Meta el mes pasado comenzó a notificar a los usuarios sobre un próximo cambio en su política de privacidad, uno que, según dijo, le dará derecho a usar contenido público en Facebook e Instagram para entrenar su IA, incluido el contenido de comentarios, interacciones con empresas y actualizaciones de estado. , fotografías y sus títulos asociados. La empresa argumentó que necesitaba hacer esto para reflejar “los diversos idiomas, geografía y referencias culturales de la gente de Europa”.

Estos cambios debían entrar en vigor el 26 de junio, dentro de 12 días. Pero los planes impulsaron a la organización activista de privacidad sin fines de lucro NOYB (“no es de su incumbencia”) a presentar 11 quejas ante los países constituyentes de la UE, argumentando que Meta está contraviniendo varias facetas del RGPD. Uno de ellos se relaciona con la cuestión de la aceptación versus la exclusión voluntaria, frente a frente cuando se realiza el procesamiento de datos personales, primero se debe pedir permiso a los usuarios en lugar de exigir medidas para negarse.

Meta, por su parte, se basaba en una disposición del RGPD llamada “intereses legítimos” para afirmar que sus acciones cumplían con las regulaciones. No es la primera vez que Meta utiliza esta base jurídica como defensa, ya que anteriormente lo había hecho para justificar el procesamiento de publicidad dirigida a usuarios europeos.

Siempre pareció probable que los reguladores al menos suspendieran la ejecución de los cambios planeados por Meta, particularmente considerando lo difícil que la compañía había hecho que los usuarios “optaran por no” que se usaran sus datos. La compañía dijo que envió más de 2 mil millones de notificaciones para informar a los usuarios sobre los próximos cambios, pero a diferencia de otros mensajes públicos importantes que se encuentran en la parte superior de los feeds de los usuarios, como indicaciones para salir y votar, estas notificaciones aparecieron junto a los usuarios. ‘Notificaciones estándar: cumpleaños de amigos, alertas de etiquetas de fotos, anuncios de grupo y más. Entonces, si alguien no revisa regularmente sus notificaciones, era muy fácil pasarlo por alto.

Y aquellos que vieron la notificación no sabrían automáticamente que había una manera de objetar o darse de baja, ya que simplemente invitaba a los usuarios a hacer clic para descubrir cómo Meta usará su información. No había nada que sugiriera que hubiera una opción aquí.

Meta notificación de IA
Meta notificación de IA
Créditos de imagen: Meta

Además, técnicamente los usuarios no podían optar por no utilizar sus datos. En su lugar, tuvieron que completar un formulario de objeción en el que expusieron sus argumentos de por qué no querían que se procesaran sus datos; quedó totalmente a discreción de Meta si se cumplió con esta solicitud, aunque la compañía dijo que cumpliría con cada uno de ellos. pedido.

Facebook objeción forma
Formulario de objeción de Facebook
Créditos de imagen: Meta/captura de pantalla

Aunque el formulario de objeción estaba vinculado desde la notificación misma, cualquiera que buscara proactivamente el formulario de objeción en la configuración de su cuenta tenía mucho trabajo.

En el sitio web de Facebook, primero tenían que hacer clic en su Foto de perfil en la parte superior derecha; golpear configuración y privacidad; grifo centro de privacidad; desplácese hacia abajo y haga clic en el IA generativa en Meta sección; desplácese hacia abajo nuevamente pasando un montón de enlaces a una sección titulada más recursos. El primer enlace de esta sección se llama “Cómo Meta utiliza la información para los modelos de IA generativa” y necesitaron leer unas 1.100 palabras antes de llegar a un enlace discreto al formulario de “derecho a objetar” de la empresa. Fue una historia similar en la aplicación móvil de Facebook.

Enlace a derecho a oponerse forma
Enlace al formulario de derecho a oponerse
Créditos de imagen: Meta/captura de pantalla

A principios de esta semana, cuando se le preguntó por qué este proceso requería que el usuario presentara una objeción en lugar de aceptar, Matt Pollard, gerente de comunicaciones de políticas de Meta, señaló a TechCrunch su publicación de blog existente, que dice: “Creemos que esta base legal [“legitimate interests”] Es el equilibrio más apropiado para procesar datos públicos a la escala necesaria para entrenar modelos de IA, respetando al mismo tiempo los derechos de las personas”.

Para traducir esto, hacer esta suscripción probablemente no generaría suficiente “escala” en términos de personas dispuestas a ofrecer sus datos. Entonces, la mejor manera de solucionar este problema era emitir una notificación solitaria entre las demás notificaciones de los usuarios; ocultar el formulario de objeción detrás de media docena de clics para aquellos que buscan la “exclusión voluntaria” de forma independiente; y luego hacerles justificar su objeción, en lugar de darles una opción directa de exclusión.

En una publicación de blog actualizada el viernes, el director de política de privacidad global de Meta, Stefano Fratta, dijo que estaba “decepcionado” por la solicitud que recibió del DPC.

“Este es un paso atrás para la innovación europea, la competencia en el desarrollo de la IA y mayores retrasos para llevar los beneficios de la IA a las personas en Europa”, escribió Fratta. “Seguimos muy confiados en que nuestro enfoque cumple con las leyes y regulaciones europeas. La formación en IA no es exclusiva de nuestros servicios y somos más transparentes que muchos de nuestros homólogos de la industria”.

Carrera armamentista de IA

Nada de esto es nuevo, y Meta está en una carrera armamentista de IA que ha puesto de relieve el vasto arsenal de datos que las grandes tecnologías tienen sobre todos nosotros.

A principios de este año, Reddit reveló que tiene un contrato para ganar más de 200 millones de dólares en los próximos años por la concesión de licencias de sus datos a empresas como OpenAI, fabricante de ChatGPT, y Google. Y la última de esas empresas ya se enfrenta a enormes multas por basarse en contenido de noticias protegido por derechos de autor para entrenar sus modelos generativos de IA.

Pero estos esfuerzos también resaltan hasta dónde llegarán las empresas para garantizar que puedan aprovechar estos datos dentro de las limitaciones de la legislación existente; “Aceptar” rara vez figura en la agenda, y el proceso de optar por no participar es a menudo innecesariamente arduo. El mes pasado, alguien detectó una redacción dudosa en una política de privacidad existente de Slack que sugería que podría aprovechar los datos de los usuarios para entrenar sus sistemas de inteligencia artificial, y que los usuarios solo podrían optar por no participar enviando un correo electrónico a la empresa.

Y el año pasado, Google finalmente les dio a los editores en línea una forma de optar por que sus sitios web no entrenaran sus modelos permitiéndoles inyectar un fragmento de código en sus sitios. OpenAI, por su parte, está creando una herramienta dedicada para permitir a los creadores de contenido optar por no entrenar su inteligencia generativa de IA; esto debería estar listo para 2025.

Si bien los intentos de Meta de entrenar su IA en el contenido público de los usuarios en Europa están congelados por ahora, es probable que vuelva a levantar la cabeza en otra forma después de consultar con el DPC y el ICO, con suerte con un proceso de permiso de usuario diferente.

“Para aprovechar al máximo la IA generativa y las oportunidades que brinda, es crucial que el público pueda confiar en que sus derechos de privacidad serán respetados desde el principio”, dijo Stephen Almond, director ejecutivo de riesgo regulatorio de la ICO, en una declaración el viernes. “Continuaremos monitoreando a los principales desarrolladores de IA generativa, incluido Meta, para revisar las salvaguardias que han implementado y garantizar que los derechos de información de los usuarios del Reino Unido estén protegidos”.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00