Home Tecnología Italia ordena el bloqueo de ChatGPT citando problemas de protección de datos

Italia ordena el bloqueo de ChatGPT citando problemas de protección de datos

by internauta
0 comment


Dos días después de una carta abierta que pedía una moratoria en el desarrollo de modelos generativos de IA más potentes para que los reguladores puedan ponerse al día con ChatGPT, la autoridad de protección de datos de Italia acaba de enviar un recordatorio oportuno de que algunos países hacer tener leyes que ya se aplican a la IA de vanguardia, ordenando a OpenAI que deje de procesar los datos de las personas localmente con efecto inmediato.

La DPA italiana dijo que le preocupa que el fabricante de ChatGPT esté violando el Reglamento General de Protección de Datos (RGPD) de la Unión Europea.

Específicamente, el Garantía dijo que emitió la orden para bloquear ChatGPT por las preocupaciones de que OpenAI haya procesado ilegalmente los datos de las personas, y también por la falta de un sistema para evitar que los menores accedan a la tecnología.

La empresa con sede en San Francisco tiene 20 días para responder a la orden, respaldada por la amenaza de algunas sanciones importantes si no cumple. (Recordatorio: las multas por infracciones del régimen de protección de datos de la UE pueden escalar hasta el 4% de la facturación anual o 20 millones de euros, lo que sea mayor).

Vale la pena señalar que, dado que OpenAI no tiene una entidad legal establecida en la UE, cualquier autoridad de protección de datos está facultada para intervenir, según el RGPD, si ve riesgos para los usuarios locales. (Entonces, donde interviene Italia, otros pueden seguirlo).

Conjunto de problemas de GDPR

El RGPD se aplica cada vez que se procesan datos personales de usuarios de la UE. Y está claro que el modelo de lenguaje grande de OpenAI ha estado procesando este tipo de información, ya que puede, por ejemplo, producir biografías de personas nombradas en la región a pedido (lo sabemos, lo hemos probado). Aunque OpenAI se ha negado a proporcionar detalles de los datos de entrenamiento utilizados para la última versión de la tecnología, GPT-4. Pero ha revelado que los modelos anteriores se entrenaron con datos extraídos de Internet, incluidos foros como Reddit. Entonces, si ha estado razonablemente en línea, es probable que el bot sepa su nombre.

Además de eso, se ha demostrado que ChatGPT produce información totalmente falsa sobre personas nombradas, aparentemente inventando detalles de los que carecen sus datos de entrenamiento. Lo que potencialmente plantea más preocupaciones sobre el RGPD, ya que el reglamento otorga a los europeos una serie de derechos sobre sus datos, incluido el derecho a la rectificación de errores. Y no está claro cómo/si las personas pueden pedirle a OpenAI que corrija los pronunciamientos erróneos sobre ellos generados por el bot, en solo un escenario de ejemplo.

El GarantíaLa declaración de también destaca una violación de datos que sufrió el servicio a principios de este mes, cuando OpenAI admitió que una función de historial de conversación había estado filtrando los chats de los usuarios y dijo que podría haber expuesto la información de pago de algunos usuarios.

Las violaciones de datos son otra área que regula el RGPD, con un enfoque en garantizar que las entidades que procesan datos personales estén protegiendo adecuadamente la información. La legislación paneuropea también contiene requisitos para notificar a las autoridades de supervisión pertinentes las infracciones significativas en plazos ajustados.

Por encima de todo esto está la pregunta más importante: ¿en qué base legal se ha basado OpenAI para procesar los datos de los europeos en primer lugar? Aka, la licitud de este tratamiento.

El RGPD permite una serie de posibilidades, desde el consentimiento hasta el interés público, pero la escala del procesamiento para entrenar estos grandes modelos de lenguaje complica la cuestión de la legalidad, ya que el Garantía notas (que apuntan a la “recolección y almacenamiento masivo de datos personales”), siendo la minimización de datos otro gran enfoque en la regulación, que también contiene principios que requieren transparencia y equidad. Sin embargo, al menos, la (ahora) empresa con fines de lucro detrás de ChatGPT no parece haber informado a las personas cuyos datos se reutilizan para entrenar sus IA comerciales. Lo que podría ser un problema bastante complicado para él.

Si OpenAI ha procesado los datos de los europeos de manera ilegal, las DPA de todo el bloque podrían ordenar que se eliminen los datos, aunque si eso obligaría a volver a entrenar modelos entrenados con datos obtenidos ilegalmente es una pregunta abierta, ya que una ley existente se enfrenta a tecnología de punta.

Por otro lado, es posible que Italia haya prohibido todo el aprendizaje automático por accidente… 😬

“[T]El Garante de Privacidad señala la falta de información a los usuarios y a todas las partes interesadas cuyos datos son recopilados por OpenAI pero, sobre todo, la ausencia de una base legal que justifique la recopilación y el almacenamiento masivos de datos personales, con el fin de ‘entrenar’ los algoritmos subyacentes. el funcionamiento de la plataforma”, escribe la DPA en su comunicado de hoy [which we’ve translated from Italian using AI].

“Como lo demuestran los controles realizados, la información proporcionada por ChatGPT no siempre corresponde a los datos reales, lo que determina un tratamiento inexacto de los datos personales”, agregó.

La autoridad agregó que le preocupa el riesgo de que OpenAI procese los datos de menores, ya que la empresa no impide activamente que las personas menores de 13 años se registren para usar el chatbot, por ejemplo, mediante la aplicación de tecnología de verificación de edad.

Los riesgos para los datos de los niños es un área en la que el regulador ha estado muy activo: recientemente ordenó una prohibición similar en el chatbot de IA de amistad virtual, Replika, por preocupaciones de seguridad infantil. En los últimos años, también persiguió a TikTok por el uso de menores de edad, lo que obligó a la compañía a purgar más de medio millón de cuentas que no pudo confirmar que no pertenecieran a niños.

Entonces, si OpenAI no puede confirmar definitivamente la edad de los usuarios registrados en Italia, podría, como mínimo, verse obligado a eliminar sus cuentas y comenzar de nuevo con un proceso de registro más sólido.

Se contactó a OpenAI para obtener una respuesta a la Garantíaorden de .

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00