Home Tecnología Sam Altman advierte que no hay confidencialidad legal al usar ChatGPT como terapeuta

Sam Altman advierte que no hay confidencialidad legal al usar ChatGPT como terapeuta

by internauta
0 comment


Los usuarios de ChatGPT pueden querer pensar dos veces antes de recurrir a su aplicación AI para terapia u otros tipos de apoyo emocional. Según el CEO de OpenAI, Sam Altman, la industria de la IA aún no ha descubierto cómo proteger la privacidad del usuario cuando se trata de estas conversaciones más sensibles, porque no hay confidencialidad del médico-paciente cuando su Doc es una IA.

El ejecutivo hizo estos comentarios en un episodio reciente del podcast de Theo Von, el pasado fin de semana con Theo Von.

https://www.youtube.com/watch?v=ayn8vkw6vxa

En respuesta a una pregunta sobre cómo funciona la IA con el sistema legal de hoy, Altman dijo que uno de los problemas de no tener un marco legal o de política para la IA es que no hay confidencialidad legal para las conversaciones de los usuarios.

“La gente habla sobre la mierda más personal en sus vidas para chatgpt”, dijo Altman. “La gente lo usa, los jóvenes, especialmente, lo usan, como terapeuta, entrenador de vida; tener estos problemas de relación y [asking] ‘¿Qué tengo que hacer?’ Y en este momento, si habla con un terapeuta o un abogado o un médico sobre esos problemas, existe un privilegio legal para ello. Hay confidencialidad médico-paciente, hay confidencialidad legal, lo que sea. Y aún no lo hemos descubierto para cuando hables con ChatGpt “.

Esto podría crear una preocupación de privacidad para los usuarios en el caso de una demanda, agregó Altman, porque OpenAi estaría legalmente obligado a producir esas conversaciones hoy.

“Creo que está muy jodido. Creo que deberíamos tener el mismo concepto de privacidad para sus conversaciones con IA que hacemos con un terapeuta o lo que sea, y nadie tuvo que pensar en eso incluso hace un año”, dijo Altman.

La compañía entiende que la falta de privacidad podría ser un bloqueador de la adopción de usuarios más amplia. Además de la demanda de AI de tantos datos en línea durante el período de capacitación, se le pide que produzca datos de los chats de los usuarios en algunos contextos legales. Ya, Operai ha estado luchando contra una orden judicial en su demanda con el New York Times, lo que requeriría que ahorre los chats de cientos de millones de usuarios de ChatGPT en todo el mundo, excluyendo a los de los clientes empresariales de ChatGPT.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

En un comunicado en su sitio web, Openai dijo que está apelando esta orden, que llamó “una extralimitación”. Si el tribunal pudiera anular las propias decisiones de OpenAI en torno a la privacidad de los datos, podría abrir la compañía a una mayor demanda de descubrimiento legal o fines de aplicación de la ley. Las empresas tecnológicas de hoy se citan regularmente para los datos del usuario para ayudar en los enjuiciamientos penales. Pero en los últimos años, ha habido preocupaciones adicionales sobre los datos digitales a medida que las leyes comenzaron a limitar el acceso a las libertades previamente establecidas, como el derecho de una mujer a elegir.

Cuando la Corte Suprema revocó a Roe v. Wade, por ejemplo, los clientes comenzaron a cambiar a aplicaciones más privadas de seguimiento de períodos o a Apple Health, que encriptaban sus registros.

Altman le preguntó al presentador de podcast sobre su propio uso de ChatGPT, también, dado que Von dijo que no habló mucho con el chatbot de IA debido a sus propias preocupaciones de privacidad.

“Creo que tiene sentido … realmente querer la claridad de privacidad antes de usar [ChatGPT] Mucho, como la claridad legal ”, dijo Altman.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00