Home Tecnología X usuarios que tratan a Grok como una preocupación por checker de verificación sobre la información errónea

X usuarios que tratan a Grok como una preocupación por checker de verificación sobre la información errónea

by internauta
0 comment


Algunos usuarios en la X de Elon Musk están recurriendo al AI Bot Grok de Musk para verificar, planteando preocupaciones entre los verificadores de hechos humanos de que esto podría alimentar la información errónea.

A principios de este mes, X permitió a los usuarios llamar a Xai’s Grok y hacer preguntas sobre cosas diferentes. La medida fue similar a la perplejidad, que ha estado ejecutando una cuenta automatizada en X para ofrecer una experiencia similar.

Poco después de que Xai creó la cuenta automatizada de Grok en X, los usuarios comenzaron a experimentar con preguntas. Algunas personas en los mercados, incluida la India, comenzaron a pedirle a Grok que verifique los comentarios y preguntas que se dirigen a creencias políticas específicas.

Los verificadores de hechos están preocupados por usar Grok, o cualquier otro asistente de IA de este tipo, de esta manera porque los bots pueden enmarcar sus respuestas a sonar convincentes, incluso si no son correctos. Se vieron casos de difusión de noticias falsas y información errónea con Grok en el pasado.

En agosto del año pasado, cinco secretarias estatales instaron a Musk a implementar cambios críticos para Grok después de la información engañosa generada por el asistente apareció en las redes sociales antes de las elecciones de los Estados Unidos.

También se vio que otros chatbots, incluidos los chatgpt de OpenAI y Gemini de Google, generan información inexacta sobre las elecciones el año pasado. Por separado, los investigadores de desinformación encontraron en 2023 que los chatbots de IA, incluido el chatgpt, podrían usarse fácilmente para producir un texto convincente con narraciones engañosas.

“Los asistentes de IA, como Grok, son realmente buenos para usar un lenguaje natural y dar una respuesta que suena como un ser humano que lo dice. Y de esa manera, los productos de IA tienen esta afirmación sobre naturalidad y respuestas de sonido auténtico, incluso cuando están potencialmente muy mal. Ese sería el peligro aquí”, dijo Angie Holan, director de la red internacional de verificación de informes (si) en Poynter, dijo TechCrunch.

<span class=wp element caption text>Un usuario le pidió a Grok en X para verificar los reclamos hechos por otro usuario<span>

A diferencia de los asistentes de IA, los verificadores de hechos humanos utilizan múltiples fuentes creíbles para verificar la información. También toman la responsabilidad total de sus hallazgos, con sus nombres y organizaciones adjuntas para garantizar la credibilidad.

Pratik Sinha, cofundador del sitio web de verificación de hechos sin fines de lucro de la India, Alt News, dijo que aunque Grok actualmente parece tener respuestas convincentes, es tan bueno como los datos que se suministra.

“Quién va a decidir qué datos se suministran, y ahí es donde la interferencia del gobierno, etc., entrará en escena”, señaló.

“No hay transparencia. Cualquier cosa que carece de transparencia causará daño porque cualquier cosa que carece de transparencia puede moldearse de cualquier manera”.

“Podría usarse mal, difundir la información errónea”

En una de las respuestas publicadas a principios de esta semana, la cuenta de Grok sobre X reconoció que “podría ser mal utilizada, difundir la información errónea y violar la privacidad”.

Sin embargo, la cuenta automatizada no muestra ninguna renuncia a los usuarios cuando obtienen sus respuestas, lo que lleva a estar mal informado si, por ejemplo, ha alucinado la respuesta, que es la posible desventaja de la IA.

<span class=wp element caption text>La respuesta de Grok sobre si puede difundir la información errónea traducida de Hinglish<span>

“Puede compensar información para proporcionar una respuesta”, dijo a TechCrunch Anushka Jain, asociada de investigación en el Laboratorio de Futuros Digitales de Investigación Multidisciplinaria con sede en Goa.

También hay alguna pregunta sobre cuánto Grok usa publicaciones en X como datos de entrenamiento y qué medidas de control de calidad usa para verificar tales publicaciones. El verano pasado, expulsó un cambio que pareció permitir que Grok consumiera datos de los usuarios X de forma predeterminada.

El otro área preocupante de asistentes de IA como Grok es accesible a través de las plataformas de redes sociales es su entrega de información en público, a diferencia de ChatGPT u otros chatbots que se utilizan en privado.

Incluso si un usuario es consciente de que la información que recibe del asistente podría ser engañosa o no completamente correcta, otros en la plataforma aún podrían creerlo.

Esto podría causar graves daños sociales. Las instancias de eso se vieron anteriormente en la India cuando la información errónea sobre WhatsApp condujo a linchamientos de la mafia. Sin embargo, esos incidentes severos ocurrieron antes de la llegada de Genai, lo que ha hecho que la generación de contenido sintético sea aún más fácil y parezca más realista.

“Si ves muchas de estas respuestas de Grok, vas a decir, oye, bueno, la mayoría de ellas tienen razón, y eso puede ser así, pero habrá algunos que están equivocados. Y cuántas? No es una fracción pequeña. Algunos de los estudios de investigación han demostrado que los modelos de IA están sujetos a tasas de error del 20% … y cuando sale mal, puede ir realmente mal con las consecuencias mundiales reales”, dijo Ifcn, el Holan de Holan.

Ai vs. verificadores de hechos reales

Si bien las compañías de IA, incluida XAI, están refinando sus modelos de IA para que se comuniquen más como los humanos, todavía no son, y no pueden, reemplazar a los humanos.

Durante los últimos meses, las compañías tecnológicas están explorando formas de reducir la dependencia de los verificadores de hechos humanos. Las plataformas que incluyen X y Meta comenzaron a adoptar el nuevo concepto de verificación de hechos de crowdsourcing a través de las llamadas notas comunitarias.

Naturalmente, tales cambios también causan preocupación para los controladores de hechos.

Sinha de Alt News cree optimistas que las personas aprenderán a diferenciar entre máquinas y verificadores de hechos humanos y valorarán más la precisión de los humanos.

“Vamos a ver que el péndulo se retrocede eventualmente hacia más verificación de hechos”, dijo Holan de IFCN.

Sin embargo, señaló que mientras tanto, los verificadores de hechos probablemente tendrán más trabajo que ver con la información generada por la IA que se extiende rápidamente.

“Mucho de este problema depende, ¿realmente te importa lo que realmente es verdad o no? ¿Estás buscando la chapa de algo que suena y se siente cierto sin ser verdad?

X y Xai no respondieron a nuestra solicitud de comentarios.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00