Home Tecnología Usando memes, los usuarios de las redes sociales se han convertido en equipos rojos para funciones de IA a medias

Usando memes, los usuarios de las redes sociales se han convertido en equipos rojos para funciones de IA a medias

by internauta
0 comment


“Correr con tijeras es un ejercicio cardiovascular que puede aumentar el ritmo cardíaco y requiere concentración y concentración”, dice la nueva función de búsqueda de inteligencia artificial de Google. “Algunos dicen que también puede mejorar los poros y darte fuerza”.

La función de inteligencia artificial de Google obtuvo esta respuesta de un sitio web llamado Little Old Lady Comedy, que, como su nombre lo indica, es un blog de comedia. Pero el error es tan ridículo que ha estado circulando en las redes sociales, junto con otras resúmenes de IA obviamente incorrectas en Google. Efectivamente, los usuarios cotidianos ahora están combinando estos productos en las redes sociales.

En ciberseguridad, algunas empresas contratan “equipos rojos” (hackers éticos) que intentan vulnerar sus productos como si fueran malos actores. Si un equipo rojo encuentra una vulnerabilidad, la empresa puede solucionarla antes de que se envíe el producto. Ciertamente, Google llevó a cabo una especie de equipo rojo antes de lanzar un producto de inteligencia artificial en la Búsqueda de Google, que se estima que procesa billones de consultas por día.

Es sorprendente, entonces, que una empresa con muchos recursos como Google todavía ofrezca productos con defectos obvios. Es por eso que ahora se ha convertido en un meme hacer payasadas sobre las fallas de los productos de IA, especialmente en una época en la que la IA se está volviendo más ubicua. Hemos visto esto con mala ortografía en ChatGPT, la incapacidad de los generadores de video para comprender cómo los humanos comen espaguetis y los resúmenes de noticias de Grok AI en X que, como Google, no entienden la sátira. Pero estos memes podrían en realidad servir como comentarios útiles para las empresas que desarrollan y prueban la IA.

A pesar de la naturaleza notoria de estas fallas, las empresas de tecnología a menudo minimizan su impacto.

“Los ejemplos que hemos visto son consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”, dijo Google a TechCrunch en un comunicado enviado por correo electrónico. “Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia y utilizaremos estos ejemplos aislados a medida que continuamos perfeccionando nuestros sistemas en general”.

No todos los usuarios ven los mismos resultados de IA y, cuando llega una sugerencia de IA particularmente mala, el problema a menudo ya se ha solucionado. En un caso más reciente que se volvió viral, Google sugirió que si estás haciendo pizza pero el queso no se pega, podrías agregar aproximadamente un octavo de taza de pegamento a la salsa para “darle más pegajosidad”. Al final resultó que, la IA está extrayendo esta respuesta de un comentario de Reddit de hace once años de un usuario llamado “f––smith”.

Más allá de ser un error increíble, también indica que las ofertas de contenido de IA pueden estar sobrevaloradas. Google tiene un contrato de 60 millones de dólares con Reddit para licenciar su contenido para el entrenamiento de modelos de IA, por ejemplo. Reddit firmó un acuerdo similar con OpenAI la semana pasada, y se rumorea que las propiedades de Automattic, WordPress.org y Tumblr, están en conversaciones para vender datos a Midjourney y OpenAI.

Hay que reconocer que muchos de los errores que circulan en las redes sociales provienen de búsquedas no convencionales diseñadas para hacer tropezar a la IA. Al menos espero que nadie esté buscando seriamente los “beneficios para la salud de correr con tijeras”. Pero algunos de estos errores son más graves. La periodista científica Erin Ross publicó en X que Google arroja información incorrecta sobre qué hacer si te muerde una serpiente de cascabel.

La publicación de Ross, que obtuvo más de 13.000 me gusta, muestra que AI recomendó aplicar un torniquete a la herida, cortarla y succionar el veneno. Según el Servicio Forestal de EE. UU., estas son todas las cosas que debes no hazlo si te muerden. Mientras tanto, en Bluesky, el autor T Kingfisher amplió una publicación que muestra a Gemini de Google identificando erróneamente un hongo venenoso con un champiñón blanco común; las capturas de pantalla de la publicación se han extendido a otras plataformas como una advertencia.

Cuando una mala respuesta de la IA se vuelve viral, la IA podría confundirse más por el nuevo contenido sobre el tema que surge como resultado. El miércoles, el periodista del New York Times, Aric Toler, publicó una captura de pantalla en X que muestra una pregunta preguntando si un perro ha jugado alguna vez en la NHL. La respuesta de la IA fue sí: por alguna razón, la IA llamó perro al jugador de Calgary Flames, Martin Pospisil. Ahora, cuando haces la misma consulta, la IA muestra un artículo del Daily Dot sobre cómo la IA de Google sigue pensando que los perros practican deportes. La IA está siendo alimentada con sus propios errores, envenenándola aún más.

Este es el problema inherente al entrenamiento de estos modelos de IA a gran escala en Internet: a veces, la gente en Internet miente. Pero al igual que no existe ninguna regla que prohíba que un perro juegue baloncesto, desafortunadamente no existe ninguna regla que impida que las grandes empresas de tecnología envíen productos de inteligencia artificial defectuosos.

Como dice el refrán: basura entra, basura sale.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00