Xai culpó a una “modificación no autorizada” por un error en su chatbot Grok con IA que hizo que Grok se refiriera repetidamente al “genocidio blanco en Sudáfrica” cuando se invoca en ciertos contextos en X.
El miércoles, Grok comenzó a responder a docenas de publicaciones en X con información sobre el genocidio blanco en Sudáfrica, incluso en respuesta a sujetos no relacionados. Las respuestas extrañas surgieron de la cuenta X para Grok, que responde a los usuarios con publicaciones generadas por IA cada vez que una persona etiqueta “@grok”.
Según una publicación del jueves de la cuenta oficial de XAI, se realizó un cambio el miércoles por la mañana a la solicitud del sistema de Grok Bot, las instrucciones de alto nivel que guían el comportamiento del bot, que dirigió a Grok a proporcionar una “respuesta específica” sobre un “tema político”. Xai dice que el ajuste “violó [its] Políticas internas y valores centrales “, y que la compañía ha” llevado a cabo una investigación exhaustiva “.
Es la segunda vez que Xai reconoce públicamente un cambio no autorizado al código de Grok, causó que la IA respondiera de manera controvertida.
En febrero, Grok censuró brevemente menciones de Donald Trump y Elon Musk, el fundador multimillonario de Xai y propietario de X. Igor Babuschkin, un protagonista de ingeniería de Xai, dijo que Grok había sido instruido por un empleado deshonesto para ignorar las fuentes que mencionaron a Musk o Trump difundiendo la incumplimiento, y que Xai volvió a ser el cambio como los usuarios comenzaron a señalarlo.
Xai dijo el jueves que hará varios cambios para evitar que ocurran incidentes similares en el futuro.
A partir de hoy, Xai publicará las indicaciones del sistema de Grok en GitHub y en ChangeLog. La compañía dice que también “establecerá controles y medidas adicionales” para garantizar que los empleados de XAI no puedan modificar el indicador del sistema sin revisión y establecer un “equipo de monitoreo 24/7 para responder a incidentes con las respuestas de Grok que no son atrapados por los sistemas automatizados”.
A pesar de las frecuentes advertencias de Musk sobre los peligros de la IA que no se dieron de control, Xai tiene un escaso historial de seguridad de IA. Un informe reciente descubrió que Grok desnudaría las fotos de las mujeres cuando se les preguntó. El chatbot también puede ser considerablemente más grosero que la IA como Gemini y ChatGPT de Google, maldiciendo sin mucha restricción para hablar.
Un estudio realizado por Saferai, una organización sin fines de lucro con el objetivo de mejorar la responsabilidad de AI Labs, encontró que XAI ocupa un mal lugar en la seguridad entre sus pares, debido a sus prácticas de gestión de riesgos “muy débiles”. A principios de este mes, Xai se perdió una fecha límite autoimpuesta para publicar un marco de seguridad de IA finalizado.