Operai ha publicado una postmortem sobre los recientes problemas de la skofancancia con el modelo AI predeterminado que impulsa el chatgpt, GPT-4O, problemas que obligaron a la compañía a retirar una actualización al modelo publicada la semana pasada.
Durante el fin de semana, después de la actualización del modelo GPT-4O, los usuarios en las redes sociales señalaron que ChatGPT comenzó a responder de una manera demasiado validada y agradable. Rápidamente se convirtió en un meme. Los usuarios publicaron capturas de pantalla de ChatGPT aplaudiendo todo tipo de decisiones e ideas problemáticas y peligrosas.
Según OpenAI, la actualización, que tenía la intención de hacer que la personalidad predeterminada del modelo “se sintiera más intuitiva y efectiva”, fue informada demasiado por “comentarios a corto plazo” y “no explicó completamente cómo las interacciones de los usuarios con ChatGPT evolucionan con el tiempo”.
“Como resultado, GPT -4O se sesgó hacia las respuestas que fueron demasiado de apoyo pero falsas”, escribió OpenAI en una publicación de blog. “Las interacciones sycofánticas pueden ser incómodas, inquietantes y causar angustia. Nos quedamos cortos y estamos trabajando para hacerlo bien”.
Operai dice que está implementando varias correcciones, incluida la refinación de sus técnicas de capacitación de modelos centrales y las indicaciones del sistema para dirigir explícitamente GPT-4O lejos de la skofancia. La compañía también está construyendo más barandillas de seguridad para “aumentar [the model’s] Honestidad y transparencia ”, dice.
Operai también dice que está explorando formas de permitir a los usuarios dar “comentarios en tiempo real” para “influir directamente en sus interacciones” con ChatGPT y elegir entre múltiples “personalidades” de ChatGPT.
“[W]Explorando nuevas formas de incorporar comentarios más amplios y democráticos en los comportamientos predeterminados de ChatGPT “, escribió la compañía en su publicación de blog.” También creemos que los usuarios deberían tener más control sobre cómo se comporta el chatgpt y, en la medida en que es seguro y factible, hacer ajustes si no están de acuerdo con el comportamiento predeterminado “.