Se está produciendo un cambio de personal significativo en OpenAI, el gigante de la inteligencia artificial que ha insertado casi sin ayuda el concepto de IA generativa en el discurso público mundial con el lanzamiento de ChatGPT. Dave Willner, un veterano de la industria que fue el jefe de confianza y seguridad de la startup, anunció en una publicación en LinkedIn anoche que dejó el trabajo y pasó a un rol de asesor. Él planea pasar más tiempo con su joven familia, dijo. Llevaba un año y medio en el cargo.
Su partida llega en un momento crítico para el mundo de la IA.
Junto con todo el entusiasmo por las capacidades de las plataformas de IA generativa, que se basan en modelos de lenguaje grandes y son increíblemente rápidas para producir texto, imágenes, música y más generados libremente en función de indicaciones simples de los usuarios, ha habido una lista creciente de preguntas. ¿Cuál es la mejor manera de regular la actividad y las empresas en este nuevo mundo feliz? ¿Cuál es la mejor manera de mitigar cualquier impacto dañino en todo un espectro de problemas? La confianza y la seguridad son partes fundamentales de esas conversaciones.
Justo hoy, el presidente de OpenAI, Greg Brockman, comparecerá en la Casa Blanca junto con ejecutivos de Anthropic, Google, Inflection, Microsoft, Meta y Amazon para respaldar compromisos voluntarios para perseguir objetivos compartidos de seguridad y transparencia antes de una Orden Ejecutiva de AI que está en proceso. Eso se produce a raíz de una gran cantidad de ruido en Europa relacionado con la regulación de la IA, así como el cambio de sentimientos entre algunos otros.
Lo importante de todo esto no se le escapa a OpenAI, que ha buscado posicionarse como un jugador consciente y responsable en el campo.
Willner no hace ninguna referencia a nada de eso específicamente en su publicación de LinkedIn. En cambio, lo mantiene en alto nivel, señalando que las demandas de su trabajo en OpenAI pasaron a una “fase de alta intensidad” después del lanzamiento de ChatGPT.
“Estoy orgulloso de todo lo que nuestro equipo ha logrado durante mi tiempo en OpenAI, y si bien mi trabajo allí fue uno de los mejores e interesantes que se pueden tener hoy en día, también creció dramáticamente en su alcance y escala desde que me uní por primera vez”, escribió. Si bien él y su esposa, Chariotte Willner, que también es especialista en confianza y seguridad, se comprometieron a poner siempre a la familia en primer lugar, dijo, “en los meses posteriores al lanzamiento de ChatGPT, me resultó cada vez más difícil cumplir con mi parte del trato”.
Willner ha estado en su puesto de OpenAI durante solo un año y medio, pero viene de una larga carrera en el campo que incluye liderar equipos de confianza y seguridad en Facebook y Airbnb.
El trabajo de Facebook es especialmente interesante. Allí, fue uno de los primeros empleados que ayudó a definir la primera posición de normas comunitarias de la empresa, que todavía se utiliza como base del enfoque de la empresa en la actualidad.
Ese fue un período muy formativo para la empresa y, posiblemente, dada la influencia que ha tenido Facebook en el desarrollo global de las redes sociales, para Internet y la sociedad en general. Algunos de esos años estuvieron marcados por posiciones muy francas sobre la libertad de expresión y cómo Facebook necesitaba resistir los llamados a controlar a los grupos controvertidos y las publicaciones controvertidas.
Un ejemplo de ello fue una disputa muy grande, en 2009, que se desarrolló en el foro público sobre cómo Facebook manejaba las cuentas y las publicaciones de los negadores del Holocausto. Algunos empleados y observadores externos sintieron que Facebook tenía el deber de tomar una posición y prohibir esas publicaciones. Otros creían que hacerlo era similar a la censura y enviaban un mensaje equivocado sobre la libertad de expresión.
Willner estaba en el último campo, creyendo que el “discurso de odio” no era lo mismo que el “daño directo” y, por lo tanto, no debería moderarse de la misma manera. “No creo que la Negación del Holocausto, como idea en su [sic] propio, representa inherentemente una amenaza para la seguridad de los demás”, escribió en ese momento. (Para una explosión del pasado de TechCrunch, vea la publicación completa sobre esto aquí).
En retrospectiva, dada la cantidad de cosas que se han desarrollado, fue una posición bastante miope e ingenua. Pero, parece que al menos algunas de esas ideas evolucionaron. En 2019, cuando ya no era empleado de la red social, se manifestó en contra de cómo la empresa quería otorgar a los políticos y figuras públicas excepciones de moderación de contenido más débiles.
Pero si la necesidad de sentar las bases adecuadas en Facebook era más grande de lo que la gente anticipó en ese momento, podría decirse que ese es aún más el caso ahora para la nueva ola de tecnología. De acuerdo con esta historia del New York Times de hace menos de un mes, Willner había sido llamado a OpenAI inicialmente para ayudarlo a descubrir cómo evitar que Dall-E, el generador de imágenes de la startup, se maltratara y se usara para cosas como la creación de pornografía infantil generativa de IA.
Pero como dice el refrán, OpenAI (y la industria) necesita esa política para ayer. “Dentro de un año, vamos a llegar a un estado muy problemático en esta área”, dijo al NYT David Thiel, el tecnólogo jefe del Observatorio de Internet de Stanford.
Ahora, sin Willner, ¿quién liderará el cargo de OpenAI para abordar eso?
(Nos comunicamos con OpenAI para obtener comentarios y actualizaremos esta publicación con cualquier respuesta).