El exjefe de la Agencia de Seguridad Nacional, el general retirado Paul Nakasone, se unirá a la junta directiva de OpenAI, anunció la compañía de inteligencia artificial el jueves por la tarde. También formará parte del subcomité de “seguridad y protección” de la junta.
Es probable que la incorporación de alto perfil tenga como objetivo satisfacer a los críticos que piensan que OpenAI se está moviendo más rápido de lo que sería prudente para sus clientes y posiblemente para la humanidad, presentando modelos y servicios sin evaluar adecuadamente sus riesgos ni bloquearlos.
Nakasone aporta décadas de experiencia del Ejército, el Comando Cibernético de EE. UU. y la NSA. Cualquiera que sea su opinión sobre las prácticas y la toma de decisiones en estas organizaciones, ciertamente no se le puede acusar de falta de experiencia.
A medida que OpenAI se establece cada vez más como un proveedor de IA no sólo para la industria tecnológica sino también para el gobierno, la defensa y las grandes empresas, este tipo de conocimiento institucional es valioso tanto para sí mismo como para calmar a los accionistas preocupados. (Sin duda, las conexiones que aporta en el aparato estatal y militar también son bienvenidas).
“La dedicación de OpenAI a su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público”, dijo Nakasone en un comunicado de prensa.
Eso ciertamente parece cierto: Nakasone y la NSA defendieron recientemente la práctica de comprar datos de procedencia cuestionable para alimentar sus redes de vigilancia, argumentando que no había ninguna ley que lo prohibiera. OpenAI, por su parte, simplemente ha tomado, en lugar de comprar, grandes cantidades de datos de Internet, argumentando cuando los detecta que no existe ninguna ley que los prohíba. Parecen estar de acuerdo cuando se trata de pedir perdón en lugar de permiso, si es que realmente lo piden.
El comunicado de OpenAI también dice:
Los conocimientos de Nakasone también contribuirán a los esfuerzos de OpenAI para comprender mejor cómo se puede utilizar la IA para fortalecer la ciberseguridad detectando y respondiendo rápidamente a las amenazas a la ciberseguridad. Creemos que la IA tiene el potencial de ofrecer beneficios significativos en esta área para muchas instituciones que frecuentemente son blanco de ataques cibernéticos, como hospitales, escuelas e instituciones financieras.
Así que este también es un nuevo juego de mercado.
Nakasone se unirá al comité de seguridad de la junta, que es “responsable de hacer recomendaciones a toda la Junta sobre decisiones críticas de seguridad para proyectos y operaciones de OpenAI”. Aún se desconoce qué hace realmente esta entidad recién creada y cómo funcionará, ya que varias de las personas de alto nivel que trabajan en seguridad (en lo que respecta al riesgo de IA) han abandonado la empresa, y el propio comité se encuentra en medio de un período de 90 días. evaluación de los procesos y salvaguardas de la empresa.