El gobierno del Reino Unido quiere hacer un giro duro para impulsar su economía e industria con IA, y como parte de eso, está girando una institución que fundó hace poco más de un año para un propósito muy diferente. Hoy, el Departamento de Ciencia, Industria y Tecnología anunció que cambiaría el nombre del Instituto de Seguridad de AI al “Instituto de Seguridad de AI”. (Las mismas primeras letras: la misma url.) Con eso, el cuerpo cambiará de explorar principalmente áreas como el riesgo existencial y el sesgo en modelos de idiomas grandes, a un enfoque en la ciberseguridad, específicamente “fortalecer las protecciones contra los riesgos que la IA representa para la seguridad nacional y el crimen del crimen. . “
Junto a esto, el gobierno también anunció una nueva asociación con Anthrope. No se anunciaron servicios firmes, pero el memorando de entendimiento indica que los dos “explorarán” el asistente de IA de Anthrope Claude en servicios públicos; y Anthrope tendrá como objetivo contribuir al trabajo en investigación científica y modelado económico. Y en el Instituto de Seguridad de AI, proporcionará herramientas para evaluar las capacidades de IA en el contexto de la identificación de riesgos de seguridad.
“La IA tiene el potencial de transformar la forma en que los gobiernos sirven a sus ciudadanos”, dijo el cofundador y CEO de Anthrope Dario Amodei en un comunicado. “Esperamos explorar cómo el asistente de IA de AI de Anthrope, Claude, podría ayudar a las agencias gubernamentales del Reino Unido a mejorar los servicios públicos, con el objetivo de descubrir nuevas formas de hacer que la información y los servicios vitales sean más eficientes y accesibles para los residentes del Reino Unido”.
Anthrope es la única compañía que se anuncia hoy, que coincide con una semana de actividades de IA en Munich y París, pero no es la única que está trabajando con el gobierno. Una serie de nuevas herramientas que se revelaron en enero fueron impulsadas por Operai. (En ese momento, Peter Kyle, el Secretario de Estado de Tecnología, dijo que el gobierno planeaba trabajar con varias compañías de IA fundamentales, y eso es lo que el acuerdo antrópico está probando).
El cambio del gobierno del Instituto de Seguridad de AI, lanzado hace poco más de un año con mucha fanfarria, a la seguridad de la IA no debería ser una sorpresa demasiado.
Cuando el gobierno laborista recién instalado anunció su plan para el cambio de AI pesados en enero, era notable que las palabras “seguridad”, “daño”, “existencial” y “amenaza” no aparecieran en absoluto en el documento.
Eso no fue un supervisión. El plan del gobierno es iniciar la inversión en una economía más modernizada, utilizando tecnología y específicamente IA para hacerlo. Quiere trabajar más estrechamente con Big Tech, y también quiere construir sus propios técnicos de cosecha propia.
En ayuda de eso, los mensajes principales que ha estado promoviendo han sido el desarrollo, la IA y el más desarrollo. Los funcionarios públicos tendrán su propio asistente de IA llamado “Humphrey”, y se les anima a compartir datos y usar IA en otras áreas para acelerar cómo funcionan. Los consumidores obtendrán billeteras digitales para sus documentos gubernamentales y chatbots.
Entonces, ¿se han resuelto los problemas de seguridad de IA? No exactamente, pero el mensaje parece ser que no pueden considerarse a expensas del progreso.
El gobierno afirmó que a pesar del cambio de nombre, la canción seguirá siendo la misma.
“Los cambios que estoy anunciando hoy representan el siguiente paso lógico en cómo nos acercamos al desarrollo responsable de la IA, ayudándonos a desatar la IA y hacer crecer la economía como parte de nuestro plan para el cambio”, dijo Kyle en un comunicado. “El trabajo del Instituto de Seguridad de AI no cambiará, pero este enfoque renovado garantizará que nuestros ciudadanos, y los de nuestros aliados, estén protegidos de aquellos que buscarían usar IA contra nuestras instituciones, valores democráticos y forma de vida. “
“El enfoque del Instituto desde el principio ha estado en la seguridad y hemos creado un equipo de científicos centrados en evaluar los riesgos graves para el público”, agregó Ian Hogarth, quien sigue siendo el presidente del Instituto. “Nuestro nuevo equipo de uso penal y la asociación de profundización con la comunidad de seguridad nacional marcan la próxima etapa de abordar esos riesgos”.
Más lejos, las prioridades definitivamente parecen haber cambiado en torno a la importancia de la “seguridad de la IA”. El mayor riesgo que el Instituto de Seguridad de AI en los Estados Unidos está contemplando en este momento, es que se desmontará. El vicepresidente de Estados Unidos, JD Vance, se telegrafió tanto a principios de esta semana durante su discurso en París.
¡TechCrunch tiene un boletín centrado en AI! Regístrese aquí para obtenerlo en su bandeja de entrada todos los miércoles.