Home Tecnología El Reino Unido abre una oficina en San Francisco para abordar el riesgo de la IA

El Reino Unido abre una oficina en San Francisco para abordar el riesgo de la IA

by internauta
0 comment


Antes de que comience la cumbre sobre seguridad de la IA en Seúl, Corea del Sur, a finales de esta semana, su coanfitrión, el Reino Unido, está ampliando sus propios esfuerzos en el campo. El AI Safety Institute, un organismo del Reino Unido creado en noviembre de 2023 con el ambicioso objetivo de evaluar y abordar los riesgos en las plataformas de IA, dijo que abrirá una segunda ubicación… en San Francisco.

La idea es acercarse a lo que actualmente es el epicentro del desarrollo de la IA, siendo el Área de la Bahía el hogar de OpenAI, Anthropic, Google y Meta, entre otros, que construyen tecnología de IA fundamental.

Los modelos fundamentales son los componentes básicos de los servicios de IA generativa y otras aplicaciones, y es interesante que, aunque el Reino Unido ha firmado un memorando de entendimiento con los EE. UU. para que los dos países colaboren en iniciativas de seguridad de la IA, el Reino Unido todavía está optando por invertir en la construcción de un presencia directa en Estados Unidos para abordar el problema.

“Al tener gente en San Francisco, les dará acceso a las sedes de muchas de estas empresas de IA”, dijo Michelle Donelan, secretaria de Estado de ciencia, innovación y tecnología del Reino Unido, en una entrevista con TechCrunch. “Varios de ellos tienen bases aquí en el Reino Unido, pero creemos que sería muy útil tener una base allí también y acceder a un grupo adicional de talentos, y poder trabajar aún más colaborativamente y mano a mano. con Estados Unidos”.

Parte de la razón es que, para el Reino Unido, estar más cerca de ese epicentro es útil no solo para comprender lo que se está construyendo, sino porque le da al Reino Unido más visibilidad con estas empresas, algo importante, dado que la IA y la tecnología en general son vistas por todos. Reino Unido como una gran oportunidad para el crecimiento económico y la inversión.

Y dado el último drama en OpenAI en torno a su equipo de Superalignment, parece un momento especialmente oportuno para establecer una presencia allí.

El AI Safety Institute, inaugurado en noviembre de 2023, es actualmente un asunto relativamente modesto. Actualmente, la organización tiene solo 32 personas trabajando en ella, un verdadero David contra el Goliat de la tecnología de IA, si se consideran los miles de millones de dólares de inversión que dependen de las empresas que construyen modelos de IA y, por lo tanto, sus propias motivaciones económicas para adquirir sus tecnologías. sale por la puerta y llega a manos de usuarios de pago.

Uno de los desarrollos más notables del AI Safety Institute fue el lanzamiento, a principios de este mes, de Inspect, su primer conjunto de herramientas para probar la seguridad de los modelos fundamentales de AI.

Donelan se refirió hoy a ese lanzamiento como un esfuerzo de “fase uno”. Hasta la fecha no sólo ha resultado complicado comparar modelos, sino que por ahora el compromiso es en gran medida un acuerdo voluntario e inconsistente. Como señaló una fuente de alto nivel de un regulador del Reino Unido, las empresas no tienen ninguna obligación legal de examinar sus modelos en este momento; y no todas las empresas están dispuestas a que los modelos sean examinados antes del lanzamiento. Eso podría significar que, en los casos en los que se pueda identificar un riesgo, es posible que el caballo ya se haya escapado.

Donelan dijo que el AI Safety Institute todavía estaba desarrollando la mejor manera de colaborar con las empresas de IA para evaluarlas. “Nuestro proceso de evaluación es una ciencia emergente en sí misma”, afirmó. “Así que con cada evaluación, desarrollaremos el proceso y lo perfeccionaremos aún más”.

Donelan dijo que un objetivo en Seúl sería presentar Inspect a los reguladores que se reunirán en la cumbre, con el objetivo de que ellos también lo adopten.

“Ahora tenemos un sistema de evaluación. La segunda fase también debe consistir en hacer que la IA sea segura en toda la sociedad”, afirmó.

A largo plazo, Donelan cree que el Reino Unido desarrollará más legislación sobre IA, aunque, repitiendo lo que ha dicho el Primer Ministro Rishi Sunak sobre el tema, se resistirá a hacerlo hasta que comprenda mejor el alcance de los riesgos de la IA.

“No creemos en legislar antes de que tengamos un control adecuado y una comprensión total”, dijo, señalando que el reciente informe internacional sobre la seguridad de la IA, publicado por el instituto se centró principalmente en tratar de obtener una imagen completa de la investigación hasta la fecha, “destacó que faltan grandes lagunas y que debemos incentivar y fomentar más investigación a nivel mundial.

“Y además la legislación tarda alrededor de un año en el Reino Unido. Y si hubiéramos empezado a legislar cuando empezamos, en lugar de [organizing] la Cumbre de Seguridad de la IA [held in November last year]todavía estaríamos legislando ahora y en realidad no tendríamos nada que mostrar al respecto”.

“Desde el primer día del Instituto, hemos sido claros sobre la importancia de adoptar un enfoque internacional para la seguridad de la IA, compartir investigaciones y trabajar en colaboración con otros países para probar modelos y anticipar los riesgos de la IA de vanguardia”, dijo Ian Hogarth, presidente de el Instituto de Seguridad de IA. “Hoy marca un momento crucial que nos permite seguir avanzando en esta agenda, y estamos orgullosos de ampliar nuestras operaciones en un área repleta de talento tecnológico, lo que se suma a la increíble experiencia que nuestro personal en Londres ha aportado desde el principio”.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00