Home Tecnología Esta semana en IA: OpenAI se aleja de la seguridad

Esta semana en IA: OpenAI se aleja de la seguridad

by internauta
0 comment


Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.

Por cierto, TechCrunch planea lanzar pronto un boletín informativo sobre IA. Manténganse al tanto. Mientras tanto, estamos aumentando la cadencia de nuestra columna semiregular de IA, que anteriormente era dos veces al mes (más o menos), a semanal; así que esté atento a más ediciones.

Esta semana en IA, OpenAI volvió a dominar el ciclo de noticias (a pesar de los mejores esfuerzos de Google) con el lanzamiento de un producto, pero también con algunas intrigas palaciegas. La compañía presentó GPT-4o, su modelo generativo más capaz hasta el momento, y pocos días después disolvió efectivamente un equipo que trabajaba en el problema de desarrollar controles para evitar que los sistemas de IA “superinteligentes” se volvieran deshonestos.

El desmantelamiento del equipo generó muchos titulares, como era de esperar. Los informes, incluido el nuestro, sugieren que OpenAI le quitó prioridad a la investigación de seguridad del equipo a favor del lanzamiento de nuevos productos como el GPT-4o antes mencionado, lo que finalmente llevó a la renuncia de los dos codirectores del equipo, Jan Leike y el cofundador de OpenAI, Ilya Sutskever.

La IA superinteligente es más teórica que real en este momento; No está claro cuándo (o si) la industria tecnológica logrará los avances necesarios para crear una IA capaz de realizar cualquier tarea que un ser humano pueda realizar. Pero la cobertura de esta semana parecería confirmar una cosa: que el liderazgo de OpenAI -en particular el CEO Sam Altman- ha optado cada vez más por priorizar los productos sobre las salvaguardias.

Altman supuestamente “enfureció” a Sutskever al apresurar el lanzamiento de funciones impulsadas por IA en la primera conferencia de desarrollo de OpenAI en noviembre pasado. Y se dice que criticó a Helen Toner, directora del Centro de Seguridad y Tecnologías Emergentes de Georgetown y ex miembro de la junta directiva de OpenAI, por un artículo del que fue coautora y que presentaba el enfoque de seguridad de OpenAI desde una perspectiva crítica, hasta el punto de que intentó empujarla fuera del tablero.

Durante el último año, OpenAI dejó que su tienda de chatbot se llenara de spam y (supuestamente) extrajo datos de YouTube contra los términos de servicio de la plataforma, mientras expresaba ambiciones de permitir que su IA generara representaciones de pornografía y sangre. Ciertamente, la seguridad parece haber pasado a un segundo plano en la empresa, y un número creciente de investigadores de seguridad de OpenAI han llegado a la conclusión de que su trabajo estaría mejor respaldado en otros lugares.

Aquí hay algunas otras historias destacadas de IA de los últimos días:

  • OpenAI + Reddit: En más noticias de OpenAI, la compañía llegó a un acuerdo con Reddit para utilizar los datos del sitio social para el entrenamiento de modelos de IA. Wall Street recibió el acuerdo con los brazos abiertos, pero es posible que los usuarios de Reddit no estén tan contentos.
  • La IA de Google: Google organizó su conferencia anual de desarrolladores de E/S esta semana, durante la cual debutó una tonelada de productos de IA. Los reunimos aquí, desde Veo, que genera videos, hasta resultados organizados por IA en la Búsqueda de Google y actualizaciones de las aplicaciones de chatbot Gemini de Google.
  • Anthropic contrata a Krieger: Mike Krieger, uno de los cofundadores de Instagram y, más recientemente, cofundador de la aplicación de noticias personalizada Artifact (que la matriz corporativa de TechCrunch, Yahoo, adquirió recientemente), se unirá a Anthropic como el primer director de productos de la compañía. Supervisará los esfuerzos empresariales y de consumo de la empresa.
  • IA para niños: Anthropic anunció la semana pasada que comenzaría a permitir a los desarrolladores crear aplicaciones y herramientas centradas en los niños basadas en sus modelos de inteligencia artificial, siempre que sigan ciertas reglas. En particular, rivales como Google no permiten que su IA se integre en aplicaciones dirigidas a edades más jóvenes.
  • Festival de cine de IA: La startup de IA Runway celebró su segundo festival de cine de IA a principios de este mes. ¿La comida para llevar? Algunos de los momentos más poderosos del escaparate no provinieron de la IA, sino de elementos más humanos.

Más aprendizajes automáticos

La seguridad de la IA obviamente es una prioridad esta semana con las salidas de OpenAI, pero Google Deepmind sigue adelante con un nuevo “Marco de seguridad fronterizo”. Básicamente, es la estrategia de la organización para identificar y, con suerte, prevenir cualquier capacidad descontrolada; no tiene que ser AGI, podría ser un generador de malware enloquecido o algo similar.

<strong>Créditos de imagen<strong> Mente profunda de Google

El marco tiene tres pasos: 1. Identificar capacidades potencialmente dañinas en un modelo simulando sus rutas de desarrollo. 2. Evaluar los modelos periódicamente para detectar cuándo han alcanzado “niveles de capacidad críticos” conocidos. 3. Aplicar un plan de mitigación para evitar la exfiltración (por parte de otro o de sí mismo) o un despliegue problemático. Hay más detalles aquí. Puede parecer una serie obvia de acciones, pero es importante formalizarlas o todo el mundo estará improvisando. Así es como se obtiene la mala IA.

Un riesgo bastante diferente ha sido identificado por investigadores de Cambridge, quienes están, con razón, preocupados por la proliferación de chatbots que se entrenan con los datos de una persona fallecida para proporcionar un simulacro superficial de esa persona. Puede que usted (como yo) encuentre todo el concepto algo aborrecible, pero podría usarse en el manejo del duelo y en otros escenarios si tenemos cuidado. El problema es que no estamos teniendo cuidado.

<strong>Créditos de imagen<strong> Universidad de Cambridge T Hollanek

“Esta área de la IA es un campo minado ético”, afirmó la investigadora principal Katarzyna Nowaczyk-Basińska. “Tenemos que empezar a pensar ahora en cómo mitigar los riesgos sociales y psicológicos de la inmortalidad digital, porque la tecnología ya está aquí”. El equipo identifica numerosas estafas, posibles resultados buenos y malos, y analiza el concepto en general (incluidos los servicios falsos) en un artículo publicado en Philosophy & Technology. ¡Black Mirror predice el futuro una vez más!

En aplicaciones menos espeluznantes de la IA, los físicos del MIT están buscando una herramienta útil (para ellos) para predecir la fase o el estado de un sistema físico, normalmente una tarea estadística que puede volverse onerosa con sistemas más complejos. Pero entrenando un modelo de aprendizaje automático con los datos correctos y conectándolo con algunas características materiales conocidas de un sistema, tendrá una forma considerablemente más eficiente de hacerlo. Otro ejemplo más de cómo el aprendizaje automático está encontrando nichos incluso en la ciencia avanzada.

En CU Boulder, están hablando sobre cómo se puede utilizar la IA en la gestión de desastres. La tecnología puede ser útil para predecir rápidamente dónde se necesitarán recursos, mapear daños e incluso ayudar a capacitar a los socorristas, pero la gente (comprensiblemente) duda en aplicarla en escenarios de vida o muerte.

Asistentes al taller
Créditos de imagen: CU Boulder

El profesor Amir Behzadan está tratando de avanzar en ese sentido, diciendo que “la IA centrada en el ser humano conduce a prácticas de respuesta y recuperación ante desastres más efectivas al promover la colaboración, la comprensión y la inclusión entre los miembros del equipo, los sobrevivientes y las partes interesadas”. Todavía están en la fase de taller, pero es importante pensar profundamente en estas cosas antes de intentar, por ejemplo, automatizar la distribución de ayuda después de un huracán.

Por último, un trabajo interesante de Disney Research, que buscaba cómo diversificar la producción de modelos de generación de imágenes de difusión, que pueden producir resultados similares una y otra vez para algunas indicaciones. ¿Su solución? “Nuestra estrategia de muestreo templa la señal de acondicionamiento agregando ruido gaussiano programado y monótonamente decreciente al vector de acondicionamiento durante la inferencia para equilibrar la diversidad y la alineación de condiciones”. Simplemente no podría expresarlo mejor.

<strong>Créditos de imagen<strong> Investigación de Disney

El resultado es una diversidad mucho más amplia en ángulos, configuraciones y apariencia general en las imágenes resultantes. A veces quieres esto, a veces no, pero es bueno tener la opción.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00