Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.
Por cierto, TechCrunch planea lanzar pronto un boletín informativo sobre IA. Manténganse al tanto.
Esta semana en AI, ocho destacados periódicos estadounidenses propiedad del gigante inversor Alden Global Capital, incluidos el New York Daily News, Chicago Tribune y Orlando Sentinel, demandaron a OpenAI y Microsoft por infracción de derechos de autor relacionada con el uso de tecnología de IA generativa por parte de las empresas. Ellos, como The New York Times en su demanda en curso contra OpenAI, acusan a OpenAI y Microsoft de extraer su propiedad intelectual sin permiso ni compensación para construir y comercializar modelos generativos como GPT-4.
“Hemos gastado miles de millones de dólares recopilando información y reportando noticias en nuestras publicaciones, y no podemos permitir que OpenAI y Microsoft amplíen el manual de las grandes tecnologías de robar nuestro trabajo para construir sus propios negocios a nuestra costa”, dijo Frank Pine, el dijo en un comunicado el editor ejecutivo que supervisa los periódicos de Alden.
Parece probable que la demanda termine en un acuerdo y un acuerdo de licencia, dadas las asociaciones existentes de OpenAI con los editores y su renuencia a basar todo su modelo de negocio en el argumento del uso justo. Pero ¿qué pasa con el resto de creadores de contenido cuyos trabajos están siendo incluidos en una formación modelo sin pago?
Parece que OpenAI está pensando en eso.
Un artículo de investigación publicado recientemente y del que es coautor Boaz Barak, científico del equipo Superalignment de OpenAI, propone un marco para compensar a los propietarios de derechos de autor “proporcionalmente a sus contribuciones a la creación de contenido generado por IA”. ¿Cómo? A través de la teoría de juegos cooperativos.
El marco evalúa hasta qué punto el contenido de un conjunto de datos de entrenamiento (por ejemplo, texto, imágenes u otros datos) influye en lo que genera un modelo, empleando un concepto de teoría de juegos conocido como valor de Shapley. Luego, basándose en esa evaluación, determina la “participación que les corresponde” a los propietarios del contenido (es decir, la compensación).
Supongamos que tiene un modelo de generación de imágenes entrenado utilizando obras de arte de cuatro artistas: John, Jacob, Jack y Jebediah. Le pides que dibuje una flor al estilo de Jack. Con el marco se puede determinar la influencia que tuvieron las obras de cada artista en el arte que genera el modelo y, por tanto, la compensación que cada uno debería recibir.
Sin embargo, el marco tiene una desventaja: es computacionalmente costoso. Las soluciones alternativas de los investigadores se basan en estimaciones de compensación más que en cálculos exactos. ¿Eso satisfaría a los creadores de contenido? No estoy muy seguro. Si algún día OpenAI lo pone en práctica, seguro que lo descubriremos.
Aquí hay algunas otras historias destacadas de IA de los últimos días:
- Microsoft reafirma la prohibición del reconocimiento facial: El lenguaje agregado a los términos de servicio para el servicio Azure OpenAI, el contenedor totalmente administrado de Microsoft en torno a la tecnología OpenAI, prohíbe más claramente que las integraciones sean utilizadas “por o para” los departamentos de policía para el reconocimiento facial en los EE. UU.
- La naturaleza de las startups nativas de IA: Las nuevas empresas de IA se enfrentan a un conjunto diferente de desafíos que las empresas típicas de software como servicio. Ese fue el mensaje de Rudina Seseri, fundadora y socia gerente de Glasswing Ventures, la semana pasada en el evento TechCrunch Early Stage en Boston; Ron tiene la historia completa.
- Anthropic lanza un plan de negocio: La startup de IA Anthropic está lanzando un nuevo plan pago dirigido a empresas, así como una nueva aplicación para iOS. Team, el plan empresarial, brinda a los clientes acceso de mayor prioridad a la familia Claude 3 de modelos de IA generativa de Anthropic, además de controles adicionales de administración y gestión de usuarios.
- CodeWhisperer no más: Amazon CodeWhisperer ahora es desarrollador Qparte de la familia Q de chatbots de IA generativa orientados a los negocios de Amazon. Disponible a través de AWS, Q Developer ayuda con algunas de las tareas que realizan los desarrolladores en el transcurso de su trabajo diario, como depurar y actualizar aplicaciones, de forma muy similar a como lo hizo CodeWhisperer.
- Simplemente sal de Sam’s Club: Sam’s Club, propiedad de Walmart, dice que está recurriendo a la IA para ayudar a acelerar su “tecnología de salida”. En lugar de requerir que el personal de la tienda verifique las compras de los miembros con sus recibos al salir de la tienda, los clientes de Sam’s Club que pagan en una caja registradora o a través de la aplicación móvil Scan & Go ahora pueden salir de ciertas tiendas sin que sus compras sean verificadas dos veces. .
- Recolección de peces, automatizada: La captura de pescado es un negocio intrínsecamente complicado. Shinkei está trabajando para mejorarlo con un sistema automatizado que envíe el pescado de manera más humana y confiable, lo que dará como resultado lo que podría ser una economía pesquera totalmente diferente, informa Devin.
- Asistente de IA de Yelp: Yelp anunció esta semana un nuevo chatbot impulsado por IA para consumidores (impulsado por modelos OpenAI, según la compañía) que les ayuda a conectarse con empresas relevantes para sus tareas (como instalar accesorios de iluminación, mejorar espacios al aire libre, etc.). La compañía está implementando el asistente de inteligencia artificial en su aplicación iOS en la pestaña “Proyectos”, y planea expandirlo a Android a finales de este año.
Más aprendizajes automáticos
Parece que hubo una gran fiesta en el Laboratorio Nacional Argonne este invierno cuando trajeron a un centenar de expertos en inteligencia artificial y en el sector energético para hablar sobre cómo la tecnología en rápida evolución podría ser útil para la infraestructura y la investigación y desarrollo del país en esa área. El informe resultante es más o menos lo que uno esperaría de esa multitud: mucho pastel en el cielo, pero de todos modos informativo.
Al analizar la energía nuclear, la red, la gestión del carbono, el almacenamiento de energía y los materiales, los temas que surgieron de esta reunión fueron, primero, que los investigadores necesitan acceso a herramientas y recursos informáticos de alta potencia; segundo, aprender a detectar los puntos débiles de las simulaciones y predicciones (incluidos los permitidos por lo primero); tercero, la necesidad de herramientas de inteligencia artificial que puedan integrar y hacer accesibles datos de múltiples fuentes y en muchos formatos. Hemos visto que todas estas cosas suceden en la industria de varias maneras, por lo que no es una gran sorpresa, pero no se hace nada a nivel federal sin que algunos expertos publiquen un documento, por lo que es bueno tenerlo en acta.
Georgia Tech y Meta están trabajando en parte de eso con una gran base de datos nueva llamada OpenDAC, un montón de reacciones, materiales y cálculos destinados a ayudar a los científicos que diseñan procesos de captura de carbono para hacerlo más fácilmente. Se centra en estructuras organometálicas, un tipo de material prometedor y popular para la captura de carbono, pero con miles de variaciones, que no se han probado exhaustivamente.
El equipo de Georgia Tech se reunió con Oak Ridge National Lab y Meta’s FAIR para simular interacciones de química cuántica en estos materiales, utilizando unos 400 millones de horas de computación, mucho más de lo que una universidad puede reunir fácilmente. Esperemos que sea útil para los investigadores del clima que trabajan en este campo. Está todo documentado aquí.
Escuchamos mucho sobre las aplicaciones de IA en el campo médico, aunque la mayoría desempeñan lo que se podría llamar una función de asesoramiento, ayudando a los expertos a notar cosas que de otro modo no habrían visto o detectando patrones que a un técnico le habría tomado horas encontrar. Esto se debe en parte a que estos modelos de aprendizaje automático simplemente encuentran conexiones entre estadísticas sin comprender qué causó o condujo a qué. Los investigadores de Cambridge y Ludwig-Maximilians-Universität München están trabajando en eso, ya que superar las relaciones correlativas básicas podría ser de gran ayuda a la hora de crear planes de tratamiento.
El trabajo, dirigido por el profesor Stefan Feuerriegel de la LMU, tiene como objetivo crear modelos que puedan identificar mecanismos causales, no sólo correlaciones: “Le damos a la máquina reglas para reconocer la estructura causal y formalizar correctamente el problema. Luego la máquina tiene que aprender a reconocer los efectos de las intervenciones y comprender, por así decirlo, cómo las consecuencias de la vida real se reflejan en los datos que se han introducido en las computadoras”, afirmó. Todavía es temprano para ellos y son conscientes de ello, pero creen que su trabajo es parte de un importante período de desarrollo a escala de una década.
En la Universidad de Pensilvania, la estudiante de posgrado Ro Encarnación está trabajando en un nuevo ángulo en el campo de la “justicia algorítmica” en el que hemos sido pioneros (principalmente por mujeres y personas de color) en los últimos siete u ocho años. Su trabajo se centra más en los usuarios que en las plataformas y documenta lo que ella llama “auditoría emergente”.
Cuando Tiktok o Instagram lanzan un filtro un poco racista o un generador de imágenes que hace algo sorprendente, ¿qué hacen los usuarios? Se quejan, claro, pero también continúan usándolo y aprenden a eludir o incluso exacerbar los problemas codificados en él. Puede que no sea una “solución” tal como la vemos, pero demuestra la diversidad y resiliencia del lado usuario de la ecuación: no son tan frágiles ni pasivos como podría pensarse.