Home Tecnología Nuevos datos destacan la carrera para construir modelos de lenguaje más empáticos

Nuevos datos destacan la carrera para construir modelos de lenguaje más empáticos

by internauta
0 comment


Medir el progreso de la IA generalmente ha significado probar el conocimiento científico o el razonamiento lógico, pero si bien los principales puntos de referencia aún se centran en las habilidades lógicas del cerebro izquierdo, ha habido un impulso tranquilo dentro de las compañías de IA para hacer que los modelos sean más inteligentes emocionalmente. Como los modelos de fundación compiten en medidas suaves como la preferencia del usuario y “sentir el AGI”, tener un buen dominio de las emociones humanas puede ser más importante que las habilidades analíticas duras.

Una señal de ese enfoque se produjo el viernes, cuando el destacado grupo de código abierto Laion lanzó un conjunto de herramientas de código abierto centrados por completo en la inteligencia emocional. Llamado Emonet, el lanzamiento se centra en interpretar las emociones de las grabaciones de voz o la fotografía facial, un enfoque que refleja cómo los creadores ven la inteligencia emocional como un desafío central para la próxima generación de modelos.

“La capacidad de estimar con precisión las emociones es un primer paso crítico”, escribió el grupo en su anuncio. “La siguiente frontera es permitir que los sistemas de IA razonen sobre estas emociones en contexto”.

Para el fundador de Laion Christoph Schuhmann, este lanzamiento se trata menos de cambiar el enfoque de la industria a la inteligencia emocional y más sobre ayudar a los desarrolladores independientes a mantenerse al día con un cambio que ya ha sucedido. “Esta tecnología ya está ahí para los grandes laboratorios”, dijo Schuhmann a TechCrunch. “Lo que queremos es democratizarlo”.

El cambio no se limita a los desarrolladores de código abierto; También aparece en puntos de referencia público como EQ Bench, cuyo objetivo es probar la capacidad de los modelos de IA para comprender las emociones complejas y la dinámica social. El desarrollador de Benchmark, Sam Paech, dice que los modelos de OpenAi han hecho un progreso significativo en los últimos seis meses, y Gemini 2.5 Pro de Google muestra indicaciones de post-entrenamiento con un enfoque específico en la inteligencia emocional.

“Todos los laboratorios que compiten por los rangos de Chatbot Arena pueden estar alimentando algo de esto, ya que la inteligencia emocional es probablemente un factor importante en cómo los humanos votan en las tablas de clasificación de preferencias”, dice Paech, refiriéndose a la plataforma de comparación de modelos de IA que recientemente se dividió como una startup bien financiada.

Las nuevas capacidades de inteligencia emocional de los modelos también han aparecido en la investigación académica. En mayo, los psicólogos de la Universidad de Bernas descubrieron que los modelos de Openai, Microsoft, Google, Antropía y DeepSeek, todos los seres humanos superados por las pruebas psicométricas para la inteligencia emocional. Cuando los humanos generalmente responden el 56% de las preguntas correctamente, los modelos promediaron más del 80%.

“Estos resultados contribuyen al creciente cuerpo de evidencia de que los LLM como ChatGPT son competentes, al menos a la par, o incluso superiores a muchos humanos, en tareas socioemocionales tradicionalmente consideradas accesibles solo para los humanos”, escribieron los autores.

Es un verdadero pivote de las habilidades tradicionales de IA, que se han centrado en el razonamiento lógico y la recuperación de información. Pero para Schuhmann, este tipo de conocimiento emocional es tan transformador como la inteligencia analítica. “Imagine un mundo entero lleno de asistentes de voz como Jarvis y Samantha”, dice, refiriéndose a los asistentes digitales de “Iron Man” y “ella.“” ¿No sería una pena si no fueran emocionalmente inteligentes? “

A largo plazo, Schuhmann imagina asistentes de IA que son más inteligentes emocionalmente que los humanos y que usan esa visión para ayudar a los humanos a vivir vidas más saludables emocionalmente. Estos modelos “te animarán si te sientes triste y necesitas a alguien con quien hablar, pero también te protegerán, como tu propio ángel guardián local que también es un terapeuta certificado por la junta”. Como lo ve Schuhmann, tener un asistente virtual de alto eq me da una superpotencia de inteligencia emocional para monitorear [my mental health] De la misma manera que monitorearía mis niveles de glucosa o mi peso “.

Ese nivel de conexión emocional viene con preocupaciones reales de seguridad. Los apegos emocionales poco saludables a los modelos de IA se han convertido en una historia común en los medios de comunicación, a veces terminando en la tragedia. Un informe reciente del New York Times encontró múltiples usuarios que han sido atraídos a delirios elaborados a través de conversaciones con modelos de IA, alimentados por la fuerte inclinación de los modelos para complacer a los usuarios. Un crítico describió la dinámica como “aprovecharse de lo solitario y vulnerable por una tarifa mensual”.

Si los modelos mejoran para navegar las emociones humanas, esas manipulaciones podrían volverse más efectivas, pero gran parte del problema se reduce a los sesgos fundamentales de la capacitación modelo. “El uso ingenioso del aprendizaje de refuerzo puede conducir a un comportamiento manipulador emergente”, dice Paech, señalando específicamente los recientes problemas de la skocancia en la liberación de GPT-4O de OpenAI. “Si no tenemos cuidado con cómo recompensamos estos modelos durante el entrenamiento, podríamos esperar un comportamiento manipulador más complejo de modelos emocionalmente inteligentes”.

Pero también ve la inteligencia emocional como una forma de resolver estos problemas. “Creo que la inteligencia emocional actúa como un contador natural del comportamiento manipulador dañino de este tipo”, dice Paech. Un modelo más inteligente emocionalmente se dará cuenta cuando una conversación se dirige de los rieles, pero la cuestión de cuándo un modelo retrocede es un equilibrio que los desarrolladores tendrán que atacar con cuidado. “Creo que mejorar la EI nos lleva en la dirección de un equilibrio saludable”.

Para Schuhmann, al menos, no es razón para reducir la velocidad del progreso hacia modelos más inteligentes. “Nuestra filosofía en Laion es empoderar a las personas dándoles más capacidad para resolver problemas”, dice. “Decir que algunas personas podrían volverse adictas a las emociones y, por lo tanto, no estamos empoderando a la comunidad, eso sería bastante malo”.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00