Meta ha lanzado una nueva colección de AI Models, Llama 4, en su familia Llama, un sábado, nada menos.
Hay cuatro nuevos modelos en total: Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth. Todos fueron entrenados en “grandes cantidades de datos de texto, imagen y video no etiquetados” para darles “amplia comprensión visual”, dice Meta.
El éxito de los modelos abiertos del laboratorio de IA chino Deepseek, que se desempeña en la par o mejor que los modelos de llama insignia anteriores de Meta, según los informes, pateó el desarrollo de LLAMA en OverDrive. Se dice que Meta tuvo salas de guerra revueltas para descifrar cómo Deepseek redujo el costo de correr y desplegar modelos como R1 y V3.
Scout y Maverick están abiertamente disponibles en Llama.com y de los socios de Meta, incluida la plataforma de desarrollo de IA, Hugging Face, mientras Behemoth todavía está entrenando. Meta dice que Meta AI, su asistente con IA en aplicaciones, incluidos WhatsApp, Messenger e Instagram, se ha actualizado para usar LLAMA 4 en 40 países. Las características multimodales se limitan a los EE. UU. En inglés por ahora.
Algunos desarrolladores pueden estar en desacuerdo con la licencia LLAMA 4.
Los usuarios y empresas “domiciliadas” o con un “lugar principal de negocios” en la UE tienen prohibido usar o distribuir los modelos, probablemente el resultado de los requisitos de gobernanza impuestos por la IA y las leyes de privacidad de datos de la región. (En el pasado, Meta ha denunciado estas leyes como demasiado pesadas). Además, como con las versiones de llamas anteriores, las compañías con más de 700 millones de usuarios activos mensuales deben solicitar una licencia especial de Meta, que Meta puede otorgar o negar a su exclusivo criterio.
“Estos modelos de Llama 4 marcan el comienzo de una nueva era para el ecosistema de Llama”, escribió Meta en una publicación de blog. “Este es solo el comienzo de la colección Llama 4”.

Meta dice que Llama 4 es su primera cohorte de modelos para usar una mezcla de arquitectura de expertos (MOE), que es más computacionalmente eficiente para capacitar y responder consultas. Las arquitecturas de MOE básicamente desglosan las tareas de procesamiento de datos en subtareas y luego las delegan a modelos “expertos” más pequeños y especializados.
Maverick, por ejemplo, tiene 400 mil millones de parámetros totales, pero solo 17 mil millones activo Parámetros en 128 “expertos”. (Los parámetros corresponden aproximadamente a las habilidades de resolución de problemas de un modelo). Scout tiene 17 mil millones de parámetros activos, 16 expertos y 109 mil millones de parámetros totales.
Según las pruebas internas de Meta, Maverick, que la compañía dice que es mejor para los casos de uso de “Asistente General y CHAT” como la escritura creativa, excede modelos como GPT-4O de OpenAI y Gemini 2.0 de Google sobre ciertas codificaciones, razonamiento, multilingües, contextos largos y puntos de vista de imágenes. Sin embargo, Maverick no está a la altura de modelos recientes más capaces como Gemini 2.5 Pro de Google, el soneto Claude 3.7 de Anthrope y el GPT-4.5 de OpenAI.
Las fortalezas de Scout se encuentran en tareas como resumen de documentos y razonamiento sobre grandes bases de código. Excepcionalmente, tiene una ventana de contexto muy grande: 10 millones de fichas. (“Tokens” representan bits de texto en bruto, por ejemplo, la palabra “fantástica” dividida en “fan”, “Tas” y “tic”). En inglés simple, Scout puede tomar imágenes y hasta millones de palabras, lo que le permite procesar y trabajar con documentos extremadamente largos.
Scout puede ejecutarse en una sola GPU NVIDIA H100, mientras que Maverick requiere un sistema NVIDIA H100 DGX o equivalente, según los cálculos de Meta.
El gigante inédito de Meta necesitará un hardware incluso más robusto. Según la compañía, Behemoth tiene 288 mil millones de parámetros activos, 16 expertos y casi dos billones de parámetros totales. La evaluación comparativa interna de Meta ha superado a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro (pero no 2.5 Pro) en varias evaluaciones que miden habilidades STEM como la resolución de problemas matemáticos.
Cabe destacar que ninguno de los modelos LLAMA 4 es un modelo de “razonamiento” adecuado en la línea de Openi’s O1 y O3-Mini. Los modelos de razonamiento verifican sus respuestas y generalmente responden a las preguntas de manera más confiable, pero como consecuencia tardan más que los modelos tradicionales de “no conducir” para entregar respuestas.

Curiosamente, Meta dice que sintonizó todos sus modelos de Llama 4 para negarse a responder preguntas “contenciosas” con menos frecuencia. Según la compañía, Llama 4 responde a los temas políticos y sociales “debatidos” que la cosecha anterior de modelos de llamas no lo haría. Además, dice la compañía, Llama 4 está “dramáticamente más equilibrada” con lo que provoca que no se entretenga.
“[Y]puedes contar con [Lllama 4] Para proporcionar respuestas útiles y objetivas sin juzgar “, dijo un portavoz de Meta, dijo a TechCrunch”.[W]Continúa haciendo que la llama sea más receptiva para que responda más preguntas, puede responder a una variedad de puntos de vista diferentes […] y no favorece algunos puntos de vista sobre otros “.
Esos ajustes se producen cuando algunos aliados de la Casa Blanca acusan a los chatbots de AI de ser demasiado políticamente “despertados”.
Muchos de los confidentes cercanos del presidente Donald Trump, incluido el multimillonario Elon Musk y Crypto y la IA “Zar” David Sacks, han alegado que los chats de IA populares censuran las opiniones conservadoras. Sacks ha señalado históricamente el chatgpt de OpenAI como “programado para ser despertado” y falso sobre el tema político.
En realidad, el sesgo en la IA es un problema técnico intratable. La propia compañía de IA de Musk, Xai, ha luchado por crear un chatbot que no respalde algunos puntos de vista políticos sobre otros.
Eso no ha impedido que las empresas, incluido OpenAi, ajusten sus modelos de IA para responder más preguntas de las que habrían habido anteriormente, en particular preguntas relacionadas con sujetos controvertidos.