Cuando Deepseek, Alibaba y otras empresas chinas publicaron sus modelos de IA, los investigadores occidentales rápidamente notaron que evitaban preguntas críticas al Partido Comunista Chino. Los funcionarios estadounidenses luego confirmaron que estas herramientas están diseñadas para reflejar los puntos de conversación de Beijing, lo que plantea preocupaciones sobre la censura y el sesgo.
Los líderes estadounidenses de IA como OpenAI han señalado esto como justificación para avanzar rápidamente a su tecnología, sin demasiada regulación o supervisión. Como escribió el director de asuntos mundiales de OpenAI, Chris Lehane, en un puesto de LinkedIn el mes pasado, hay un concurso entre “IA democrática dirigida por Estados Unidos y la IA autocrática de China dirigida por los Estados Unidos”.
Una orden ejecutiva firmada el miércoles por el presidente Donald Trump que prohíbe “despertar a la IA” y los modelos de IA que no son “ideológicamente neutrales” de los contratos gubernamentales podrían interrumpir ese equilibrio.
El orden llama a la diversidad, la equidad y la inclusión (DEI), llamándola una ideología “generalizada y destructiva” que puede “distorsionar la calidad y la precisión de la producción”. Específicamente, la orden se refiere a la información sobre raza o sexo, manipulación de la representación racial o sexual, teoría crítica de la raza, transgénero, sesgo inconsciente, interseccionalidad y racismo sistémico.
Los expertos advierten que podría crear un efecto escalofriante en los desarrolladores que pueden sentir presión para alinear los resultados de los modelos y los conjuntos de datos con la retórica de la Casa Blanca para asegurar dólares federales para sus negocios de quema de efectivo.
La orden se produce el mismo día en que la Casa Blanca publicó el “Plan de acción de IA” de Trump, que aleja las prioridades nacionales lejos del riesgo social y se centra en la construcción de la infraestructura de IA, cortando la burocracia para las empresas tecnológicas, la seguridad nacional y la competencia con China.
La orden instruye al Director de la Oficina de Gestión y Presupuesto junto con el Administrador de Política Federal de Adquisiciones, el Administrador de Servicios Generales y el Director de la Oficina de Política de Ciencia y Tecnología para emitir orientación a otras agencias sobre cómo cumplir.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
“De una vez por todas, nos deshacemos de Woke”, dijo Trump el miércoles durante un evento de IA organizado por el podcast y el foro de Hill & Valley. “Firmaré una orden que prohíbe que el gobierno federal obtenga la tecnología de IA que se ha infundido con sesgo partidista o agendas ideológicas, como la teoría crítica de la raza, que es ridícula. Y a partir de ahora en el gobierno de los Estados Unidos se ocupará solo de la IA que persigue la verdad, la equidad y la impartialidad estricta”.
Determinar lo que es imparcial u objetivo es uno de los muchos desafíos para el orden.
Philip Seargeant, profesor titular de lingüística aplicada en la Universidad Open, le dijo a TechCrunch que nada puede ser objetivo.
“Uno de los principios fundamentales de la sociolingüística es que el lenguaje nunca es neutral”, dijo Seargeant. “Entonces, la idea de que puedes obtener pura objetividad es una fantasía”.
Además de eso, la ideología de la administración Trump no refleja las creencias y valores de todos los estadounidenses. Trump ha buscado repetidamente eliminar la financiación para iniciativas climáticas, educación, transmisión pública, investigación, subvenciones de servicio social, programas de apoyo comunitario y agrícola y atención que afirman el género, a menudo enmarcando estas iniciativas como ejemplos de “despertar” o gastos gubernamentales políticamente parciales.
Como dijo Rumman Chowdhury, científico de datos, CEO de la organización humana de la organización humana tecnológica y el ex enviado de la ciencia estadounidense para AI, “cualquier cosa [the Trump administration doesn’t] como se arroja inmediatamente a esta pila peyorativa de despertar “.
Las definiciones de “búsqueda de la verdad” y “neutralidad ideológica” en la orden publicada el miércoles son vagas de alguna manera y específicas en otras. Mientras que la “búsqueda de la verdad” se define como LLM que “priorizan la precisión histórica, la investigación científica y la objetividad”, la “neutralidad ideológica” se define como LLM que son “herramientas neutrales y no partidistas que no manipulan respuestas a favor de los dogmas ideológicos como la dei”.
Esas definiciones dejan espacio para una interpretación amplia, así como una presión potencial. Las compañías de IA han presentado menos restricciones sobre cómo operan. Y aunque una orden ejecutiva no lleva la fuerza de la legislación, las empresas de IA fronteriza aún podrían encontrarse sujetas a las prioridades cambiantes de la agenda política de la administración.
La semana pasada, Openai, Anthrope, Google y Xai firmaron contratos con el Departamento de Defensa para recibir hasta $ 200 millones cada uno para desarrollar flujos de trabajo de IA agentes que aborden desafíos críticos de seguridad nacional.
No está claro cuál de estas compañías está mejor posicionada para ganar de la prohibición de AI Woke, o si cumplirán.
TechCrunch se ha comunicado con cada uno de ellos y actualizará este artículo si recibimos noticias.
A pesar de mostrar sus propios prejuicios, Xai puede ser el más alineado con el orden, al menos en esta etapa temprana. Elon Musk ha posicionado a Grok, el chatbot de Xai, como el mejor buscador de verdad “menos sesgado”, “menos parcial”. Las indicaciones del sistema de Grok le han dirigido que evite aplazar a las principales autoridades y medios de comunicación, a buscar información contraria incluso si es políticamente incorrecto e incluso hacer referencia a las opiniones de Musk sobre temas controvertidos. En los últimos meses, Grok incluso ha arrojado comentarios antisemitas y elogió a Hitler en X, entre otras publicaciones odiosas, racistas y misóginas.
Mark Lemley, profesor de derecho en la Universidad de Stanford, dijo a TechCrunch que la orden ejecutiva está “claramente intencionada como discriminación de punto de vista, ya que [the government] Acabo de firmar un contrato con Grok, también conocido como ‘Mechahitler’ “.
Junto con el financiamiento del Departamento de Defensa de XAI, la compañía anunció que “Grok for Government” se había agregado al calendario de la Administración de Servicios Generales, lo que significa que los productos XAI ahora están disponibles para su compra en todas las oficinas y agencias gubernamentales.
“La pregunta correcta es esta: ¿prohibirían a Grok, la IA con la que acaban de firmar un gran contrato, porque ha sido diseñado deliberadamente para dar respuestas con carga política?” Dijo Lemley en una entrevista por correo electrónico. “Si no, está claramente diseñado para discriminar contra un punto de vista particular”.
Como han demostrado las propias indicaciones del sistema de Grok, las salidas del modelo pueden ser un reflejo de las personas que construyen la tecnología y los datos en los que se capacita en la IA. En algunos casos, una sobreabundancia de precaución entre los desarrolladores y la IA capacitada en el contenido de Internet que promueve valores como la inclusión ha llevado a resultados de modelos distorsionados. Google, por ejemplo, el año pasado fue criticado después de que su chatbot de Géminis mostró un George Washington negro y nazis racialmente diversos, que la orden de Trump llama como un ejemplo de modelos de IA infectados con DEI.
Chowdhury dice que su mayor temor con esta orden ejecutiva es que las compañías de IA reelaborarán activamente los datos de capacitación para remolcar la línea del partido. Señaló las declaraciones de Musk unas pocas semanas antes de lanzar Grok 4, diciendo que Xai usaría el nuevo modelo y sus capacidades de razonamiento avanzado para “reescribir todo el corpus de conocimiento humano, agregar información faltante y eliminar errores. Luego se vuelve a entrenar en eso”.
Esto aparentemente pondría a Musk en la posición de juzgar lo que es cierto, lo que podría tener grandes implicaciones aguas abajo sobre cómo se accede a la información.
Por supuesto, las empresas han estado haciendo llamadas de juicio sobre qué información se ve y no se ve desde los amanecer de Internet.
El conservador David Sacks, el empresario e inversor que Trump designó como AI Czar, ha sido franco sobre sus preocupaciones sobre “Woke AI” en el podcast All-in, que fue co-anfitrión del Día de Anuncios de AI de Trump. Sacks ha acusado a los creadores de productos prominentes de IA de infundirlos con valores de izquierda, enmarcando sus argumentos como una defensa de la libertad de expresión y una advertencia contra una tendencia hacia el control ideológico centralizado en las plataformas digitales.
El problema, dicen los expertos, es que no hay ninguna verdad. Lograr resultados imparciales o neutrales es imposible, especialmente en el mundo actual, donde incluso se politizan los hechos.
“Si los resultados que produce una IA dicen que la ciencia del clima es correcta, ¿es ese sesgo de izquierda?” Seargeant dijo. “Algunas personas dicen que debe dar a ambos lados del argumento para ser objetivo, incluso si un lado del argumento no tiene estado”.