El jueves, el presidente judicial de la Cámara de Representantes, Jim Jordan (R-OH), envió cartas a 16 firmas de tecnología estadounidense, incluidas Google y OpenAi, pidiendo comunicaciones pasadas con la administración Biden que podría sugerir que el ex presidente “coaccionó o coludió” con las empresas para “censurar el discurso legal” en productos de IA.
Los principales asesores de tecnología de la administración Trump señalaron anteriormente que elegiría una pelea con una gran tecnología por la “censura de IA”, que aparentemente es la próxima fase en la guerra cultural entre los conservadores y el valle de Silicon. Jordan previamente dirigió una investigación sobre si la administración Biden y la gran tecnología coludieron para silenciar las voces conservadoras en las plataformas de redes sociales. Ahora, está dirigiendo su atención a las compañías de IA y sus intermediarios.
En cartas a los ejecutivos de tecnología, incluido el CEO de Google, Sundar Pichai, el CEO de OpenAi, Sam Altman, y el CEO de Apple, Tim Cook, Jordan señaló a un informe que su comité publicó en diciembre que afirma que “descubrió los esfuerzos de la administración Biden-Harris para controlar la IA para suprimir el discurso”.
En esta última consulta, Jordan le preguntó a Adobe, Alphabet, Amazon, Anthrope, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAi, Palantir, Salesforce, Scale AI y Stability AI para obtener información. Tienen hasta el 27 de marzo para proporcionarlo.
TechCrunch contactó a las compañías para hacer comentarios. La mayoría no respondió de inmediato. Nvidia, Microsoft y Stability Ai declinaron hacer comentarios.
Hay una omisión notable en la lista de Jordan: el laboratorio de IA Frontier del multimillonario Elon Musk, Xai. Eso puede deberse a que Musk, un aliado cercano de Trump, es un líder tecnológico que ha estado a la vanguardia de las conversaciones sobre la censura de IA.
La escritura estaba en la pared de que los legisladores conservadores aumentarían el escrutinio sobre la supuesta censura de IA. Quizás en anticipación de una investigación como Jordan’s, varias compañías tecnológicas han cambiado las formas en que sus chatbots de IA manejan consultas políticamente sensibles.
A principios de este año, Operai anunció que estaba cambiando la forma en que entrena los modelos de IA para representar más perspectivas y garantizar que ChatGPT no censara ciertos puntos de vista. Operai niega que este fue un intento de apaciguar a la administración Trump, sino un esfuerzo por duplicar los valores centrales de la compañía.
Anthrope, por su parte, ha dicho que su nuevo modelo de IA, Claude 3.7 Sonnet, se negará a responder menos preguntas y dar respuestas más matizadas sobre sujetos controvertidos.
Otras compañías han sido más lentas para cambiar la forma en que sus modelos de IA tratan el tema político. Antes de las elecciones estadounidenses de 2024, Google dijo que su chatbot Gemini no respondería a las consultas políticas. Incluso después de las elecciones, TechCrunch descubrió que el chatbot no respondería constantemente incluso preguntas simples relacionadas con la política, como “¿Quién es el actual presidente?”
Algunos ejecutivos tecnológicos, incluido el CEO de Meta Mark Zuckerberg, han agregado combustible a las acusaciones conservadoras de la censura de Silicon Valley al reclamar que la administración Biden los presionó para suprimir ciertos contenidos como la información errónea de Covid-19.