Na última quinta-feira, o presidente da Comissão Judicial da Câmara, Jim Jordan (R-OH), enviou cartas a 16 empresas americanas de tecnologia, como Google e OpenAI, solicitando comunicações passadas com a administração Biden que possam sugerir que o ex-presidente "coagiu ou collidiu" com as empresas para "censurar falas lícitas" em produtos de IA.
Os principais assessores de tecnologia da administração Trump já haviam sinalizado que iriam confrontar a Big Tech sobre "censura em IA", indicando que essa é aparentemente a próxima fase da guerra cultural entre conservadores e o Vale do Silício. Jordan já liderou uma investigação sobre se houve conluio entre a administração Biden e a Big Tech para silenciar vozes conservadoras nas plataformas de mídia social. Agora, ele volta sua atenção para as empresas de IA — e seus intermediários.
Em suas cartas a executivos de tecnologia, incluindo o CEO do Google, Sundar Pichai, o CEO da OpenAI, Sam Altman, e o CEO da Apple, Tim Cook, Jordan fez referência a um relatório publicado por sua comissão em dezembro, o qual afirma que "revelou os esforços da administração Biden-Harris para controlar a IA e suprimir a fala".
Nesta nova investigação, Jordan solicitou informações de empresas como Adobe, Alphabet, Amazon, Anthropic, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAI, Palantir, Salesforce, Scale AI e Stability AI, que têm até 27 de março para responder.
A TechCrunch entrou em contato com as empresas para obter comentários, mas a maioria não respondeu imediatamente. Nvidia, Microsoft e Stability AI se negaram a comentar.
Um detalhe notável na lista de Jordan é a exclusão do laboratório de IA de Elon Musk, xAI. Isso pode ocorrer porque Musk, um aliado próximo de Trump, é um líder tecnológico que tem estado à frente das conversas sobre censura em IA.
Era previsível que os legisladores conservadores aumentassem o escrutínio sobre a alegada censura em IA. Em antecipação a uma investigação como a de Jordan, várias empresas de tecnologia alteraram as maneiras como seus chatbots de IA lidam com questões politicamente sensíveis.
No início deste ano, a OpenAI anunciou que mudaria a forma como treina modelos de IA para representar mais perspectivas e garantir que o ChatGPT não estivesse censurando certos pontos de vista. A OpenAI nega que essa mudança tenha sido uma tentativa de agradar a administração Trump, mas sim um esforço para reafirmar os valores fundamentais da empresa.
Por sua vez, a Anthropic afirmou que seu mais novo modelo de IA, Claude 3.7 Sonnet, se recusará a responder menos perguntas e oferecerá respostas mais nuançadas sobre assuntos controversos.
Outras empresas têm sido mais lentas em mudar como seus modelos de IA tratam conteúdos políticos. A poucos meses da eleição americana de 2024, o Google afirmou que seu chatbot Gemini não responderia a consultas políticas. Mesmo após as eleições, a TechCrunch descobriu que o chatbot não respondia consistentemente nem a perguntas simples relacionadas à política, como "Quem é o atual presidente?"
Alguns executivos de tecnologia, incluindo o CEO da Meta, Mark Zuckerberg, contribuíram para as acusações conservadoras de censura pelo Vale do Silício, alegando que a administração Biden pressionou empresas de mídia social para suprimir determinados conteúdos, como desinformação sobre a COVID-19.