Decisão da juíza Rita Lin suspendeu temporariamente ações do Pentágono e ordem presidencial, o governo tem até 30 de abril para apresentar recurso contra a Anthropic
O governo dos Estados Unidos informou que pretende recorrer de uma decisão judicial da Califórnia que impediu punições contra a empresa de inteligência artificial Anthropic, dona do assistente Claude.
A controvérsia envolve o controle do uso de IA em guerras, com o governo pressionando por adoção mais ampla e a empresa impondo limites para evitar aplicação em vigilância em massa e armamento autônomo.
Os advogados do Departamento de Justiça têm prazo até 30 de abril para apresentar o recurso, conforme decisão do tribunal, conforme informação divulgada pelo g1.
O que decidiu a juíza e as citações-chave
A juíza Rita Lin considerou que as medidas do governo pareciam arbitrárias, e afirmou que as “as ‘amplas medidas punitivas’ tomadas pelo governo americano pareceram arbitrárias e poderiam ‘paralisar a Anthropic'”. A magistrada determinou a suspensão, por enquanto, das punições por uma semana.
Em outra passagem de sua decisão, Rita Lin escreveu, “Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como uma potencial adversária e sabotadora dos EUA por expressar discordância com o governo”.
A juíza também ressaltou que sua decisão não obriga agências federais a usar os produtos da Anthropic, nem impede que façam a transição para outros fornecedores de IA.
Implicações para o Pentágono e uso militar
O Pentágono tentou classificar a Anthropic como um risco para a cadeia de fornecimentos, uma designação normalmente aplicada a empresas de países adversários, mas essa classificação também foi barrada pela Justiça na semana anterior.
Apesar das ordens judiciais, reportagens indicam que o assistente Claude foi usado em operações militares, com a ferramenta ajudando o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha, segundo o The Wall Street Journal.
Um alto funcionário do Pentágono qualificou a decisão como “uma ‘vergonha'”, e o subsecretário Emir Michael disse que a medida “prejudicaria a plena capacidade” do secretário Pete Hegseth de “conduzir operações militares com os parceiros que escolher”.
Reações, apoios e impactos no setor
A Anthropic recebeu pareceres jurídicos favoráveis de diversas entidades, incluindo a Microsoft, associações comerciais, trabalhadores do setor de tecnologia, líderes militares aposentados e até um grupo de teólogos católicos.
Executivos da empresa, como o diretor-executivo Dario Amodei, defenderam limites ao uso de IA em guerras e alertaram contra aplicações que envolvam vigilância em massa ou armamento totalmente autônomo.
Para apoiadores da restrição, impor limites é uma forma de responsabilidade ética; para o governo, limitações podem interferir na capacidade operacional das forças armadas.
Próximos passos e o prazo para o recurso
O Departamento de Justiça já comunicou a intenção de recorrer, com prazo até 30 de abril para apresentar argumentos no tribunal da Califórnia.
A empresa também moveu ações no tribunal federal de apelações em Washington, D.C., contestando outros aspectos das medidas adotadas contra ela.
O caso deve determinar limites importantes sobre até que ponto empresas de tecnologia podem condicionar o uso de suas ferramentas, especialmente no contexto do uso de IA em guerras e de políticas de segurança nacional.
