domingo, abril 19, 2026

EUA anunciam recurso contra bloqueio de punições à Anthropic, em disputa sobre o uso de IA em guerras, vigilância e armamento autônomo

Share

Decisão da juíza Rita Lin suspendeu temporariamente ações do Pentágono e ordem presidencial, o governo tem até 30 de abril para apresentar recurso contra a Anthropic

O governo dos Estados Unidos informou que pretende recorrer de uma decisão judicial da Califórnia que impediu punições contra a empresa de inteligência artificial Anthropic, dona do assistente Claude.

A controvérsia envolve o controle do uso de IA em guerras, com o governo pressionando por adoção mais ampla e a empresa impondo limites para evitar aplicação em vigilância em massa e armamento autônomo.

Os advogados do Departamento de Justiça têm prazo até 30 de abril para apresentar o recurso, conforme decisão do tribunal, conforme informação divulgada pelo g1.

O que decidiu a juíza e as citações-chave

A juíza Rita Lin considerou que as medidas do governo pareciam arbitrárias, e afirmou que as “as ‘amplas medidas punitivas’ tomadas pelo governo americano pareceram arbitrárias e poderiam ‘paralisar a Anthropic'”. A magistrada determinou a suspensão, por enquanto, das punições por uma semana.

Em outra passagem de sua decisão, Rita Lin escreveu, “Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como uma potencial adversária e sabotadora dos EUA por expressar discordância com o governo”.

A juíza também ressaltou que sua decisão não obriga agências federais a usar os produtos da Anthropic, nem impede que façam a transição para outros fornecedores de IA.

Implicações para o Pentágono e uso militar

O Pentágono tentou classificar a Anthropic como um risco para a cadeia de fornecimentos, uma designação normalmente aplicada a empresas de países adversários, mas essa classificação também foi barrada pela Justiça na semana anterior.

Apesar das ordens judiciais, reportagens indicam que o assistente Claude foi usado em operações militares, com a ferramenta ajudando o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha, segundo o The Wall Street Journal.

Um alto funcionário do Pentágono qualificou a decisão como “uma ‘vergonha'”, e o subsecretário Emir Michael disse que a medida “prejudicaria a plena capacidade” do secretário Pete Hegseth de “conduzir operações militares com os parceiros que escolher”.

Reações, apoios e impactos no setor

A Anthropic recebeu pareceres jurídicos favoráveis de diversas entidades, incluindo a Microsoft, associações comerciais, trabalhadores do setor de tecnologia, líderes militares aposentados e até um grupo de teólogos católicos.

Executivos da empresa, como o diretor-executivo Dario Amodei, defenderam limites ao uso de IA em guerras e alertaram contra aplicações que envolvam vigilância em massa ou armamento totalmente autônomo.

Para apoiadores da restrição, impor limites é uma forma de responsabilidade ética; para o governo, limitações podem interferir na capacidade operacional das forças armadas.

Próximos passos e o prazo para o recurso

O Departamento de Justiça já comunicou a intenção de recorrer, com prazo até 30 de abril para apresentar argumentos no tribunal da Califórnia.

A empresa também moveu ações no tribunal federal de apelações em Washington, D.C., contestando outros aspectos das medidas adotadas contra ela.

O caso deve determinar limites importantes sobre até que ponto empresas de tecnologia podem condicionar o uso de suas ferramentas, especialmente no contexto do uso de IA em guerras e de políticas de segurança nacional.

Read more

Local News