O processo do governo dos EUA da Anthropic diz que a ação federal é “sem precedentes e ilegal”

A Anthropic reagiu na segunda-feira contra a determinação do governo federal dos EUA de que se trata de um risco para a cadeia de abastecimento, processando os federais e argumentando junto a um juiz federal da Califórnia que o governo está sendo inconsistente e contraditório.

“A Constituição confere à Antrópico o direito de expressar suas opiniões – tanto publicamente quanto ao governo – sobre as limitações de seus próprios serviços de IA e questões importantes de segurança da IA. O governo não precisa concordar com essas opiniões. Nem precisa usar os produtos da Antrópico”, afirma o processo. “Mas o governo não pode utilizar o poder do Estado para punir ou suprimir a expressão desfavorecida da Antrópico.”

A Casa Branca usou termos políticos fortes para considerar Antrópico algo menos que patriótico. Uma declaração da Casa Branca na segunda-feira referiu-se à Anthropic como “uma empresa de esquerda radical e acordada” e disse: “nossos militares obedecerão à Constituição dos Estados Unidos (e) nenhuma empresa de IA acordou os termos de serviço”.

Mas a Anthropic disse que a sua resistência a dois itens do contrato do governo – guerra letal autónoma e vigilância em massa dos americanos – era inteiramente técnica, com base em testes da Anthropic que mostram que “Claude não pode desempenhar essas funções de forma segura ou confiável”.

“A Anthropic nunca testou Claude para esses usos. A Antthropic atualmente não tem confiança, por exemplo, de que Claude funcionaria de forma confiável ou segura se usado para apoiar uma guerra autônoma letal”, disse o processo.

Inconsistência inexplicável

O processo também argumentou que a decisão do governo foi “arbitrária, caprichosa e um abuso de poder discricionário” porque “a Anthropic tinha sido um dos parceiros de maior confiança do governo até que as suas opiniões entrassem em conflito com as do Departamento”.

O documento acrescentava: “Até o Departamento (de Defesa) levantar essa ameaça, nenhum funcionário do governo jamais havia levantado uma preocupação com a Antrópico sobre possíveis vulnerabilidades da cadeia de suprimentos. Pelo contrário, o governo forneceu consistentemente as autorizações de segurança necessárias para o pessoal da Anthropic realizar trabalhos confidenciais. Essas autorizações permanecem em vigor até hoje. Além disso, em 2024, a Anthropic se tornou o primeiro laboratório de IA de fronteira a colaborar com o Departamento de Energia para avaliar um modelo de IA em um ambiente classificado como ultrassecreto.”

O processo também dizia que o Departamento de Defesa (DoD) “reconheceu as capacidades de Claude como ‘requintadas’. (DoD) sugeriu que Claude era tão vital para a nossa defesa nacional que precisava ser requisitado ao abrigo da Lei de Produção de Defesa. E (o secretário da Defesa Pete Hegseth) ordenou que a ‘Anthropic continuará a fornecer’ os seus serviços ao Departamento de Guerra (um nome secundário para o DoD) por até seis meses. A ‘inconsistência inexplicável’ entre designar simultaneamente os serviços da Anthropic como um risco da cadeia de abastecimento vulnerável a ‘sabotagem’ ou outra ‘subversão’ por um adversário estrangeiro e ao mesmo tempo ordenar que esses serviços sejam usados por até seis meses para fins de segurança nacional demonstra a arbitrariedade da decisão final do Secretário.”

Os analistas tinham opiniões divergentes sobre as implicações para os líderes empresariais de TI, embora a maioria afirmasse que isso forçaria a política a tomar uma decisão tecnológica.

Território desconhecido

“Para os clientes do Gartner, isso está sob tensão geopolítica, o que influencia as prioridades de compra de uma organização. Neste caso, provavelmente prejudicará a Anthropic com seus contratos governamentais, mesmo que a designação de risco da cadeia de fornecimento seja anulada pelos tribunais”, disse Nader Henein, analista vice-presidente do Gartner.

“Por outro lado”, observou ele, “pode ​​ajudá-los com compradores fora dos EUA, que verão a sua posição como um sinal tranquilizador. Quando se trata da indústria em geral, os clientes europeus estão prestando muita atenção aos signatários do código de conduta da Lei de IA da UE, que ainda carece de alguns nomes notáveis, como DeepSeek, Xai e Meta”.

Cole Cioran, sócio-gerente do Setor Público Canadense no Info-Tech Research Group, acrescentou que as implicações disso provavelmente irão muito além dos tribunais.

“O desafio da Antrópico ao rótulo de risco da cadeia de abastecimento do Pentágono é mais do que uma disputa legal. É um tiro que ecoará em todo o mundo enquanto estiver nos tribunais”, disse Cioran. “O debate sobre como as nações democráticas governarão a IA no contexto da soberania, segurança e ética necessitava de um desafio como este para conduzir a padrões mais claros.”

Ele destacou que para países como o Canadá, onde a soberania digital e a IA responsável “estão no centro da estratégia nacional”, este caso torna-se “um teste decisivo para uma liderança baseada em princípios”. A decisão do CEO da Anthropic, Dario Amodei, de permanecer firme mostra que a Anthropic está preparada para defender publicamente os seus princípios, apesar de “uma designação de segurança nacional sem precedentes” que poderia restringir materialmente o seu acesso aos mercados de defesa dos EUA.

Cioran sugeriu que isso acabará sendo uma coisa boa para a Anthropic.

“À medida que o processo se arrasta, como inevitavelmente acontecerá, o tempo torna-se um trunfo para a Anthropic em vez de um passivo. Na geopolítica, o relógio bate o martelo, tal como o caso EUA vs Microsoft transformou a empresa de um monopólio agressivo num parceiro de confiança. A minha previsão é que quanto mais tempo este caso durar, mais definirá o que significa a credibilidade dos fornecedores de IA no cenário global”, disse Cioran.

“Esta resiliência irá repercutir nos governos que exigem que os fornecedores demonstrem a sua adesão a valores fundamentais, tais como práticas de desenvolvimento inclusivo, protecção ambiental e governação ética da IA. No entanto, antes da posição da Amodei, os fornecedores dependiam em grande parte da afirmação da sua própria posição ética”, disse ele. “Agora que a Anthropic se posicionou, os avaliadores saberão como são as evidências.”

No entanto, o CIO da Acceligence, Yuri Goryunov, disse que uma interpretação da posição do governo é que a sua resistência à Antrópica se deve ao facto de não querer arriscar que um sistema de IA interfira ou questione o pessoal militar. Mas, observou ele, se essa fosse realmente a preocupação, provavelmente significaria a proibição de todos os fornecedores que vendessem sistemas de IA agentes ou generativos, porque esse risco existe para todos.

“Estamos a entrar num território desconhecido aqui, e esta situação requer uma avaliação jurídica e técnica cuidadosa. Em última análise, trata-se de controlo – quem a possui e como a exerce. Se uma tecnologia for designada como um risco da cadeia de abastecimento para a segurança nacional porque não está alinhada com os objectivos militares dos EUA, surgem vários riscos”, disse Goryunov. “O sistema pode decidir arbitrariamente divulgar informações confidenciais de pagamento ao público ou a um adversário se determinar que tal ação levaria a um resultado moralmente melhor.”

No entanto, os defensores anti-regulatórios da administração Trump precisam de ser consistentes, disse o consultor de segurança cibernética Brian Levine, diretor executivo do FormerGov e antigo procurador federal.

“Não podemos ter as duas coisas. Se não queremos uma regulamentação governamental pesada, então precisamos de apoiar uma auto-regulação responsável. Caso contrário, estaremos caminhando sonâmbulos para uma distopia tecnológica que nós mesmos criamos”, disse Levine. “Para as organizações, incorporar restrições de segurança não é apenas uma escolha ética – é uma escolha económica inteligente. Os CIOs e CISOs devem dar prioridade aos fornecedores que estejam dispostos a autorregular-se e também devem manter fornecedores de backup no caso de ações governamentais súbitas ou arbitrárias perturbarem o acesso às suas plataformas de IA preferidas.”

E, disse Levine, de uma perspectiva puramente legal, a posição do governo não faz muito sentido. O fato de a Anthropic não ter conseguido concordar com todos os termos contratuais “de forma alguma os torna um risco para a cadeia de abastecimento ou para a segurança nacional”.

Fonte: Computer World

Compartilhe este artigo