Antrópico versus Pentágono: o que as empresas devem fazer

Antrópico versus Pentágono: o que as empresas devem fazer

A relação entre um dos fabricantes de modelos de IA mais lucrativos e poderosos do Vale do Silício, a Anthropic, e o governo dos EUA atingiu um ponto de ruptura na sexta-feira, 27 de fevereiro de 2026.

O Presidente Donald J. Trump e a Casa Branca publicaram nas redes sociais ordenando a todas as agências federais que cessassem imediatamente a utilização da tecnologia da Anthropic, o criador da poderosa família Claude de modelos de IA, depois de as negociações de um contrato com menos de dois anos terem fracassado devido à recusa da Anthropic em reverter as proibições de utilização da sua tecnologia em armas totalmente autónomas e na vigilância em massa de cidadãos dos EUA.

Seguindo o exemplo do presidente, o secretário da Guerra, Pete Hegseth, disse que estava instruindo o Departamento de Guerra a designar o Antrópico como "Risco da cadeia de abastecimento para a segurança nacional," uma lista negra tradicionalmente reservada para adversários estrangeiros como Huawei ou Kaspersky Lab.

A medida encerra efectivamente o contrato militar de 200 milhões de dólares da Antrópico e estabelece um prazo rígido de seis meses para o Departamento de Guerra, sediado no edifício do Pentágono, eliminar Claude dos seus sistemas.

Mas os negócios da Anthropic fora do governo têm crescido ultimamente, com seu serviço Claude Code sozinho decolando para uma divisão ARR de mais de US$ 2,5 bilhões menos de um ano após o lançamento, e acaba de anunciar uma Série G de US$ 30 bilhões com avaliação de US$ 380 bilhões no início deste mês e, mais ou menos sozinha, estimulou grandes mergulhos em ações no setor de SaaS, lançando plug-ins e habilidades para empresas específicas e funções verticalizadas da indústria, incluindo RH, design, engenharia, operações, análise financeira, investimento bancário, pesquisa de capital, capital privado e gestão de patrimônio.

Ironicamente, empresas de SaaS em indústrias e setores como Salesforce, Spotify, Novo Nordisk, Thompson Reuters e outros estão relatando alguns dos maiores benefícios em produtividade e desempenho graças aos modelos Claude AI altamente capazes e eficazes de pontuação de benchmark da Anthropic. Não é exagero dizer que a Anthropic está entre os laboratórios de IA de maior sucesso nos EUA e no mundo.

Então, por que agora está sendo considerado um "Risco da cadeia de abastecimento para a segurança nacional?"

Por que o Pentágono está designando a Anthropic como um “risco da cadeia de suprimentos para a segurança nacional” e por que agora?

A ruptura decorre de uma disputa fundamental sobre "todo uso legal." O Pentágono exigiu acesso irrestrito a Claude para qualquer missão considerada legal, enquanto o CEO da Anthropic, Dario Amodei, recusou-se a ceder em duas questões específicas. "linhas vermelhas" o Pentágono já tinha concordado quando o contrato foi celebrado pela primeira vez em 2024: a utilização de modelos antrópicos para vigilância em massa de cidadãos americanos e armamento letal totalmente autónomo.

Hegseth caracterizou a recusa como "arrogância e traição," enquanto Amodei sustentou que tais guarda-corpos são essenciais para evitar "escalada não intencional ou falha da missão" e notou (corretamente, na opinião deste autor) que "utilizar estes sistemas para vigilância doméstica em massa é incompatível com os valores democráticos."

As consequências são imediatas; o Departamento de Guerra ordenou que todos os empreiteiros e parceiros parassem de conduzir atividades comerciais com a Antrópico de uma só vez, embora o próprio Pentágono tenha uma janela de 180 dias para fazer a transição para "mais patriótico" fornecedores. E, no entanto, o aplicativo Claude da Anthropic subiu nas paradas da Apple App Store para se tornar o segundo aplicativo mais baixado, à medida que vários consumidores, desenvolvedores, trabalhadores de tecnologia e líderes em todo o mundo correm para apoiar a Anthropic em sua disputa com o Pentágono.

Ao mesmo tempo, os principais rivais da Anthropic já estão a tentar separar-se do seu negócio de contratação militar nos EUA. O CEO da OpenAI, Sam Altman, acaba de anunciar um acordo com o Pentágono que inclui dois sons semelhantes "princípios de segurança," embora ainda não esteja claro se eles são o mesmo tipo de linguagem contratual. No início do dia, a OpenAI anunciou uma impressionante rodada de investimentos de US$ 110 bilhões liderada pela Amazon, Nvidia e SoftBank.

A xAI de Elon Musk também teria assinado um acordo para permitir que seu modelo Grok fosse usado em sistemas altamente confidenciais, tendo concordado com o "todo uso legal" padrão que a Antrópico rejeitou, mas é considerado mal avaliado entre os funcionários do governo e militares que já o utilizam.

Entretanto, a Anthropic declarou a sua intenção de combater a designação em tribunal e incentivou os seus clientes comerciais a continuarem a utilizar os seus produtos e serviços, com exceção do trabalho militar.

O que isso significa para as empresas: o imperativo da interoperabilidade

Para os tomadores de decisões técnicas empresariais, o "Proibição antrópica" é um toque de clarim que transcende as políticas específicas da administração Trump.

Independentemente de você concordar com a posição ética e legal da Anthropic (como eu) ou com a posição do Pentágono (esta última sendo contestada legalmente e, segundo os especialistas, tênue), a conclusão principal é a mesma: interoperabilidade e agnosticismo do modelo – o primeiro, a capacidade de trabalhar com vários modelos de IA, e o último, a capacidade dos sistemas permanecerem funcionais ao alternar entre eles – é mais importante do que nunca.

Se todo o seu fluxo de trabalho de agência ou pilha voltada para o cliente estiver codificado na API de um único provedor, você não será ágil ou flexível o suficiente para atender às demandas de um mercado onde alguns clientes em potencial, como as forças armadas ou o governo dos EUA, desejam que você use ou evite modelos específicos como condições de seus contratos com eles.

A atitude mais prudente neste momento não é necessariamente atingir o "excluir" botão em Claude – que continua sendo o melhor modelo da categoria para codificação e raciocínio matizado, e certamente pode e deve continuar a ser usado para trabalhos fora disso com as agências militares e governamentais dos EUA – mas para garantir que você tenha um "espera quente."

Isso significa utilizar camadas de orquestração e formatos de prompt padronizados que permitem alternar entre Claude, GPT-4o e Gemini 1.5 Pro sem grande degradação de desempenho. Se você não conseguir trocar de fornecedor em um sprint de 24 horas, sua cadeia de suprimentos será frágil.

Diversifique seu suprimento de IA

Enquanto os gigantes norte-americanos lutam pelos favores do Pentágono, o mercado está a fragmentar-se de uma forma que oferece coberturas surpreendentes.

O Google Gemini viu suas ações dispararem após as notícias, e a nova infusão massiva de dinheiro da OpenAI da Amazon (anteriormente uma forte aliada da Antrópica) sinaliza uma consolidação de poder.

Contudo, não negligencie o "abrir" e alternativas internacionais. Empresas norte-americanas como a Airbnb já fizeram sucesso ao migrar para modelos chineses de código aberto de baixo custo, como o Qwen da Alibaba, para determinadas funções de atendimento ao cliente, citando custo e flexibilidade.

Embora os modelos chineses acarretem o seu próprio conjunto de riscos geopolíticos possivelmente maiores, para algumas empresas, servem como uma cobertura viável contra a actual volatilidade do mercado interno dos EUA.

Mais realisticamente para a maioria, a mudança para hospedagem interna por meio de cervejas domésticas como a série GPT-OSS da OpenAI, Granite da IBM, Llama da Meta, modelos Trinity da Arcee, Olmo da AI2, modelos LFM2 menores da Liquid AI ou outros pesos de código aberto de alto desempenho é a apólice de seguro definitiva. Ferramentas de benchmarking de terceiros, como Artificial Analysis e Pinchbench, podem ajudar as empresas a decidir quais modelos atendem aos seus critérios de custo e desempenho nas tarefas e cargas de trabalho que estão sendo implantadas.

Ao executar modelos localmente ou em uma nuvem privada e ajustá-los com base em seus dados proprietários, você isola seu negócio do "Termos de Serviço" guerras e listas negras federais.

Mesmo que um modelo secundário seja ligeiramente inferior em termos de desempenho de referência, tê-lo pronto para expansão evita um apagão total se o seu fornecedor principal for subitamente "sitiado" pela represália do governo. É apenas um bom negócio: você precisa diversificar sua oferta.

A nova due diligence

Como líder empresarial, sua lista de verificação de devida diligência acaba de se expandir graças a uma luta volátil entre o governo federal e o setor privado.

A conclusão é clara: se você planeja manter negócios com agências federais, você deve ser capaz de certificar-lhes que seus produtos não são construídos em um único fornecedor de modelo proibido – por mais repentina que essa designação possa cair ou por mais legalmente insustentável que possa ser.

Em última análise, esta é uma lição de redundância estratégica. A era da IA ​​deveria ser sobre a democratização da inteligência, mas atualmente parece uma batalha clássica sobre aquisições de defesa e poder executivo.

Proteja seu backup e fornecedores diversificados, desenvolva para portabilidade e não deixe seu "agentes" tornar-se dano colateral na guerra entre o governo e qualquer empresa específica.

Quer você esteja motivado pelo apoio ideológico à Antrópica ou pela proteção a sangue frio, o caminho a seguir é o mesmo: diversificar, dissociar e estar pronto para "troca a quente" modelos entram e saem rapidamente.

A interoperabilidade de modelos acaba de se tornar a nova empresa "indispensável."



Fonte ==> Cyberseo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *