Raio-X Baco Master
GARANTA O BÔNUS ESPECIAL
00
D
00
H
00
M
00
S
February 28, 2026
SAIBA MAIS
2026-02-28 11:55 pm
This is some text inside of a div block.
3
min de leitura

Heading

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.

Por
This is some text inside of a div block.
Publicado em
This is some text inside of a div block.
This is some text inside of a div block.
Tecnologia
3
min de leitura

Vigilância em massa e armas controladas por IA fazem empresa desafiar o governo americano

A empresa que criou o Claude faz alerta assustador ao explicar o motivo para briga com o Departamento de Guerra.

Por
Rafael Lorenzo M. Barretti
Publicado em
27/2/2026 18:10
Olhar Digital

Um contrato com o Pentágono parece ser o sonho da maioria das empresas de tecnologia, mas a Anthropic, empresa que criou o Claude, abriu mão disso.

O Departamento de Guerra dos EUA estava pressionando para conseguir uso irrestrito da Inteligência Artificial.

A situação se tornou ainda mais crítica quando o secretário de Guerra Pete Hegseth deu um ultimato para o CEO da empresa.

Caso não concordasse com os termos do governo, a Anthropic poderia ser classificada como um "risco da cadeia de suprimentos".

O rótulo normalmente é usado para empresas estrangeiras consideradas ameaça à segurança nacional

Na prática, isso significaria perder acesso a contratos públicos, sofrer restrições comerciais e ser excluída de setores estratégicos da economia americana.

Além disso, segundo relatos divulgados pela imprensa americana, o governo também ameaçou recorrer à Lei de Produção de Defesa, que obriga empresas privadas a atender demandas de segurança nacional

Mesmo com essa situação, a Anthropic afirmou que está disposta a perder o contrato e ajudar na transição para outro fornecedor.

Vigilância e armas controladas por IA motivaram ruptura

Apesar do que pode parecer, o CEO da empresa, Dario Amodei, não se opõe à ideia das Forças Armadas usarem Inteligência Artificial.

Na realidade, ele destaca que não só defende essa ideia, como sua empresa foi um marco histórico para esse processo em um comunicado oficial:

Acredito profundamente na importância existencial de usar a IA para defender os Estados Unidos e outras democracias, e para derrotar nossos adversários autocráticos.A Anthropic, portanto, trabalhou proativamente para implantar nossos modelos no Departamento de Guerra e na comunidade de inteligência.”

O Claude chegou a desempenhar um papel importante para a operação que terminou com a captura do ditador venezuelano Nicolás Maduro, segundo o Wall Street Journal.

No entanto, ele defendeu que há certas medidas que atravessam linhas vermelhas em sua visão.

O primeiro ponto que ele trouxe como uma barreira que não aceitaria ver ultrapassada é o uso de IA para vigiar cidadãos.

Em sua visão, isso fere gravemente os valores americanos e pode ser uma ameaça à democracia, mesmo que não haja nenhuma lei impedindo:

Usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos. A vigilância em massa impulsionada por IA apresenta riscos sérios e novos para nossas liberdades fundamentais”, afirmou.

Outra questão que ele levantou foram as armas completamente autônomas, que são operadas apenas por IA.

Amodei começa o tópico defendendo as armas parcialmente automatizadas, que também precisam de humanos, são fundamentais para as Forças Armadas.

Ainda assim, ele diz que não existem tecnologias que possam garantir a segurança de armamentos controlados apenas pela IA atualmente:

Hoje, os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos.”

Leia a nota completa abaixo

Acredito profundamente na importância existencial de usar a IA para defender os Estados Unidos e outras democracias, e para derrotar nossos adversários autocráticos.A Anthropic, portanto, trabalhou proativamente para implantar nossos modelos no Departamento de Guerra e na comunidade de inteligência. Fomos a primeira empresa de IA de fronteira a implantar nossos modelos nas redes classificadas do governo dos EUA, a primeira a implantá-los nos Laboratórios Nacionais e a primeira a fornecer modelos personalizados para clientes de segurança nacional. O Claude está amplamente implantado no Departamento de Guerra e em outras agências de segurança nacional para aplicações críticas de missão, como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e muito mais.A Anthropic também agiu para defender a liderança da América em IA, mesmo quando isso vai contra o interesse de curto prazo da empresa. Escolhemos abrir mão de várias centenas de milhões de dólares em receita para cortar o uso do Claude por empresas ligadas ao Partido Comunista Chinês (algumas das quais foram designadas pelo Departamento de Guerra como Empresas Militares Chinesas), encerramos ciberataques patrocinados pelo PCC que tentavam abusar do Claude e defendemos controles rigorosos de exportação de chips para garantir uma vantagem democrática.A Anthropic entende que o Departamento de Guerra, e não empresas privadas, toma as decisões militares. Nunca levantamos objeções a operações militares específicas nem tentamos limitar o uso de nossa tecnologia de forma ad hoc.No entanto, em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos. Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer de forma segura e confiável. Dois desses casos de uso nunca foram incluídos em nossos contratos com o Departamento de Guerra, e acreditamos que não devem ser incluídos agora:
  • Vigilância doméstica em massa. Apoiamos o uso de IA para missões legais de inteligência estrangeira e contra-inteligência. Mas usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos. A vigilância em massa impulsionada por IA apresenta riscos sérios e novos para nossas liberdades fundamentais. Na medida em que tal vigilância é atualmente legal, isso ocorre apenas porque a lei ainda não acompanhou as capacidades de IA que crescem rapidamente. Por exemplo, sob a lei atual, o governo pode comprar registros detalhados dos movimentos, navegação na web e associações de americanos de fontes públicas sem obter um mandado, uma prática que a Comunidade de Inteligência reconheceu que levanta preocupações de privacidade e que gerou oposição bipartidária no Congresso. A IA poderosa torna possível montar esses dados dispersos e individualmente inofensivos em um quadro abrangente da vida de qualquer pessoa — de forma automática e em escala massiva.
  • Armas totalmente autônomas. Armas parcialmente autônomas, como as usadas hoje na Ucrânia, são vitais para a defesa da democracia. Até mesmo armas totalmente autônomas (aquelas que tiram completamente os humanos do loop e automatizam a seleção e o engajamento de alvos) podem se provar críticas para nossa defesa nacional. Mas hoje, os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos. Oferecemos trabalhar diretamente com o Departamento de Guerra em P&D para melhorar a confiabilidade desses sistemas, mas eles não aceitaram essa oferta. Além disso, sem supervisão adequada, armas totalmente autônomas não podem ser confiáveis para exercer o julgamento crítico que nossas tropas altamente treinadas e profissionais demonstram todos os dias. Elas precisam ser implantadas com salvaguardas apropriadas, que ainda não existem.
Pelo que sabemos, essas duas exceções não foram uma barreira para acelerar a adoção e o uso de nossos modelos nas forças armadas até o momento.O Departamento de Guerra afirmou que só contratará com empresas de IA que aceitem “qualquer uso legal” e removam as salvaguardas nos casos mencionados acima. Eles ameaçaram nos remover de seus sistemas se mantivermos essas salvaguardas; também ameaçaram nos designar como um “risco na cadeia de suprimentos” — um rótulo reservado para adversários dos EUA, nunca antes aplicado a uma empresa americana — e invocar a Lei de Produção de Defesa para forçar a remoção das salvaguardas. Essas duas últimas ameaças são inerentemente contraditórias: uma nos rotula como risco de segurança; a outra rotula o Claude como essencial para a segurança nacional.De qualquer forma, essas ameaças não mudam nossa posição: não podemos, de boa consciência, aceitar o pedido deles.É prerrogativa do Departamento selecionar os contratados mais alinhados com sua visão. Mas, dado o valor substancial que a tecnologia da Anthropic fornece às nossas forças armadas, esperamos que eles reconsiderem. Nossa forte preferência é continuar a servir o Departamento e nossos combatentes — com as duas salvaguardas solicitadas em vigor. Caso o Departamento opte por retirar a Anthropic, trabalharemos para possibilitar uma transição suave para outro provedor, evitando qualquer interrupção no planejamento militar em andamento, operações ou outras missões críticas. Nossos modelos estarão disponíveis nos termos amplos que propusemos pelo tempo que for necessário.”

O jornalismo da Brasil Paralelo existe graças aos nossos membros

Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa. 

Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos. 

Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo. 

Clique aqui.

Relacionadas

Todas

Exclusivo para membros

Ver mais