Vigilância e armas controladas por IA motivaram ruptura
Apesar do que pode parecer, o CEO da empresa, Dario Amodei, não se opõe à ideia das Forças Armadas usarem Inteligência Artificial.
Na realidade, ele destaca que não só defende essa ideia, como sua empresa foi um marco histórico para esse processo em um comunicado oficial:
“Acredito profundamente na importância existencial de usar a IA para defender os Estados Unidos e outras democracias, e para derrotar nossos adversários autocráticos.A Anthropic, portanto, trabalhou proativamente para implantar nossos modelos no Departamento de Guerra e na comunidade de inteligência.”
O Claude chegou a desempenhar um papel importante para a operação que terminou com a captura do ditador venezuelano Nicolás Maduro, segundo o Wall Street Journal.
No entanto, ele defendeu que há certas medidas que atravessam linhas vermelhas em sua visão.
O primeiro ponto que ele trouxe como uma barreira que não aceitaria ver ultrapassada é o uso de IA para vigiar cidadãos.
Em sua visão, isso fere gravemente os valores americanos e pode ser uma ameaça à democracia, mesmo que não haja nenhuma lei impedindo:
“Usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos. A vigilância em massa impulsionada por IA apresenta riscos sérios e novos para nossas liberdades fundamentais”, afirmou.
Outra questão que ele levantou foram as armas completamente autônomas, que são operadas apenas por IA.
Amodei começa o tópico defendendo as armas parcialmente automatizadas, que também precisam de humanos, são fundamentais para as Forças Armadas.
Ainda assim, ele diz que não existem tecnologias que possam garantir a segurança de armamentos controlados apenas pela IA atualmente:
“Hoje, os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos.”
Leia a nota completa abaixo
“Acredito profundamente na importância existencial de usar a IA para defender os Estados Unidos e outras democracias, e para derrotar nossos adversários autocráticos.A Anthropic, portanto, trabalhou proativamente para implantar nossos modelos no Departamento de Guerra e na comunidade de inteligência. Fomos a primeira empresa de IA de fronteira a implantar nossos modelos nas redes classificadas do governo dos EUA, a primeira a implantá-los nos Laboratórios Nacionais e a primeira a fornecer modelos personalizados para clientes de segurança nacional. O Claude está amplamente implantado no Departamento de Guerra e em outras agências de segurança nacional para aplicações críticas de missão, como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e muito mais.A Anthropic também agiu para defender a liderança da América em IA, mesmo quando isso vai contra o interesse de curto prazo da empresa. Escolhemos abrir mão de várias centenas de milhões de dólares em receita para cortar o uso do Claude por empresas ligadas ao Partido Comunista Chinês (algumas das quais foram designadas pelo Departamento de Guerra como Empresas Militares Chinesas), encerramos ciberataques patrocinados pelo PCC que tentavam abusar do Claude e defendemos controles rigorosos de exportação de chips para garantir uma vantagem democrática.A Anthropic entende que o Departamento de Guerra, e não empresas privadas, toma as decisões militares. Nunca levantamos objeções a operações militares específicas nem tentamos limitar o uso de nossa tecnologia de forma ad hoc.No entanto, em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos. Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer de forma segura e confiável. Dois desses casos de uso nunca foram incluídos em nossos contratos com o Departamento de Guerra, e acreditamos que não devem ser incluídos agora:
- Vigilância doméstica em massa. Apoiamos o uso de IA para missões legais de inteligência estrangeira e contra-inteligência. Mas usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos. A vigilância em massa impulsionada por IA apresenta riscos sérios e novos para nossas liberdades fundamentais. Na medida em que tal vigilância é atualmente legal, isso ocorre apenas porque a lei ainda não acompanhou as capacidades de IA que crescem rapidamente. Por exemplo, sob a lei atual, o governo pode comprar registros detalhados dos movimentos, navegação na web e associações de americanos de fontes públicas sem obter um mandado, uma prática que a Comunidade de Inteligência reconheceu que levanta preocupações de privacidade e que gerou oposição bipartidária no Congresso. A IA poderosa torna possível montar esses dados dispersos e individualmente inofensivos em um quadro abrangente da vida de qualquer pessoa — de forma automática e em escala massiva.
- Armas totalmente autônomas. Armas parcialmente autônomas, como as usadas hoje na Ucrânia, são vitais para a defesa da democracia. Até mesmo armas totalmente autônomas (aquelas que tiram completamente os humanos do loop e automatizam a seleção e o engajamento de alvos) podem se provar críticas para nossa defesa nacional. Mas hoje, os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos. Oferecemos trabalhar diretamente com o Departamento de Guerra em P&D para melhorar a confiabilidade desses sistemas, mas eles não aceitaram essa oferta. Além disso, sem supervisão adequada, armas totalmente autônomas não podem ser confiáveis para exercer o julgamento crítico que nossas tropas altamente treinadas e profissionais demonstram todos os dias. Elas precisam ser implantadas com salvaguardas apropriadas, que ainda não existem.
Pelo que sabemos, essas duas exceções não foram uma barreira para acelerar a adoção e o uso de nossos modelos nas forças armadas até o momento.O Departamento de Guerra afirmou que só contratará com empresas de IA que aceitem “qualquer uso legal” e removam as salvaguardas nos casos mencionados acima. Eles ameaçaram nos remover de seus sistemas se mantivermos essas salvaguardas; também ameaçaram nos designar como um “risco na cadeia de suprimentos” — um rótulo reservado para adversários dos EUA, nunca antes aplicado a uma empresa americana — e invocar a Lei de Produção de Defesa para forçar a remoção das salvaguardas. Essas duas últimas ameaças são inerentemente contraditórias: uma nos rotula como risco de segurança; a outra rotula o Claude como essencial para a segurança nacional.De qualquer forma, essas ameaças não mudam nossa posição: não podemos, de boa consciência, aceitar o pedido deles.É prerrogativa do Departamento selecionar os contratados mais alinhados com sua visão. Mas, dado o valor substancial que a tecnologia da Anthropic fornece às nossas forças armadas, esperamos que eles reconsiderem. Nossa forte preferência é continuar a servir o Departamento e nossos combatentes — com as duas salvaguardas solicitadas em vigor. Caso o Departamento opte por retirar a Anthropic, trabalharemos para possibilitar uma transição suave para outro provedor, evitando qualquer interrupção no planejamento militar em andamento, operações ou outras missões críticas. Nossos modelos estarão disponíveis nos termos amplos que propusemos pelo tempo que for necessário.”