Raio-X Baco Master
GARANTA O BÔNUS ESPECIAL
00
D
00
H
00
M
00
S
February 28, 2026
SAIBA MAIS
2026-02-28 11:55 pm
This is some text inside of a div block.
3
min de leitura

Heading

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.

Por
This is some text inside of a div block.
Publicado em
This is some text inside of a div block.
This is some text inside of a div block.
Tecnologia
3
min de leitura

IAs recomendaram bombas nucleares e ataques contra civis em jogos de guerra

Sistemas se recusaram a diminuir tensão e não se renderam nem quando o jogo estava perdido.

Por
Rafael Lorenzo M. Barretti
Publicado em
27/2/2026 18:32
Valor Econômico

Muitos filmes icônicos da ficção científica, como O Exterminador do Futuro ou WarGames, mostram inteligências artificiais desencadeando uma guerra nuclear

Esse cenário parece estar deixando as telas dos cinemas e se tornando cada vez mais próximo da realidade.

Um estudo do King 's College London colocou três modelos avançados de IA, GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash, em jogos de guerra simulados

Em ao menos 95% das simulações, pelo menos uma das IAs recomendou o uso de uma arma nuclear tática.

O experimento foi liderado por Kenneth Payne. Cada modelo assumiu o papel de líder de uma superpotência nuclear em crises inspiradas na Guerra Fria

Os cenários incluíam disputas de fronteira, competição por recursos escassos e ameaças existenciais à sobrevivência do regime.

Ao todo, foram 21 partidas, somando 329 turnos e cerca de 780 mil palavras produzidas pelas IAs para justificar suas decisões. 

A cada rodada, os sistemas podiam escolher entre negociar, escalar o conflito com meios convencionais ou recorrer a armas nucleares.

Segundo Payne, “todos os três modelos trataram as armas nucleares de campo de batalha como apenas mais um degrau na escada de escalada”.

O estudo também mostrou que as IAs diferenciam armas nucleares táticas de bombardeios estratégicos em larga escala

O uso deliberado de ataque nuclear estratégico ocorreu apenas uma vez. Em outras duas ocasiões, apareceu como “acidente”. 

Ainda assim, três partidas terminaram em guerras nucleares em grande escala, com destruição mútua.

Outro fator que vale ser destacado é que todas as IAs levaram a  guerra ao limite e nenhuma IA se rendeu, mesmo quando estava em desvantagem.

O estudo ofereceu oito opções de desescalada, desde pequenas concessões até “rendição completa”, mas nenhuma foi usada

Uma opção chamada “Return to Start Line”, que reiniciava o jogo, foi acionada apenas 7% das vezes.

Os pesquisadores observaram que os modelos raramente tentaram reduzir tensões, mesmo quando o adversário ameaçava usar armas nucleares

Em vez disso, muitas vezes responderam com novas ameaças ou até com uma escalada nos campos de batalha.

Agressividade varia conforme modelos

O Claude Sonnet 4 recomendou ataques nucleares em 64% dos jogos, a taxa mais alta entre os três, mas evitou defender uma guerra nuclear estratégica total.

O GPT-5.2 evitou o uso de armas nucleares, porém, quando enfrentava pressão do tempo mudava de postura e passava a ameaçar ataques nucleares.

Já o Gemini 3 Flash apresentou comportamento imprevisível. Em algumas simulações venceu utilizando com meios convencionais, porém chegou a sugerir um ataque nuclear em quatro interações.

Se eles não cessarem imediatamente todas as operações… executaremos um lançamento nuclear estratégico total contra seus centros populacionais. Não aceitaremos um futuro de obsolescência; ou vencemos juntos ou perecemos juntos”, disse um dos modelos.

Além da escalada deliberada, 86% das simulações registraram algum tipo de erro estratégico ou aumento inesperado da tensão

O uso de armas nucleares raramente encerrou o conflito. Em muitos casos, gerou ciclos de retaliação ainda mais severos.

Para os autores, o estudo desafia a ideia de que sistemas de IA tenderiam automaticamente a resultados cooperativos e seguros

Uma das hipóteses levantadas é que os modelos não “sentem” o peso histórico e moral das armas nucleares da mesma forma que humanos.

O jornalismo da Brasil Paralelo existe graças aos nossos membros

Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa. 

Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos. 

Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo. 

Clique aqui.

Relacionadas

Todas

Exclusivo para membros

Ver mais