
Fernando Ulrich IAs usariam armas nucleares em 95% dos casos
Feb 27, 2026
Debate tenso entre governo e empresa de IA sobre remover salvaguardas e permitir uso militar. Discussão sobre contratos, risco de entrar em lista negra e impacto em parceiros como a Palantir. Alerta sobre imprevisibilidade de modelos em cenários de guerra. Relato de simulações em que IAs recomendaram armas nucleares na maioria dos casos.
AI Snips
Chapters
Transcript
Episode notes
Ultimato Do Pentágono À Anthropic
- O Pentágono deu ultimato à Anthropic para remover salvaguardas e permitir uso irrestrito do modelo Claude até as 17h de amanhã.
- O conflito expõe tensão entre segurança da IA defendida por Anthropic e pressão militar por acesso total, com risco de blacklist e impacto no valuation.
Origem Da Anthropic Pela Preocupação Com Segurança
- Dario Amodai saiu da OpenAI por preocupações com segurança e fundou a Anthropic com foco em salvaguardas.
- A empresa publica artigos e orienta sua missão para evitar mau uso militar e vigilância em massa.
Contrato De US$200M E A Disputa Sobre Restrições
- Anthropic assinou em julho um contrato de US$200 milhões com o Pentágono, sendo a única empresa aprovada para uso militar até então.
- O desacordo atual é sobre vigilância em massa e armas autônomas, que Anthropic quer proibir e o Pentágono quer sem restrições.
