
Ciao, Internet! con Matteo Flora ANTHROPIC VS USA: Intelligenza Artificiale echi decide i limiti #1535
Mar 9, 2026
Si discute la scelta del governo Usa di etichettare Anthropic come rischio per la sicurezza nazionale e le conseguenze politiche. Si analizzano i negoziati col Pentagono e le clausole richieste contro armi letali e sorveglianza. Si valuta l'uso dello strumento supply chain risk su un'azienda americana e il precedente giuridico che può limitare le rivendicazioni etiche delle imprese tech.
AI Snips
Chapters
Transcript
Episode notes
Stato Contro Azienda Sul Controllo Delle AI
- Il governo USA ha designato Anthropic come rischio di sicurezza nazionale non per spionaggio ma perché ha chiesto clausole che vietassero sorveglianza domestica senza mandato e armi letali autonome senza controllo umano.
- Questa decisione segna una battaglia di potere tra Stato e industria tech: chi decide i limiti d'uso militare delle AI, lo Stato o chi le costruisce?.
Clausole Vincolanti Rifiutate Dal Pentagono
- Anthropic negoziava con il Pentagono e ha chiesto clausole vincolanti contro armi letali autonome e sorveglianza domestica senza mandato.
- Il Pentagono ha rifiutato perché pretende accesso legale senza restrizioni contrattuali, riaffermando la supremazia statale nel decidere limiti d'uso.
Reazione Pubblica E Movimenti Di Boicottaggio
- Dopo la vicenda, milioni di utenti hanno aderito alla campagna Quit GPT, le disinstallazioni e le recensioni negative sono esplose mentre Claude è salito in classifica.
- OpenAI ha poi ammesso di aver agito in modo affrettato; Kalyanowski si è dimessa pagando un prezzo personale.
