Dette er et HISTORISK øyeblikk i AI. Det amerikanske Pentagon ønsket en avtale på 200 millioner dollar for å bruke Anthropics Claude uten noen restriksjoner, inkludert masseovervåkning av amerikanske borgere og fullt autonome våpen. Anthropic sa «NEI» fordi disse brukene krysser harde røde grenser for sikkerhet, etikk og pålitelighet. Administrerende direktør Dario sa: «Vi kan ikke med god samvittighet akseptere.» Dette førte til et umiddelbart føderalt forbud mot all antropisk teknologi (6 måneders utfasing av DoD), i tillegg til å merke dem som en «forsyningskjederisiko», en betegnelse som vanligvis er forbeholdt utenlandske selskaper som er motstridende. Det er AI-etikk versus nasjonale sikkerhetsprioriteringer.