Rättslig seger för Anthropic mot Pentagon
Publicerad mars 28, 2026
Publicerad mars 28, 2026

En federal domare i Kalifornien har beslutat att stoppa Pentagon från att klassificera AI-företaget Anthropic som en riskabel leverantör.
Anthropic stämde regeringen tidigare i mars på grund av denna klassificering, vilket innebar att företaget, känt för sitt AI-verktyg Claude, inte skulle få möjlighet att arbeta med försvarssektorn.
Domaren konstaterade att regeringens beslut var i strid med yttrandefrihetslagarna, rapporterar The Wall Street Journal.
Problematiken uppstod efter att Anthropic avvisade att det amerikanska försvaret skulle få fullständig access till deras teknik, inklusive tillgång till övervakning av den egna befolkningen och användning av dödligt våld genom autonoma vapen.
Lästips: Tre biljoner i värdering – AI-bolaget alla pratar om.