Anthropic, hükümetin teknolojisini kara listeye alma kararını tersine çevirmek amacıyla dün Trump yönetimine dava açtı. Anthropic, Claude AI modellerinin otonom savaş ve Amerikalılara yönelik kitlesel gözetim için kullanılmasına izin vermeyerek Birinci Değişiklik haklarını kullandığını ve hükümetin misilleme olarak onu kara listeye aldığını savunuyor.
Anthropic, "Anthropic, Claude'un güvenli ve güvenilir bir şekilde otonom ölümcül savaş ve Amerikalılara yönelik kitlesel gözetleme için kullanılamayacağı yönündeki yargısına sıkı sıkıya bağlı kaldığında, Başkan her federal kuruma 'Anthropic teknolojisinin tüm kullanımını DERHAL DURDURMA' talimatı verdi - Savaş Bakanlığı daha önce aynı koşulları kabul etmiş olsa bile." dedi Anthropic.davaABD Kaliforniya Kuzey Bölgesi Bölge Mahkemesinde. "Saatler sonra, Savaş Bakanı [Pete Hegseth], Bakanlığına Anthropic'i 'Ulusal Güvenliğe Yönelik Tedarik Zinciri Riski' olarak tanımlama talimatı verdi ve ayrıca 'şu andan itibaren geçerli olmak üzere, ABD ordusuyla iş yapan hiçbir yüklenici, tedarikçi veya ortağın Anthropic ile herhangi bir ticari faaliyette bulunamayacağını' belirtti."
Anthropic, İlk Değişiklik'in kendisine "kendi yapay zeka hizmetlerinin sınırlamaları ve yapay zeka güvenliğiyle ilgili önemli konular hakkında hem kamuya hem de hükümete görüşlerini ifade etme hakkı" verdiğini söyledi. Anthropic ayrıca, bunu bir tedarik zinciri riski olarak tanımlama sürecinin Kongre tarafından zorunlu kılınan prosedürlere uymadığını savundu. Davada, tedarik zinciri risk tanımının yalnızca bir saldırganın ulusal güvenlik için kullanılan sistemleri sabote edebileceği risklere karşı koruma sağlamak için kullanılması gerektiği belirtildi.




