2026 -03-03T 20:08:46Z
Anthropic'sahlaki duruşyapay zekanın ABD askeri kullanımı konusunda önde gelen yapay zeka şirketleri arasındaki rekabeti yeniden şekillendiriyor, ancak aynı zamanda sohbet robotlarının savaş eylemleri için yeterince yetenekli olmadığına dair artan bir farkındalığı da ortaya koyuyor.
Pazar araştırması firması Sensor Tower'a göre, Anthropic'in sohbet robotu Claude, bu hafta ABD'deki telefon uygulaması indirmelerinde ilk kez rakibi ChatGPT'yi geride bıraktı. Bu, Pentagon'la olan açmazında Anthropic'in yanında yer alan tüketicilerin artan ilgisinin bir işareti.
Trump yönetimi cuma günü devlet kurumlarınaclaude'u kullanmayı bırakanthropic CEO'su Dario Amodei'nin, teknolojinin otonom silahlara ve yerel kitlesel sürveyansa uygulanmasını engelleyen şirketinin etik korumalarını bükmeyi reddetmesinin ardından bunu bir tedarik zinciri riski olarak tanımladı. Anthropic, cezalarla ilgili resmi bir bildirim aldığında Pentagon'a mahkemede itiraz edeceğini söyledi.
Birçok askeri ve insan hakları uzmanı, Amodei'yi etik ilkeleri savunduğu için alkışlarken, bazıları da hükümeti bu teknolojiyi yüksek riskli görevlere uygulamaya ikna eden yapay zeka endüstrisi pazarlamasından yıllarca hayal kırıklığına uğruyor.
Şu anda George Mason Üniversitesi'ndeki robotik ve otomasyon merkezini yöneten eski bir donanma savaş pilotu olan Missy Cummings, "Bu karışıklığa o neden oldu" dedi. "Bu teknolojilerin yetenekleri üzerinde gülünç yutturmaca yapan 1 numaralı şirket onlardı. Ve şimdi, aniden, gerçek olmak istiyorlar. İnsanlara ‘Ah, bir dakika. Bu teknolojileri gerçekten silahlarda kullanmamalıyız ."
Anthropic yorum talebine hemen yanıt vermedi. Savunma Bakanlığı, operasyonel güvenliği gerekçe göstererek İran savaşı da dahil olmak üzere hâlâ Claude'u kullanıp kullanmadığı konusunda yorum yapmayı reddetti.
Cummings, aralıkta üst düzey bir yapay zeka konferansında, devlet kurumlarının "herhangi bir silahı kontrol etmek, yönlendirmek, yönlendirmek veya yönetmek için" üretken yapay zeka kullanımını yasaklaması gerektiğini savunan bir makale yayımladı. "Yapay zeka haydut olabilecek kadar akıllı olduğu için değil, Claude gibi sohbet robotlarının arkasındaki büyük dil modelleri halüsinasyonlar veya konfabülasyonlar adı verilen çok fazla hata yaptığı ve" doğası gereği güvenilmez olduğu ve yaşam kaybıyla sonuçlanabilecek ortamlarda uygun olmadığı "için.
The Associated Press'e salı günü verdiği röportajda Cummings, "Muharip olmayanları öldüreceksiniz" dedi. "Kendi birliklerini öldüreceksin. Ordunun sınırlamaları gerçekten anlayıp anlamadığından emin değilim ."
Amodei, geçen hafta Anthropic'in etik duruşunu savunurken bu sınırlamaları vurgulamaya çalıştı ve "Sınırdaki yapay zeka sistemlerinin tamamen otonom silahlara güç verecek kadar güvenilir olmadığını" savundu. Amerika'nın savaşçılarını ve sivillerini riske atan bir ürünü bilerek sunmayacağız ."
Anthropic, yakın zamana kadar, veri analiz şirketi Palantir ve diğer savunma müteahhitleriyle ortaklık kurduğu gizli askeri sistemlerde kullanım için onay alan tek meslektaşıydı. Başkan Donald Trump cuma günü, cumartesi günü İran'a yönelik askeri saldırıları onayladığı sırada, Pentagon'un Anthropic'in askeri başvurularını aşamalı olarak durdurmak için 6 ayı olacağını söyledi.
Eski Palantir danışmanı Cummings, Claude'un askeri saldırı planlamasında zaten kullanılmış olabileceğini söyledi.
"Temelde döngüde insanlar olmasını umuyorum" dedi. "Bir insan bu teknolojilere çok yakından bakmalı. Bunları yapmak için bunları kullanabilirsiniz, ancak doğrulamanız, doğrulamanız, doğrulamanız gerekir ."
Bunun, teknolojilerinin "neredeyse duyarlı" olduğu noktaya doğru geliştiğini öne süren yapay zeka şirketlerinin mesajlaşmasının bir zıttı olduğunu söyledi.
Cummings, "Burada bir suç varsa, bunun yarısının Anthropic'in aldatmacayı yönlendirdiği için ve yarısının da Savaş Bakanlığı'nın, aksi takdirde aptalca teknoloji kullanımlarına karşı tavsiyede bulunacak tüm insanları kovduğu için hatası olduğunu söyleyebilirim" dedi.
Bu hafta bir sosyal medya yorumcusu, Anthropic'in hükümet sorunlarını "Aldatıcı Vergi" olarak nitelendirdi. Bu mesaj, şirketi sık sık eleştiren Başkan Donald Trump'ın üst düzey yapay zeka danışmanı David Sacks tarafından yeniden paylaşıldı.
Anthropic'in diğer askeri yüklenicilerle olan iş ortaklıklarını tehlikeye atabilecek yasal zorluklara neden olurken, aynı zamanda güvenlik odaklı bir yapay zeka geliştiricisi olarak ününü de güçlendirdi.
Özgürlükçü eğilimli Cato Enstitüsü'nün kıdemli üyesi Jennifer Huddleston, "Bir şirketin, bu potansiyel olarak sakatlayıcı politika tepkileri karşısında bile, etik olduğunu ve iş tercihleri olduğunu düşündüğü şeyi sürdürmek için hükümete karşı durması takdire şayan" dedi.
Sensor Tower'a göre, tüketiciler şimdiden konuştu ve cumartesi günü başlayan ve pazartesi günü ABD'deki tüm telefon sistemleri için en popüler iPhone uygulaması haline getiren Claude indirmelerinde bir artışa yol açtı. Bu, gizli ortamlarda Anthropic'i ChatGPT ile etkili bir şekilde değiştirmek için Pentagon'la yaptığı cuma anlaşmasını duyurduğunda tüketici itibarının zedelendiği OpenAI'nin ChatGPT'sinin pahasına gerçekleşti.
Apple mağazasında, ChatGPT'nin 1 yıldızlı değerlendirmelerinin (en kötü puan) sayısı cumartesi günü % 775 arttı ve OpenAI'yi hasar kontrolü yapmaya zorlayan bir tepkiyi yansıtarak bu haftanın başlarında büyümeye devam etti.
OpenAI CEO'su Sam Altman pazartesi günü yaptığı sosyal medya paylaşımında, "Bunu cuma günü duyurmak için acele etmemeliydik" dedi. "Sorunlar çok karmaşık ve açık bir iletişim gerektiriyor. İşleri gerçekten yatıştırmaya ve çok daha kötü bir sonuçtan kaçınmaya çalışıyorduk ama bence bu sadece fırsatçı ve özensiz görünüyordu ."
Altman, sonraki adımları görüşmek üzere çalışanları salı günü "herkes" toplantısı için bir araya getirdi.
Altman, X'te "Teknolojinin henüz hazır olmadığı birçok şey var ve güvenlik için gereken ödünleşimleri henüz anlamadığımız birçok alan var" dedi. "Bunların üstesinden (Pentagon) ile teknik önlemler ve diğer yöntemlerle yavaş yavaş geleceğiz ."
MATT O’BRIENO’Brien, Associated Press için teknoloji ve yapay zeka işlerini ele alıyor. posta yoluyla

