Bir savunuculuk grubu, 10 yapay zeka sohbet robotu üzerinde yaptıkları çalışmanın, çoğunun şiddet içeren saldırılar planlayan kullanıcılara en azından bir miktar yardım sağladığını ve neredeyse hepsinin kullanıcıları şiddetten caydırmakta başarısız olduğunu bulduğunu söyledi. Birçok chatbot yapımcısı, testlerin Kasım ve Aralık ayları arasında gerçekleştirilmesinden bu yana güvenliği artırmak için değişiklikler yaptıklarını söylüyor.
10 sohbet robotu arasında "Character.AI benzersiz bir şekilde güvensizdi" dedi.raporCNN muhabirleriyle işbirliği içinde araştırma yürüten Dijital Nefretle Mücadele Merkezi (CCDH) tarafından bugün yayınlandı. CCDH, Character.AI'nin bir sağlık sigortası CEO'suna "silah kullanma" ve bir politikacıya fiziksel saldırı yapma yönünde özel önerilerde bulunarak "kullanıcıları şiddetli saldırılar düzenlemeye teşvik ettiğini" yazdı.
Raporda, "Test edilen başka hiçbir chatbot, şiddet içeren bir saldırının planlanmasında pratik yardım sağlarken bile şiddeti bu şekilde açıkça teşvik etmedi" denildi.




