Anthropic ve Pentagon arasında yapay zeka anlaşmazlığı
Amerika Savunma Bakanlığı, Anthropic ile işbirliğini ulusal güvenlik riski olarak görüyor. Yapay zeka modellerinin askeri kullanımı tartışılıyor.
Amerika Savunma Bakanlığı, Anthropic ile işbirliğini ulusal güvenlik riski olarak görüyor. Yapay zeka modellerinin askeri kullanımı tartışılıyor.
© RusPhotoBank
Amerika Savunma Bakanlığı, Anthropic ile işbirliğinin ulusal güvenlik açısından "kabul edilemez bir risk" oluşturduğunu açıkladı. Bu görüş, şirketin kendisinin "tedarik zinciri riski" olarak sınıflandırılmasına itiraz ettiği bir davaya yanıt olarak hazırlanan yasal belgelerde yer aldı.
Anlaşmazlık, Anthropic'in yapay zeka modellerinin kitlesel gözetim veya otonom silah geliştirme amaçlarıyla kullanılmasına izin vermeyi reddetmesinden kaynaklanıyor. Pentagon, yapay zeka teknolojisi sözleşmelerinin genellikle yasal her türlü kullanıma izin verdiğini, ancak şirketin bu tutumunun hassas askeri projelerde güvenilir bir ortak olma konusunda şüphe uyandırdığını belirtti.
Bakanlık ayrıca, yapay zeka sistemlerinin manipülasyona açık olduğunu ve bir geliştiricinin teorik olarak kritik bir anda modelin davranışını değiştirebileceğini veya işlevselliğini kısıtlayabileceğini vurguladı. Savunma Bakanlığı'na göre, askeri operasyonlarda özel bir şirketin kararlarına bu derece bağımlı olmak kabul edilemez bir durum teşkil ediyor. Bu da kısıtlamaların dayanağını oluşturdu.
Dosyada belgelendiği üzere, ABD başkanlık yönetimi daha önce federal kurumlara Anthropic teknolojilerini kullanmayı durdurma talimatı vermişti. Şirket, potansiyel milyarlarca dolarlık kayıplara işaret ederek mahkeme yoluyla bu kararın geçici olarak askıya alınmasını talep ediyor. Bu sırada Microsoft, Google ve OpenAI da dahil olmak üzere birkaç büyük teknoloji şirketi Anthropic'e desteklerini ifade etti.