Anthropic ve Pentagon arasında Claude yapay zeka modeli için anlaşmazlık

ABD Savunma Bakanlığı ile yapay zeka geliştiricisi Anthropic, Claude modelinin kullanım şartları konusunda anlaşmazlığın eşiğinde. Anlaşmazlığın odağında teknolojinin kendisi değil, şirketin askeri uygulamalar için belirlediği kurallar yer alıyor.

Pentagon, birlikte çalıştığı tüm yapay zeka sistemlerinin yasal her türlü askeri görevde kullanılabilmesini şart koşuyor. Bu, standart şirket kısıtlamalarının dışında kalabilecek ulusal güvenlik senaryolarını da kapsıyor. Anthropic bu koşulu kabul etmezse, kritik savunma projelerindeki işbirliği askıya alınabilir.

Anthropic ise katı etik standartlarını korumakta ısrarlı. Şirket, Claude'un otonom silah sistemlerinde ve insan müdahalesi olmadan vatandaşların kitlesel gözetiminde kullanılmasını yasaklıyor. Girişim, özellikle insan hayatını etkileyen durumlarda, yapay zeka geliştirirken bu kurallara uymanın hayati önem taşıdığının altını çiziyor.

Tartışmanın merkezinde, geçtiğimiz yaz imzalanan ve 200 milyon dolara kadar değer biçilen ABD Savunma Bakanlığı sözleşmesi bulunuyor. Sözleşme, Claude'un çeşitli savunma sistemlerine entegre edilmesini öngörüyordu, ancak taraflar arasındaki temel anlaşmazlıklar nedeniyle şimdi çökme riskiyle karşı karşıya. Pentagon, şartlar revize edilmezse işbirliğinin tamamen sonlandırılabileceği sinyalini veriyor.

Anthropic örneği, teknoloji şirketlerinin etik hedefleri ile savunma sektörünün pratik gereksinimleri arasındaki açığın giderek büyüdüğünü gözler önüne seriyor. Bu durum, güçlü yapay zeka uygulamalarının sınırlarını kimin belirleyeceği sorusunu gündeme getiriyor: Geliştiriciler mi, hükümet mi, yoksa yasama organları mı?