Spór Pentagonu z Anthropic o warunki użycia AI Claude w obronności
Pentagon i firma Anthropic spierają się o zasady wykorzystania AI Claude w zastosowaniach militarnych, co grozi zawieszeniem kontraktu wartego 200 mln dolarów. Dowiedz się więcej.
Pentagon i firma Anthropic spierają się o zasady wykorzystania AI Claude w zastosowaniach militarnych, co grozi zawieszeniem kontraktu wartego 200 mln dolarów. Dowiedz się więcej.
© RusPhotoBank
Pentagon i firma Anthropic, zajmująca się sztuczną inteligencją, znajdują się na krawędzi konfliktu dotyczącego warunków wykorzystania modelu Claude. Spór nie dotyczy samej technologii, lecz zasad, jakie przedsiębiorstwo narzuca dla zastosowań militarnych.
Amerykańska armia żąda, aby wszelkie systemy AI, z którymi współpracuje, mogły być używane do wszystkich zgodnych z prawem zadań wojskowych. Obejmuje to scenariusze bezpieczeństwa narodowego, które mogą wykraczać poza standardowe ograniczenia korporacyjne. Jeśli Anthropic się nie zgodzi, współpraca nad kluczowymi projektami obronnymi może zostać zawieszona.
Tymczasem Anthropic utrzymuje ścisłe standardy etyczne. Firma zakazuje wykorzystania Claude'a w autonomicznych systemach broni oraz masowym nadzorze obywateli bez udziału człowieka. Startup podkreśla, że przestrzeganie tych zasad ma kluczowe znaczenie w rozwoju AI, zwłaszcza w sytuacjach wpływających na ludzkie życie.
W grę wchodzi kontrakt z amerykańskim Departamentem Obrony o wartości do 200 milionów dolarów, podpisany w ubiegłym lecie. Przewidywał on integrację Claude'a z kilkoma systemami obronnymi, ale teraz grozi mu załamanie z powodu fundamentalnych różnic zdań między stronami. Pentagon sugeruje, że jeśli warunki nie zostaną zmienione, współpraca może zostać całkowicie zakończona.
Sprawa Anthropic uwidacznia rosnącą przepaść między etycznymi ambicjami firm technologicznych a praktycznymi wymaganiami sektora obronnego. To rodzi pytanie, kto powinien wyznaczać granice dla potężnych zastosowań AI – twórcy, rząd czy ustawodawcy.