Yhdysvaltain puolustusministeriö ja tekoälykehittäjä Anthropic ovat riitaisilla vesillä Claude-mallin käyttöehtojen vuoksi. Kiista ei kohdistu itse teknologiaan, vaan yrityksen asettamiin rajoituksiin sotilaallisissa käyttötarkoituksissa.
Pentagon vaatii, että kaikki sen käyttämät tekoälyjärjestelmät on voitava käyttää kaikissa laillisissa sotilaallisissa tehtävissä. Tämä sisältää myös kansallisen turvallisuuden skenaariot, jotka saattavat ylittää tavalliset yritysten rajoitukset. Mikäli Anthropic ei suostu näihin ehtoihin, keskeiset puolustushankkeet saattavat jäädä jäihin.
Anthropic puolestaan pitää kiinni tiukista eettisistä periaatteistaan. Yritys kieltää Clauden käytön autonomisissa asejärjestelmissä sekä laajamittaisessa kansalaisten valvonnassa ilman ihmisen osallistumista. Startup-yritys korostaa, että näiden sääntöjen noudattaminen on ratkaisevan tärkeää tekoälyn kehityksessä, erityisesti tilanteissa, joissa ihmishenkiä on vaarassa.
Pelissä on viime kesänä allekirjoitettu sopimus Yhdysvaltain puolustusministeriön kanssa, jonka arvo voi nousta jopa 200 miljoonaan dollariin. Sopimus sisälsi Clauden integroinnin useisiin puolustusjärjestelmiin, mutta nyt se on vaarassa kaatua osapuolten välisen perustavanlaatuisen erimielisyyden vuoksi. Pentagon vihjaa, että jos ehtoja ei muuteta, yhteistyö saattaa päättyä kokonaan.
Anthropicin tapaus korostaa kasvavaa kuilua teknologiayritysten eettisten tavoitteiden ja puolustussektorin käytännön tarpeiden välillä. Tämä herättää kysymyksen siitä, kenen tulisi määrittää rajat voimakkaiden tekoälysovellusten käytölle – kehittäjien, hallituksen vai lainsäätäjien.