Conflict tussen Anthropic en Pentagon over AI-veiligheid
Het Amerikaanse ministerie van Defensie beschouwt samenwerking met Anthropic als een risico voor nationale veiligheid vanwege beperkingen op AI-gebruik. Lees meer over dit conflict.
Het Amerikaanse ministerie van Defensie beschouwt samenwerking met Anthropic als een risico voor nationale veiligheid vanwege beperkingen op AI-gebruik. Lees meer over dit conflict.
© RusPhotoBank
Het Amerikaanse ministerie van Defensie stelt dat samenwerking met Anthropic een 'onaanvaardbaar risico' voor de nationale veiligheid vormt. Deze positie werd uiteengezet in juridische documenten als reactie op een rechtszaak van het bedrijf zelf, dat zijn aanwijzing als een 'toeleveringsketenrisico' aanvecht.
Het conflict ontstaat doordat Anthropic weigert om zijn kunstmatige intelligentiemodellen te laten gebruiken voor massa-surveillance of de ontwikkeling van autonome wapens. Het Pentagon merkte op dat AI-technologiecontracten doorgaans gebruik voor elk wettig doel toestaan, maar het standpunt van het bedrijf heeft twijfels gewekt over zijn betrouwbaarheid als partner voor gevoelige militaire projecten.
Het ministerie benadrukte ook dat AI-systemen kwetsbaar zijn voor manipulatie, en dat een ontwikkelaar in theorie het gedrag van een model kan wijzigen of de functionaliteit ervan kan beperken op een cruciaal moment. Volgens het ministerie van Defensie is een dergelijke afhankelijkheid van de beslissingen van een particulier bedrijf onaanvaardbaar in militaire operaties, wat de basis vormde voor het opleggen van beperkingen.
Eerder, zoals gedocumenteerd in de zaak, gaf de Amerikaanse presidentiële administratie federale agentschappen opdracht om te stoppen met het gebruik van de technologieën van Anthropic. Het bedrijf zoekt via de rechtbank een tijdelijke schorsing van deze beslissing, met verwijzing naar mogelijke verliezen van miljarden dollars. Ondertussen hebben verschillende grote technologiebedrijven, waaronder Microsoft, Google en OpenAI, hun steun voor Anthropic uitgesproken.