US-Gericht verhindert Einstufung von Anthropic als Lieferkettenrisiko

Ein US-Bundesgericht hat die Regierung vorläufig daran gehindert, Anthropic in ihre "Lieferkettenrisiko"-Liste aufzunehmen. Damit zeichnet sich eine bedeutende Wende in dem prominenten Konflikt um die Nutzung künstlicher Intelligenz ab. Richterin Rita Lin gab dem Antrag des Unternehmens auf eine einstweilige Verfügung statt, wodurch Beschränkungen für Bundesbehörden bei der Nutzung seiner Technologie vorerst ausgesetzt sind.

Der Streit eskalierte, nachdem Anthropic sich weigerte, Vertragsbedingungen zu ändern, die den Einsatz seiner KI-Lösungen für Massenüberwachung und autonome Waffenentwicklung ermöglicht hätten. Die Regierung reagierte darauf mit der Anordnung an Bundesbehörden, die Produkte des Unternehmens – einschließlich des Claude-Modells – nicht mehr zu nutzen. Das Pentagon stufte Anthropic offiziell als Lieferkettenbedrohung ein, eine Bezeichnung, die normalerweise ausländischen Wettbewerbern vorbehalten ist.

Das Gericht hielt diese Maßnahmen für fragwürdig. In der Urteilsbegründung wird festgestellt, dass die Regierung offenbar versucht, das Unternehmen für öffentliche Kritik zu bestrafen. Die Richterin betonte, dass die Einstufung von Anthropic als potenzielle Gefahr dem Gesetz widerspricht, willkürlich erscheint und möglicherweise gegen die Rechte des ersten Verfassungszusatzes verstößt. Es wurde zudem angemerkt, dass die Meinungsverschiedenheit des Unternehmens mit der Regierungsposition nicht rechtfertigt, es effektiv als gefährliche Einheit zu brandmarken.

Anthropic erklärte, die schnelle Entscheidung des Gerichts zu begrüßen und beabsichtige, den konstruktiven Dialog mit der Regierung fortzusetzen, während es gleichzeitig sichere KI-Technologien entwickelt. Die rechtlichen Verfahren sind jedoch noch nicht abgeschlossen, und ein endgültiges Urteil steht noch aus. Das Gericht hat bereits angedeutet, dass die Position des Unternehmens mit hoher Wahrscheinlichkeit Bestand haben wird.