Anthropic KI als Risiko für nationale Sicherheit eingestuft
Das US-Verteidigungsministerium erklärt, dass Anthropics KI-Modelle ein inakzeptables Sicherheitsrisiko darstellen, da sie nicht für Militärzwecke genutzt werden können.
Das US-Verteidigungsministerium erklärt, dass Anthropics KI-Modelle ein inakzeptables Sicherheitsrisiko darstellen, da sie nicht für Militärzwecke genutzt werden können.
© RusPhotoBank
Das US-Verteidigungsministerium hat erklärt, dass eine Zusammenarbeit mit Anthropic ein inakzeptables Risiko für die nationale Sicherheit darstellt. Diese Position wurde in rechtlichen Dokumenten dargelegt, die auf eine Klage des Unternehmens selbst antworten, die dessen Einstufung als Lieferkettenrisiko anfechtet.
Der Konflikt rührt von Anthropics Weigerung her, seine KI-Modelle für Massenüberwachung oder autonome Waffenentwicklung zu nutzen. Das Pentagon merkte an, dass KI-Technologieverträge typischerweise die Nutzung für jeden rechtmäßigen Zweck erlauben, doch die Haltung des Unternehmens hat Zweifel an seiner Zuverlässigkeit als Partner für sensible Militärprojekte aufkommen lassen.
Das Ministerium betonte zudem, dass KI-Systeme anfällig für Manipulation sind und ein Entwickler theoretisch das Verhalten eines Modells ändern oder dessen Funktionalität in einem kritischen Moment einschränken könnte. Laut dem Verteidigungsministerium ist eine solche Abhängigkeit von Entscheidungen eines Privatunternehmens in militärischen Operationen inakzeptabel, was die Grundlage für die Auferlegung von Beschränkungen bildete.
Zuvor hatte die US-Präsidialverwaltung, wie im Fall dokumentiert, Bundesbehörden angewiesen, die Nutzung von Anthropics Technologien einzustellen. Das Unternehmen beantragt gerichtlich eine vorübergehende Aussetzung dieser Entscheidung und verweist auf potenzielle Milliardenverluste. Unterdessen haben mehrere große Tech-Unternehmen, darunter Microsoft, Google und OpenAI, ihre Unterstützung für Anthropic bekundet.