KI in der Softwareentwicklung: Gefahren und Schutzmaßnahmen

KI in der Softwareentwicklung: Risiken durch KI-Agenten
© RusPhotoBank

Der Einsatz künstlicher Intelligenz in der Softwareentwicklung beschleunigt zwar Prozesse, bringt aber auch neue Risiken mit sich. Experten warnen vor einer neuen Klasse von Bedrohungen, die mit KI-Agenten zusammenhängen – diese können im Namen eines Nutzers handeln und mit Code, Dateien und externen Systemen interagieren.

Der Kern des Problems: KI verarbeitet nicht mehr nur Text oder Code, sondern greift mittlerweile auf ganze Infrastrukturen zu. Das Risiko von versehentlichen Systemstörungen, Konfigurationsänderungen oder Datenlecks nach außen steigt. Zudem sind die Kommunikationswege zwischen KI und Entwickler angreifbar – sie können von Angreifern abgefangen oder missbraucht werden.

Studien belegen, dass ein erheblicher Teil der Datenlecks bereits dadurch entsteht, dass Mitarbeiter Firmendaten in öffentliche KI-Dienste eingeben. Das können Code-Schnipsel, Dokumente, Geschäftszahlen oder interne Richtlinien sein. Bei KI-Agenten ist die Gefahr noch größer: Sie beantworten nicht nur Fragen, sondern führen selbstständig Aktionen aus – etwa den Zugriff auf APIs, das Auslesen von Dateien oder den direkten Eingriff in Systeme.

Die Experten warnen: Sind die Zugriffsrechte falsch eingestellt oder fehlt die Kontrolle, kann KI unbeabsichtigt Schlüssel, Token oder vertrauliche Daten offenlegen. Hinzu kommen Gefahren wie Kontextvergiftung, schädliche Befehle und Fehler bei der Kommunikation zwischen verschiedenen Agenten.

Darüber hinaus entwickelt sich KI zu einer neuen Schwachstellenebene an der Schnittstelle von Entwicklung und Cybersicherheit. Es geht um Probleme, die in herkömmliche Sicherheitsmodelle nicht hineinpassen: Kontextvergiftung, unsichere Anfragen, Missbrauch von Tools und zu weitreichende Servicekonten.

Trotzdem bewerten Experten KI als nützliches Hilfsmittel für Code-Analysen und das Aufspüren von Sicherheitslücken. Sie erkennt gängige Schwachstellen wie SQL-Injections oder XSS schneller und sorgt für eine zusätzliche Kontrollebene.

Es wäre jedoch ein Fehler, Sicherheitsentscheidungen allein der KI zu überlassen. Die Modelle können irren, die Geschäftslogik übersehen und ein trügerisches Sicherheitsgefühl vermitteln. Die Experten empfehlen, KI als Unterstützung einzusetzen, die finale Prüfung aber Cybersicherheitsspezialisten zu überlassen.