AI-ügynökök és adatszivárgás a szoftverfejlesztésben

Danny Weber

Az AI gyorsítja a fejlesztést, de adatszivárgás és kontextusmérgezés veszélye áll fenn. Az AI támogató eszköz, a biztonsági döntéseket szakemberekre kell bízni.

A mesterséges intelligencia használata a szoftverfejlesztésben felgyorsítja a folyamatokat, ugyanakkor új kockázatokat is bevezet. A szakértők egy új fenyegetési osztályra figyelmeztetnek, amely az AI-ügynökökhöz kapcsolódik – ezek a felhasználó nevében képesek cselekedni, és kóddal, fájlokkal, valamint külső rendszerekkel lépnek kapcsolatba.

A legfőbb probléma, hogy a mesterséges intelligencia ma már nem csak szöveggel vagy kóddal dolgozik, hanem teljes infrastruktúrákkal. Ez növeli a véletlen rendszerzavarok, a konfigurációs változtatások és az érzékeny adatok szervezeten kívülre kerülésének kockázatát. Az AI és a fejlesztő közötti kommunikációs csatornák is veszélyt jelentenek, mivel ezeket támadók lehallgathatják vagy kihasználhatják.

Kutatások szerint az adatszivárgások nagy része már most is abból adódik, hogy az alkalmazottak vállalati adatokat töltenek fel nyilvános AI-szolgáltatásokba – ezek lehetnek kódrészletek, dokumentumok, kereskedelmi adatok és belső szabályzatok. Az AI-ügynökök esetében nagyobb a tét, mert ezek nemcsak válaszolnak a kérdésekre, hanem műveleteket hajtanak végre: API-kat érnek el, fájlokat olvasnak, és közvetlenül lépnek kapcsolatba a rendszerekkel.

A szakértők arra figyelmeztetnek, hogy ha a hozzáférési jogok rosszul vannak beállítva, vagy hiányzik a felügyelet, a mesterséges intelligencia véletlenül kitettséghez juttathat kulcsokat, tokeneket vagy bizalmas adatokat. Emellett fennáll a kontextusmérgezés, a rosszindulatú utasítások és az ügynökök közötti hibák veszélye is.

Külön téma, hogy a mesterséges intelligencia új sebezhetőségi réteget hoz létre a fejlesztés és a kiberbiztonság határán. Olyan problémák ezek, amelyek a hagyományos biztonsági modellekbe nem illenek bele – ilyen például a kontextusmérgezés, a veszélyes lekérdezések, az eszközökkel való visszaélés és a túl megengedő szolgáltatásfiókok.

A szakértők ugyanakkor hasznosnak tartják az AI-t a kódelemzés és a sebezhetőségek felderítése terén. Gyorsabban felismeri a gyakori hibákat, például az SQL-injekciót és az XSS-t, így újabb ellenőrzési réteget jelent.

De az AI egyedüli használata biztonsági döntéseknél hiba lenne. A modellek tévedhetnek, figyelmen kívül hagyhatják az üzleti logikát, és hamis biztonságérzetet kelthetnek. A szakértők szerint az AI-t támogató eszközként érdemes alkalmazni, a végső ellenőrzéseket pedig a kiberbiztonsági szakemberekre kell bízni.

© RusPhotoBank