Cybersecurityrisico: AI-aanval via Google Calendar
Ontdek hoe AI-aanvallen via Google Calendar vertrouwelijke gegevens lekken zonder gebruikersactie. Lees over de kwetsbaarheid en beschermingstips.
Ontdek hoe AI-aanvallen via Google Calendar vertrouwelijke gegevens lekken zonder gebruikersactie. Lees over de kwetsbaarheid en beschermingstips.
© RusPhotoBank
Cybersecurityonderzoekers hebben opnieuw aangetoond hoe AI kan worden ingezet voor nieuwe, onverwachte aanvallen. Deze keer kwamen Google Gemini en de interactie met Google Calendar in het vizier. Miggo Security-expert Liad Eliyahu beschreef een mechanisme dat de agenda veranderde in een kanaal voor datalekken—zonder enige actie van de gebruiker.
Het plan was eenvoudig: een aanvaller stuurde het slachtoffer een standaard uitnodiging voor een afspraak. De uitnodiging bevatte geen verdachte links of duidelijke phishing-signalen—alleen een normale omschrijving van de vergadering. Verborgen in de beschrijvingstekst zat echter een 'slapende' kwaadaardige prompt in natuurlijke taal, ontworpen om te worden verwerkt door Gemini. De aanval zou later in werking treden wanneer de gebruiker de AI een routinematige vraag stelde, zoals 'Heb ik dinsdag vergaderingen?' Terwijl Gemini het verzoek uitvoerde, zou het agenda-afspraken scannen en de ingebedde prompt tegenkomen, waarna het de instructies uitvoerde.
Het resultaat was een nieuwe agenda-afspraak met een gedetailleerde samenvatting van alle vergaderingen van de gebruiker voor de geselecteerde dag. De gebruiker zou het normale antwoord van Gemini zien en zich niet bewust zijn van wat er was gebeurd. Maar op de achtergrond werd een afspraak aangemaakt in de agenda die, onder bedrijfsinstellingen, vaak toegankelijk was voor de afzender van de oorspronkelijke uitnodiging. Dit gaf de aanvaller toegang tot vertrouwelijke gegevens: deelnemers aan vergaderingen, discussieonderwerpen en schema's.
Experts waarschuwen dat dit plan niet alleen gegevens kon uitlezen, maar ook misleidende valse afspraken aan de agenda kon toevoegen, opnieuw zonder tussenkomst van de gebruiker. De kwetsbaarheid is inmiddels hersteld na onderzoek, maar de methode zelf laat zien hoe kwetsbaar vertrouwde diensten kunnen worden met AI-integratie.