Hvordan prompt-stilen påvirker AI-hallusinasjoner

En ny studie tyder på at brukerne selv ofte utløser såkalte AI-hallusinasjoner. Studien, publisert 3. oktober på arXiv.org, med tittelen Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions, viser at selve formuleringen av en prompt direkte påvirker om svarene krydres med oppdiktede fakta, sitater eller kilder.

Forskerne analyserte over 13 000 menneske-til-menneske-dialoger og mer enn 1 300 samtaler mellom mennesker og chatboter. De fant at når folk henvender seg til et AI-system, skriver de annerledes: kortere, med svakere grammatikk, mer bryskt og med smalere ordforråd. Innholdet kan være likt, men uttrykket skifter tydelig — et klart stilskifte.

Dette misforholdet blir et problem fordi store språkmodeller trenes på høflig, velstrukturert tekst. Dermed kan brå eller slurvete formuleringer tolkes tvetydig og dytte systemet i retning av å dikte opp detaljer. Det harmonerer med erfaringen mange allerede har: Små justeringer i tone eller klarhet kan vippe utfallet.

Mulige løsninger

Teamet undersøkte flere grep. Ett er å trene modellene på et bredere spekter av språkstiler, noe som øker treffsikkerheten i å forstå brukerens hensikt med 3 prosent. Et annet er automatisk parafrasering av prompten, men denne tilnærmingen svekket kvaliteten fordi emosjonelle og kontekstuelle nyanser gikk tapt.

Hovedpoeng

Forfatterne konkluderer med at brukere kan senke risikoen for oppdiktede svar ved å skrive mer utfyllende, mer grammatisk og mer høflig — og dermed gjøre AI-samtaler mer like vanlig menneskelig kommunikasjon. En liten vane det er verdt å ta med seg.