Danny Weber
17:08 18-10-2025
© RusPhotoBank
Uno studio rivela che prompt brevi e poco chiari favoriscono le allucinazioni dell’IA nei chatbot. Scopri perché accade e come scrivere richieste efficaci.
Un nuovo studio suggerisce che spesso sono gli stessi utenti a innescare le cosiddette allucinazioni dell’IA. Pubblicato il 3 ottobre su arXiv, il lavoro arriva alla conclusione che la formulazione del prompt incide direttamente sulla comparsa di fatti, citazioni o fonti inventati nelle risposte dei sistemi.
Gli autori hanno analizzato oltre 13.000 dialoghi tra persone e più di 1.300 interazioni tra umani e chatbot. Quando si rivolgono a un sistema di intelligenza artificiale, le persone cambiano registro: scrivono più in breve, con grammatica più fragile, in modo più brusco e con un lessico più limitato. La sostanza può rimanere intatta, ma lo stile cambia in modo netto, un vero spostamento di stile secondo gli studiosi.
Questo scarto diventa un problema perché i grandi modelli linguistici sono addestrati su testi curati, cortesi e ben formati. Di conseguenza, parole tagliate con l’accetta o poco accorte si prestano ad ambiguità e spingono il sistema a colmare i vuoti inventando. Un copione fin troppo familiare a chi dialoga con i bot: basta una sfumatura nel tono o nella chiarezza per inclinare l’esito.
Il team ha testato diverse contromisure. Ampliare l’addestramento a una gamma più ampia di stili espressivi aumenta la precisione con cui il modello coglie l’intento dell’utente del 3%. È stata provata anche la parafrasi automatica dei prompt, ma in questo caso la qualità è peggiorata perché si perdevano sfumature emotive e di contesto.
Gli autori concludono che gli utenti possono ridurre il rischio di risposte inventate scrivendo prompt più completi, grammaticalmente curati e più cortesi, avvicinando così le chat con l’IA a una conversazione tra persone. Un’abitudine semplice, e tutto sommato vantaggiosa.