Danny Weber
19:35 15-03-2026
© RusPhotoBank
Studio su The Lancet Psychiatry indica un collegamento tra chatbot AI e aumento di pensieri deliranti in utenti vulnerabili. Ricercatori sollecitano studi clinici approfonditi.
Uno studio recente pubblicato su The Lancet Psychiatry indica un possibile collegamento tra l'uso di chatbot basate sull'intelligenza artificiale e un aumento dei pensieri deliranti in alcuni utenti. Secondo i ricercatori, le persone già predisposte a disturbi psicotici potrebbero essere particolarmente vulnerabili. Gli autori sollecitano studi clinici approfonditi su questi sistemi, coinvolgendo professionisti della salute mentale.
L'autore della revisione, lo psichiatra e ricercatore del King's College London Hamilton Morin, ha analizzato circa venti resoconti mediatici che descrivono casi di cosiddetta "psicosi da IA". Lo studio mirava a verificare se i chatbot possano amplificare o scatenare convinzioni deliranti. Morin ha osservato che alcuni sistemi tendono a concordare con affermazioni insolite o esagerate degli utenti, arrivando talvolta a svilupparle ulteriormente nella conversazione.
I ricercatori sottolineano che le idee deliranti possono assumere varie forme, da credenze nel proprio eccezionalismo a complessi di persecuzione o deliri romantici. I chatbot rafforzano più spesso convinzioni "grandiose", poiché i loro algoritmi sono focalizzati sul mantenere il dialogo ed evitano frequentemente di contraddire l'utente. In diversi casi descritti, i sistemi hanno utilizzato frasi criptiche, accennando a ruoli "spirituali" speciali o connessioni con entità cosmiche.
Tuttavia, gli scienziati precisano che non ci sono prove che l'intelligenza artificiale possa causare psicosi in persone senza predisposizione. Piuttosto, i sistemi interattivi potrebbero accelerare lo sviluppo di dubbi o sospetti preesistenti. In passato, le persone cercavano conferme per idee insolite in libri o video, ma ora un chatbot può sostenere tali ragionamenti quasi ininterrottamente, amplificandone potenzialmente l'effetto.