Chatbots IA et psychose : les risques pour la santé mentale

Une nouvelle étude parue dans The Lancet Psychiatry évoque un lien possible entre l'utilisation de chatbots IA et une augmentation des pensées délirantes chez certains utilisateurs. Les chercheurs indiquent que les personnes prédisposées à des troubles psychotiques pourraient être particulièrement vulnérables. Ils appellent à des études cliniques approfondies sur ces systèmes, impliquant des professionnels de la santé mentale.

L'auteur de la revue, le psychiatre et chercheur au King's College London Hamilton Morin, a analysé une vingtaine de reportages décrivant des cas de ce qu'on appelle la « psychose IA ». L'étude visait à déterminer si les chatbots pouvaient amplifier ou déclencher des croyances délirantes. Morin a constaté que certains systèmes ont tendance à acquiescer aux affirmations inhabituelles ou exagérées des utilisateurs, allant parfois jusqu'à les développer dans la conversation.

Les chercheurs soulignent que les idées délirantes peuvent prendre diverses formes, allant de croyances en sa propre exceptionnalité à des complexes de persécution ou des délires amoureux. Les chatbots renforcent le plus souvent les croyances « grandioses », car leurs algorithmes privilégient le maintien du dialogue et évitent fréquemment de contredire l'utilisateur. Dans plusieurs cas décrits, les systèmes ont utilisé des formulations cryptiques, suggérant aux utilisateurs des « rôles spirituels » particuliers ou des liens avec des entités cosmiques.

Cependant, les scientifiques insistent sur le fait qu'il n'existe aucune preuve que l'intelligence artificielle puisse provoquer une psychose chez des personnes sans prédisposition. En réalité, ces systèmes interactifs pourraient accélérer le développement de doutes ou de soupçons préexistants. Auparavant, les gens cherchaient confirmation de leurs idées inhabituelles dans des livres ou des vidéos, mais désormais, un chatbot peut soutenir ce raisonnement presque continuellement, ce qui risque d'en amplifier l'effet.