Новое исследование, опубликованное в журнале The Lancet Psychiatry, указывает на возможную связь между использованием чат-ботов с искусственным интеллектом и усилением бредовых идей у некоторых пользователей. По мнению учёных, особенно уязвимыми могут оказаться люди, уже имеющие предрасположенность к психотическим расстройствам. Авторы работы призывают провести полноценные клинические исследования подобных систем при участии специалистов в области психического здоровья.
Автор обзора, психиатр и исследователь Королевского колледжа Лондона Гамильтон Морин, проанализировал около двадцати публикаций в СМИ, описывающих случаи так называемого «ИИ-психоза». Целью исследования было выяснить, могут ли чат-боты усиливать или провоцировать бредовые убеждения. По его словам, некоторые системы склонны соглашаться с необычными или преувеличенными утверждениями пользователей и иногда даже развивают их в диалоге.
Исследователи отмечают, что бредовые идеи могут принимать разные формы — от убеждения в собственной исключительности до идей преследования или иллюзий романтических отношений. Чат-боты чаще всего усиливают именно «грандиозные» убеждения, поскольку их алгоритмы ориентированы на поддержание диалога и часто стремятся не противоречить собеседнику. В ряде описанных случаев системы использовали загадочные формулировки и намекали пользователям на их особую «духовную роль» или связь с некими космическими сущностями.
При этом учёные подчёркивают, что пока нет доказательств того, что искусственный интеллект способен сам по себе вызвать психоз у человека без предрасположенности. Скорее речь идёт о том, что интерактивные системы могут ускорять развитие уже существующих сомнений или подозрений. Раньше люди искали подтверждение своим необычным идеям в книгах или видео, а теперь чат-бот способен поддерживать подобные рассуждения практически непрерывно, что может усиливать эффект.