Новое исследование показало: причиной «галлюцинаций» искусственного интеллекта зачастую становятся сами пользователи. Работа, опубликованная 3 октября на arXiv.org под названием «Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions», выявила, что стиль запросов напрямую влияет на появление вымышленных фактов, цитат или источников в ответах ИИ.
Учёные проанализировали более 13 тысяч диалогов между людьми и свыше 1 300 взаимодействий человека с чат-ботами. Выяснилось, что общаясь с искусственным интеллектом, пользователи пишут иначе: короче, менее грамотно, грубее и с ограниченным словарным запасом. Хотя передаваемая информация по сути та же, стиль общения отличается резко, и это исследователи назвали «сдвигом стиля».
Такое несоответствие становится проблемой, потому что большие языковые модели обучены на вежливых, грамматически правильных текстах. В результате резкие или небрежные формулировки могут восприниматься системой двусмысленно и приводить к «галлюцинациям» — придумыванию данных.
Учёные рассмотрели возможные решения. Одно из них — обучение моделей на более широком диапазоне стилей речи, что увеличивает точность понимания намерений пользователя на 3%. Другая идея — автоматическое перефразирование запросов, но этот метод снизил качество, так как терялись эмоциональные и контекстные нюансы.
Главный вывод исследования: пользователи сами могут снизить риск выдуманных ответов, если будут формулировать запросы полнее, грамотнее и вежливее, приближая стиль общения с ИИ к обычному человеческому диалогу.
Ранее издание Пепелац Ньюс соощало, что был открыт приём предзаказов на «тупофон» Sidephone SP-01.