Разное

Нельзя доверять медицинским ИИ: неверные данные при обучении приведут к критическим последствиям

Исследование, проведенное учеными из Нью-Йоркского университета, выявило потенциальные риски в использовании крупных языковых моделей (LLM) в медицинской сфере. Оказывается, что даже 0,001% ошибочной информации в обучающих данных может значительно повлиять на точность и надежность выводов искусственного интеллекта. Это открытие особенно актуально в свете всё более широкого применения искусственного интеллекта в диагностике и лечении.

Исследование проводилось с использованием базы «The Pile», содержащей значительное количество медицинской информации. Ученые внедрили в неё специально созданные ошибочные медицинские данные, что привело к увеличению количества неправильных медицинских выводов, сгенерированных моделью, даже при минимальном проценте «загрязнения».

Для демонстрации воздействия, исследователи использовали сценарии с вакцинами, где небольшое количество неправильной информации приводило к значительному увеличению ошибочных выводов модели. Это подчеркивает важность чистоты данных при обучении медицинских LLM, поскольку даже незначительные ошибки могут иметь серьезные последствия.

Результаты исследования подчеркивают необходимость разработки более продвинутых методов проверки и очистки данных перед их использованием в обучении ИИ, чтобы минимизировать риски и повысить точность медицинских приложений искусственного интеллекта.

Ранее сообщалось, что порты USB получат новые обозначения.