В США произошёл тревожный случай, показавший опасность бездумного использования ИИ в вопросах здоровья. 60-летний мужчина из Нью-Йорка попал в больницу после того, как решил следовать совету ChatGPT относительно диеты. Он спросил у чат-бота, чем можно заменить обычную поваренную соль, и получил рекомендацию использовать бромид натрия. Мужчина в течение трёх месяцев добавлял его в пищу, считая безопасной альтернативой.
В результате у него развилось редкое отравление — бромизм. Состояние сопровождалось бессонницей, паранойей, психозом и тяжёлыми физическими симптомами. Мужчина даже начал подозревать соседей в попытке его отравить. Врачи диагностировали у пациента отравление бромидами, после прекращения приёма вещества и курса лечения его состояние стало улучшаться.
Случай, опубликованный в журнале Annals of Internal Medicine, вызвал серьёзную обеспокоенность среди медиков. Эксперты подчёркивают, что ИИ не может заменить врача, а его советы иногда оказываются не только ошибочными, но и опасными для жизни.
История показывает, что использование искусственного интеллекта должно сопровождаться предельной осторожностью. Особенно в сферах, связанных со здоровьем, где цена ошибки может быть слишком высока. Медики призывают не полагаться на чат-ботов в вопросах терапии и питания, а ИИ-разработчиков — внедрять более строгие механизмы защиты при ответах на чувствительные запросы.
Ранее изданеи Пепелац Ньбюс сообщало, что обновление для Android Auto сломало сервис.