Роботы не будут нас порабощать: мужчина обратился за помощью к ChatGPT и попал в больницу

Борис Наумкин

16 августа 2025 11:42:31

Фото: © RusPhotoBank

60-летний житель Нью-Йорка отравился, следуя совету ChatGPT заменить соль на бромид натрия, и попал в больницу.

В США произошёл тревожный случай, показавший опасность бездумного использования ИИ в вопросах здоровья. 60-летний мужчина из Нью-Йорка попал в больницу после того, как решил следовать совету ChatGPT относительно диеты. Он спросил у чат-бота, чем можно заменить обычную поваренную соль, и получил рекомендацию использовать бромид натрия. Мужчина в течение трёх месяцев добавлял его в пищу, считая безопасной альтернативой.

В результате у него развилось редкое отравление — бромизм. Состояние сопровождалось бессонницей, паранойей, психозом и тяжёлыми физическими симптомами. Мужчина даже начал подозревать соседей в попытке его отравить. Врачи диагностировали у пациента отравление бромидами, после прекращения приёма вещества и курса лечения его состояние стало улучшаться.

Случай, опубликованный в журнале Annals of Internal Medicine, вызвал серьёзную обеспокоенность среди медиков. Эксперты подчёркивают, что ИИ не может заменить врача, а его советы иногда оказываются не только ошибочными, но и опасными для жизни.

История показывает, что использование искусственного интеллекта должно сопровождаться предельной осторожностью. Особенно в сферах, связанных со здоровьем, где цена ошибки может быть слишком высока. Медики призывают не полагаться на чат-ботов в вопросах терапии и питания, а ИИ-разработчиков — внедрять более строгие механизмы защиты при ответах на чувствительные запросы.

Ранее изданеи Пепелац Ньбюс сообщало, что обновление для Android Auto сломало сервис.

Эта страница может использовать файлы cookie в аналитических целях.