Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации

Регион
10 февраля, 11:35

ИИ лечит хуже Google: Чат-боты массово ошибаются в медицинских советах

Исследование: Советы по здоровью от ИИ-чат-ботов часто оказываются неверными

Обложка © Shutterstock / FOTODOM / Zapp2Photo

Обложка © Shutterstock / FOTODOM / Zapp2Photo

Советы по здоровью, которые пользователи получают от ИИ-ботов, часто оказываются ошибочными. К такому выводу пришли авторы нового исследования, опубликованного в журнале Nature Medicine.

Учёные выяснили, что популярные чатботы не превосходят обычный поиск в Google при постановке предварительных диагнозов и выборе дальнейших действий — например, стоит ли вызывать скорую помощь или можно лечиться дома. Более того, модели иногда давали противоречивые или заведомо неверные рекомендации.

В эксперименте приняли участие более 1,2 тысячи жителей Великобритании без медицинского образования. Им предлагали описанные клинические сценарии с симптомами и историей болезни, после чего участники должны были с помощью чатботов определить правильную тактику действий. Верное решение было выбрано менее чем в половине случаев, а точный диагноз — примерно в 34% ситуаций.

Авторы отмечают, что одной из ключевых проблем стала формулировка запросов. Пользователи часто не указывали важные симптомы или детали, из-за чего ИИ делал выводы на основе неполной информации. При этом даже небольшие изменения в описании одних и тех же симптомов могли кардинально изменить совет — от рекомендации «отдохнуть дома» до срочного обращения в больницу.

Исследователи подчёркивают, что ни один из протестированных ИИ-чатботов пока не готов к использованию в прямом взаимодействии с пациентами. По их мнению, ответственность не должна полностью лежать на пользователях: системы должны сами уточнять данные и задавать наводящие вопросы, как это делают врачи.

Компании-разработчики признают проблему и заявляют, что новые версии моделей стали чаще запрашивать дополнительную информацию и реже ошибаться в экстренных ситуациях. Однако авторы исследования предупреждают: использовать ИИ как замену врачу по-прежнему опасно.

Ранее сообщалось, что во время отдыха на Бали россиянка заразилась крысиным тифом после контакта с грызуном на вилле. Местные врачи не смогли поставить верный диагноз, предположив лихорадку денге. Никакое лечение не помогало. Тогда женщина загрузила свои анализы в ChatGPT. Искусственный интеллект предположил крысиный тиф и рекомендовал курс антибиотиков. После этого лечения её состояние улучшилось уже через четыре дня.

Больше самых важных новостей России и мира — в разделе «Главные новости» на Life.ru.

BannerImage
Подписаться на LIFE
  • yanews
  • yadzen
  • Google Новости
  • vk
  • ok
Комментарий
0
avatar