Можно ли доверять ИИ, когда вы заболели?

Чат-боты на базе больших языковых моделей все чаще используют как быстрый способ “разобраться с симптомами”: что это может быть и насколько срочно нужно действовать. Проблема в том, что медицинская безопасность определяется не красивыми объяснениями, а тем, помогает ли инструмент принять правильное решение — особенно в ситуациях, где промедление опасно. 

В феврале 2026 года в Nature Medicine вышли два исследования, которые подошли к вопросу с разных сторон. В сумме они дают понятный вывод: у ИИ могут быть правильные знания, но в реальном использовании это не гарантирует безопасных рекомендаций, прежде всего в оценке срочности.


1. Исследование №1: почему “диалог с человеком” может быть слабым звеном


В первом исследовании проверяли простую гипотезу: если дать людям доступ к чат-боту, станут ли они лучше принимать решения о здоровье, чем при обычном поиске и чтении официальных материалов.

Участникам (около 1 300 человек) предложили 10 типовых клинических сценариев разной тяжести. Нужно было:

  • назвать вероятные причины,
  • выбрать тактику: можно ли наблюдать дома, стоит ли записаться к врачу, нужна ли экстренная помощь.

Результат: группа, использовавшая чат-боты, не показала заметного преимущества по сравнению с контрольной группой, которая пользовалась привычными источниками.

Важная деталь: когда те же сценарии “скармливали” моделям напрямую (без участия человека), ответы выглядели значительно лучше. Это указывает на практическую проблему: качество рекомендации сильно зависит от того, как пользователь описал симптомы и как понял ответ.

Бытовой пример (как возникает ошибка)


Человек пишет: «Сильная слабость и дурнота, скорее всего недосып и стресс. Можно ли просто отлежаться?»
Такая формулировка заранее “объясняет” ситуацию и подталкивает к успокаивающему сценарию. Если при этом не указаны критичные детали (внезапность, нарушение речи, одышка, боль в груди, обморок и т. п.), чат-бот с высокой вероятностью ответит в логике “самонаблюдения”.
Проблема не в том, что ИИ “ничего не знает”, а в том, что на вход подан неполный или заранее смещенный рассказ.


2. Исследование №2: системные ошибки в оценке срочности (на примере ChatGPT Health)


Во втором исследовании оценивали специализированный инструмент ChatGPT Health как систему, которая должна помогать с медицинским “самотриажем” — то есть с выбором срочности обращения за помощью.

Исследователи использовали 60 клинических сценариев из 21 области медицины и прогнали их в разных контекстных вариантах (в сумме около тысячи ответов). Затем рекомендации сравнили с врачебным “золотым стандартом”.

Ключевой вывод можно описать так: система лучше справлялась со “средними” по срочности ситуациями, но чаще ошибалась на крайностях, где цена ошибки максимальна.

  1. В относительно безопасных случаях нередко возникала “перестраховка” — рекомендация обращаться срочнее, чем нужно (это может повышать тревогу и перегружать службы помощи).
  2. В опасных случаях встречалась противоположная ошибка — недооценка срочности, когда при потенциально угрожающем состоянии предлагается “понаблюдать” или обратиться позже.

Дополнительно исследователи зафиксировали две практические уязвимости: 

  • Внушаемость контекстом: если в описании звучит, что окружающие считают симптомы “ерундой”, система чаще смещает рекомендацию в сторону меньшей срочности.
  • Непредсказуемая реакция на кризисные обращения (в том числе связанные с суицидальными мыслями): поведение системы было нестабильным, что делает эту область особенно рискованной для опоры на чат-бота.

Бытовой пример (как “мнение близких” смещает ответ)


Человек описывает симптомы и добавляет: «Родные говорят, что я накручиваю себя».
Это не медицинский аргумент, но в реальной коммуникации такая фраза часто работает как якорь: диалог становится более успокаивающим, а рекомендация — менее срочной. С точки зрения безопасности это плохой механизм: социальное “обесценивание” симптомов не должно снижать настороженность, если есть признаки реального риска.


Почему “похоже на правду” не равно “безопасно”


Даже если чат-бот правильно перечисляет возможные причины, критическое значение имеет другое: не пропустить момент, когда нужно действовать срочно. В реальной жизни есть ограничения, которые текстом не компенсируются:

  • чат-бот не измеряет давление, сатурацию, температуру, пульс,
  • не проводит осмотр,
  • не видит внешних признаков,
  • а качество результата зависит от полноты и точности того, что написал человек.

Два исследования показывают: именно здесь и возникают системные риски — от “ложного успокоения” до “лишней тревоги”.


Как использовать чат-боты с пользой (и без самообмана)


Где чат-бот обычно уместен:


Где полагаться на чат-бота рискованно:

  1. Когда вы решаете вопрос срочности (ждать или обращаться сейчас).
  2. При симптомах, которые могут быть признаком опасного состояния: внезапная сильная боль (особенно в груди), выраженная одышка, нарушение речи/движений, потеря сознания, быстрое ухудшение состояния, кровотечения.
  3. При психическом кризисе и суицидальных мыслях — здесь нужна помощь людей и профильных служб, а не текстовый диалог.

Практическое правило: если есть сомнения, выбирайте более осторожную тактику. Цена излишней осторожности обычно ниже, чем цена промедления при реально опасной ситуации.
ВЕРНУТЬСЯ К СПИСКУ СТАТЕЙ
ИЗМЕНЕНО: 13.05.2026 ПРОСМОТРЕЛИ: 0