Можно ли доверять ИИ, когда вы заболели?
Чат-боты на базе больших языковых моделей все чаще используют как быстрый способ “разобраться с симптомами”: что это может быть и насколько срочно нужно действовать. Проблема в том, что медицинская безопасность определяется не красивыми объяснениями, а тем, помогает ли инструмент принять правильное решение — особенно в ситуациях, где промедление опасно.
Участникам (около 1 300 человек) предложили 10 типовых клинических сценариев разной тяжести. Нужно было:
Результат: группа, использовавшая чат-боты, не показала заметного преимущества по сравнению с контрольной группой, которая пользовалась привычными источниками.
Человек пишет: «Сильная слабость и дурнота, скорее всего недосып и стресс. Можно ли просто отлежаться?»
Такая формулировка заранее “объясняет” ситуацию и подталкивает к успокаивающему сценарию. Если при этом не указаны критичные детали (внезапность, нарушение речи, одышка, боль в груди, обморок и т. п.), чат-бот с высокой вероятностью ответит в логике “самонаблюдения”.
Проблема не в том, что ИИ “ничего не знает”, а в том, что на вход подан неполный или заранее смещенный рассказ.
Исследователи использовали 60 клинических сценариев из 21 области медицины и прогнали их в разных контекстных вариантах (в сумме около тысячи ответов). Затем рекомендации сравнили с врачебным “золотым стандартом”.
Ключевой вывод можно описать так: система лучше справлялась со “средними” по срочности ситуациями, но чаще ошибалась на крайностях, где цена ошибки максимальна.
Дополнительно исследователи зафиксировали две практические уязвимости:
Человек описывает симптомы и добавляет: «Родные говорят, что я накручиваю себя».
Это не медицинский аргумент, но в реальной коммуникации такая фраза часто работает как якорь: диалог становится более успокаивающим, а рекомендация — менее срочной. С точки зрения безопасности это плохой механизм: социальное “обесценивание” симптомов не должно снижать настороженность, если есть признаки реального риска.
Где чат-бот обычно уместен:
Где полагаться на чат-бота рискованно:
Практическое правило: если есть сомнения, выбирайте более осторожную тактику. Цена излишней осторожности обычно ниже, чем цена промедления при реально опасной ситуации.
В феврале 2026 года в Nature Medicine вышли два исследования, которые подошли к вопросу с разных сторон. В сумме они дают понятный вывод: у ИИ могут быть правильные знания, но в реальном использовании это не гарантирует безопасных рекомендаций, прежде всего в оценке срочности.
1. Исследование №1: почему “диалог с человеком” может быть слабым звеном
В первом исследовании проверяли простую гипотезу: если дать людям доступ к чат-боту, станут ли они лучше принимать решения о здоровье, чем при обычном поиске и чтении официальных материалов.
Участникам (около 1 300 человек) предложили 10 типовых клинических сценариев разной тяжести. Нужно было:
- назвать вероятные причины,
- выбрать тактику: можно ли наблюдать дома, стоит ли записаться к врачу, нужна ли экстренная помощь.
Важная деталь: когда те же сценарии “скармливали” моделям напрямую (без участия человека), ответы выглядели значительно лучше. Это указывает на практическую проблему: качество рекомендации сильно зависит от того, как пользователь описал симптомы и как понял ответ.
Бытовой пример (как возникает ошибка)
Человек пишет: «Сильная слабость и дурнота, скорее всего недосып и стресс. Можно ли просто отлежаться?»
Такая формулировка заранее “объясняет” ситуацию и подталкивает к успокаивающему сценарию. Если при этом не указаны критичные детали (внезапность, нарушение речи, одышка, боль в груди, обморок и т. п.), чат-бот с высокой вероятностью ответит в логике “самонаблюдения”.
Проблема не в том, что ИИ “ничего не знает”, а в том, что на вход подан неполный или заранее смещенный рассказ.
2. Исследование №2: системные ошибки в оценке срочности (на примере ChatGPT Health)
Во втором исследовании оценивали специализированный инструмент ChatGPT Health как систему, которая должна помогать с медицинским “самотриажем” — то есть с выбором срочности обращения за помощью.
Исследователи использовали 60 клинических сценариев из 21 области медицины и прогнали их в разных контекстных вариантах (в сумме около тысячи ответов). Затем рекомендации сравнили с врачебным “золотым стандартом”.
Ключевой вывод можно описать так: система лучше справлялась со “средними” по срочности ситуациями, но чаще ошибалась на крайностях, где цена ошибки максимальна.
- В относительно безопасных случаях нередко возникала “перестраховка” — рекомендация обращаться срочнее, чем нужно (это может повышать тревогу и перегружать службы помощи).
- В опасных случаях встречалась противоположная ошибка — недооценка срочности, когда при потенциально угрожающем состоянии предлагается “понаблюдать” или обратиться позже.
- Внушаемость контекстом: если в описании звучит, что окружающие считают симптомы “ерундой”, система чаще смещает рекомендацию в сторону меньшей срочности.
- Непредсказуемая реакция на кризисные обращения (в том числе связанные с суицидальными мыслями): поведение системы было нестабильным, что делает эту область особенно рискованной для опоры на чат-бота.
Бытовой пример (как “мнение близких” смещает ответ)
Человек описывает симптомы и добавляет: «Родные говорят, что я накручиваю себя».
Это не медицинский аргумент, но в реальной коммуникации такая фраза часто работает как якорь: диалог становится более успокаивающим, а рекомендация — менее срочной. С точки зрения безопасности это плохой механизм: социальное “обесценивание” симптомов не должно снижать настороженность, если есть признаки реального риска.
Почему “похоже на правду” не равно “безопасно”
Даже если чат-бот правильно перечисляет возможные причины, критическое значение имеет другое: не пропустить момент, когда нужно действовать срочно. В реальной жизни есть ограничения, которые текстом не компенсируются:
- чат-бот не измеряет давление, сатурацию, температуру, пульс,
- не проводит осмотр,
- не видит внешних признаков,
- а качество результата зависит от полноты и точности того, что написал человек.
Два исследования показывают: именно здесь и возникают системные риски — от “ложного успокоения” до “лишней тревоги”.
Как использовать чат-боты с пользой (и без самообмана)
Где чат-бот обычно уместен:
- Понять термины и смысл назначений “в общих чертах”.
- Подготовиться к визиту: структурировать жалобы, составить список вопросов.
- Вспомнить, какие сведения важно сообщить врачу: время начала симптомов, динамика, хронические болезни, лекарства, аллергии, беременность.
- Когда вы решаете вопрос срочности (ждать или обращаться сейчас).
- При симптомах, которые могут быть признаком опасного состояния: внезапная сильная боль (особенно в груди), выраженная одышка, нарушение речи/движений, потеря сознания, быстрое ухудшение состояния, кровотечения.
- При психическом кризисе и суицидальных мыслях — здесь нужна помощь людей и профильных служб, а не текстовый диалог.



