Wired: доктор ChatGPT готов принять вас прямо сейчас

Автор: Райан Флинн

Пациенты и врачи всё чаще обращаются к искусственному интеллекту за диагностикой и рекомендациями по лечению. Во многих случаях это даёт блестящие результаты — но сложности возникают, когда мнения специалистов и алгоритмов расходятся.

Один из пользователей Reddit пять лет страдал от болезненного щелчка в челюсти — последствие травмы, полученной на тренировках по боксу. Он обращался к специалистам, делал МРТ, но ни один из врачей не предложил решения. Всё изменилось, когда он описал симптомы ChatGPT. Чат-бот предположил, что причина может заключаться в смещении положения челюсти, и посоветовал метод коррекции с участием языка. Попробовав его, пользователь избавился от симптома. «После пяти лет жизни с этим, — написал он в апреле, — этот ИИ помог мне решить проблему за минуту».

Эта история стала вирусной. Соучредитель LinkedIn Рид Хоффман поделился ею в своей ленте X. Подобные случаи множатся: социальные сети наполнены рассказами о пациентах, получающих от ИИ точные трактовки рентгеновских снимков, МРТ или диагнозов, которые ранее оставались неясными.

У сына Кортни Хоффманн диагностировали редкое неврологическое заболевание. За три года он прошёл 17 визитов к врачам, но диагноз так и не был установлен. Тогда она собрала все медицинские документы, снимки и записи и передала их ChatGPT. Модель предположила синдром фиксированного спинного мозга — состояние, при котором спинной мозг закреплён тканями и не может свободно двигаться. По словам Кортни, врачи не распознали это заболевание. Через шесть недель после обращения к ИИ ребёнку сделали операцию, и, по её словам, он стал «совершенно другим». Историю она рассказала в подкасте New England Journal of Medicine в ноябре 2024 года.

Потребительские ИИ-инструменты меняют то, как люди получают медицинскую помощь — как в диагностике, так и в интерпретации симптомов. Эпоха «Доктора Google» уступает место эре «Доктора ChatGPT». Медицинские школы, профессиональные сообщества, пациенты и разработчики спешат адаптироваться: нужно понять, насколько точны эти ответы, как ими правильно пользоваться и как минимизировать вред от дезинформации.

«Я абсолютно уверен, что это улучшит медицинское обслуживание», — говорит Адам Родман, преподаватель Гарвардской медицинской школы и практикующий врач. — «Можно представить множество сценариев, где взаимодействие с ИИ будет основано на медицинских данных самих пациентов».

Родман уже сталкивался с ИИ-чатботами в повседневной практике. Во время недавнего дежурства в больнице одна пациентка, устав от ожидания, загрузила в ChatGPT скриншот своей электронной медицинской карты. «Она сказала: “Я уже спрашивала ChatGPT”», — вспоминает он. ИИ правильно определил её состояние — заболевание крови.

Эпизод не смутил Родмана. Он входит в группу, курирующую внедрение генеративного ИИ в учебную программу Гарвардской медицинской школы. Он считает, что ИИ может не только расширить знания врачей, но и улучшить диалог между ними и пациентами. «Я воспринимаю это как дополнительную возможность поговорить с пациентом о том, что его волнует», — объясняет он.

Но ключевое слово здесь — потенциал. Хотя исследования показывают, что ИИ способен ставить точные диагнозы, на практике — особенно когда ИИ попадает в руки неспециалистов — результаты становятся менее предсказуемыми. Пациенты могут не указать важные симптомы или игнорировать корректные рекомендации. В одном исследовании врачам дали набор историй болезни. Одной группе предоставили доступ к ИИ-помощнику, другой — нет. Диагностические результаты двух групп были схожи: 76% против 74%. Однако сам ИИ, действуя автономно, показал точность 92%.

Родман, принимавший участие в исследовании, отмечает, что в 2023 году, когда оно проводилось, многие врачи слабо представляли, как работать с ИИ. Но даже учитывая это, исследование выявило другую закономерность: врачи склонны соглашаться с ИИ, когда он подтверждает их мнение, и игнорировать его, когда он с ним не согласен. «Они не доверяли модели, когда она говорила, что они ошибаются», — поясняет он.

Родман вспоминает случай, когда ИИ указал на редкое заболевание, которое он сам и его коллеги изначально не распознали. Он передал системе все известные данные о пациенте, и первой гипотезой оказалась именно та редкая болезнь, которую позже подтвердили. ИИ также упомянул более распространённое заболевание — то, которое специалисты поначалу ошибочно выбрали.

В другом препринт-исследовании с участием более 1200 человек ИИ самостоятельно ставил верный диагноз в 95% случаев. Но когда те же инструменты использовали люди, точность резко падала: только треть пациентов получала корректный результат.

Например, при жалобах на внезапную головную боль и скованность в шее, правильным действием было бы немедленно обратиться за медицинской помощью — возможно, это признаки менингита или внутричерепного кровоизлияния. Но если пользователь не указывает на внезапность симптомов, ИИ может порекомендовать просто выпить обезболивающее и полежать в тёмной комнате. Исследование показало, что точность модели напрямую зависела от полноты вводных данных.

Проблема, по словам профессора Алана Форстера из Университета Макгилла, в том, что ИИ излагает свои ответы как абсолютно достоверные — даже если они ошибочны. В отличие от поиска в интернете, где пользователь видит список ссылок, чат-боты выдают связный, логически выстроенный текст. «Когда информация подана как гладкий, уверенный текст, она выглядит более авторитетной», — говорит он.

Однако дело не только в форме подачи. Врач-репродуктолог Джейми Кнопман подчёркивает: даже когда пациенты приносят информацию от ChatGPT, она не всегда ложная, но может быть неактуальной или недостаточной. «LLM не учитывает многие нюансы», — объясняет она.

Например, в вопросах ЭКО пациент может запросить рекомендации на основе оценки эмбрионов. Но, как подчёркивает Кнопман, это лишь часть картины. Не менее важны: когда проводилась биопсия, состояние эндометрия, история предыдущих попыток зачатия. «Я работала с тысячами женщин — это даёт мне клиническое чутьё, которое ИИ пока не имеет».

Она добавляет, что пациенты всё чаще приходят с уже сформированным мнением о том, как должен проходить перенос эмбриона — на основе того, что им “сказал” ИИ. Но даже если это общепринятая практика, она может быть не лучшей именно для этого пациента. «В медицине есть не только наука, но и искусство: умение выбрать подходящий подход», — говорит она.

Некоторые компании уже пытаются решить проблему доверия и качества. 12 мая 2025 года OpenAI объявила о запуске HealthBench — платформы для оценки медицинской точности ответов ИИ. Она была разработана при участии 260 врачей из 60 стран и включает 5000 смоделированных диалогов между пациентами и ИИ. Новые версии модели, такие как GPT-4.1, по оценке компании, уже сопоставимы с ответами врачей — а иногда даже их превосходят.

«Результаты показывают, что языковые модели значительно улучшились и уже могут опережать экспертов при решении тестовых задач», — говорится в заявлении OpenAI. — «Тем не менее, даже лучшие модели по-прежнему нуждаются в доработке, особенно в ситуациях с неполными вводными и в сценариях повышенного риска».

Параллельно Microsoft развивает собственную систему — MAI Diagnostic Orchestrator (MAI-DxO). По заявлениям компании, она ставит диагноз в четыре раза точнее, чем врачи. Система опирается сразу на несколько ИИ-моделей — GPT, Gemini, Claude, LLaMA и Grok — моделируя работу врачебного консилиума.

Как отмечает Бернард С. Чанг, декан Гарвардской медицинской школы, врачам нового поколения предстоит не только использовать ИИ, но и уметь грамотно обсуждать его выводы с пациентами. Именно поэтому в университете уже введены курсы по ИИ. «Это одно из самых захватывающих событий в медицинском образовании», — говорит он.

Чанг сравнивает нынешнюю ситуацию с тем, как пациенты 20 лет назад начали пользоваться интернетом для самодиагностики. «Тогда они спрашивали: “Вы же не из тех врачей, кто ищет ответы в Google?”» — вспоминает он. — «Но теперь я бы ответил: “Вы бы точно не захотели идти к врачу, который им не пользуется”». То же самое, по его словам, скоро скажут и об ИИ.

Оригинал: Wired

Похожие Записи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Последние <span>истории</span>

Поиск описаний функциональности, введя ключевое слово и нажмите enter, чтобы начать поиск.