Кто заменяет врачей в канадских госпиталях уже сегодня

Фото создано искусственным интеллектом для иллюстрации
В больницах Канады у врачей появились помощники, которые вместо врача ставят диагнозы пациентам, объясняют, как им жить с болезнью, и даже способны вести больного.
Искусственный интеллект все увереннее прописывается в больницах: его используют, чтобы разгрузить врачей, ускорить рутинные процессы и - в перспективе - повысить качество помощи. Новое исследование из США добавило масла в дискуссию: специализированные языковые модели смогли довольно точно помогать с диагнозами в приемных отделениях, а в отдельных ситуациях даже обошли врачей.
Врач неотложной помощи из Онтарио Нур Хатиб, которая работает в отделениях скорой помощи Markham Stouffville и Uxbridge Hospitals (сеть Oak Valley Health), описывает первые минуты в приемном покое как настоящую диагностическую головоломку. Пациент только поступил, времени мало, данных часто недостаточно, а нужно быстро понять, что происходит, выбрать тактику и решить, можно ли безопасно отпустить человека домой.
По ее словам, многие врачи уже начали активнее пользоваться ИИ-инструментами в качестве поддержки. «Это просто еще один инструмент, который помогает нам дать пациенту максимально качественную помощь», - говорит Хатиб.
Как отмечает CBC News, в исследовании, опубликованном в четверг, ученые проверяли большие языковые модели в сценариях, максимально похожих на реальную работу приемного отделения. Задача была предельно прикладной: по доступным медицинским данным определить наиболее вероятный диагноз, то есть сделать то, что на практике постоянно приходится делать врачам и медсестрам.
Для тестов взяли «рассуждающую» модель - такую, которая умеет решать сложные задачи, последовательно выстраивая логику перед финальным ответом. Ведущий автор исследования, врач Адам Родман из Beth Israel Deaconess Medical Center в Бостоне, говорит, что подобные решения уже становятся привычной частью американских больниц. По его словам, когда эти модели «раскладывают» диагноз по шагам, их ход мыслей нередко выглядит очень похожим на клиническое рассуждение врача - и это может повышать точность.
ИИ испытали на нескольких сериях проверок: и на реальных клинических случаях, и на синтетических сценариях. Причем исследователи делали ставку на «неструктурированные» данные - фрагменты записей из отделения неотложной помощи, чтобы приблизиться к условиям, где решения часто принимаются быстро и под риском.
В работе использовали модель OpenAI o1-preview. Ее прогоняли через три ключевые точки маршрута пациента: первичный триаж, врачебный осмотр в приемном покое и момент, когда решается, куда направить человека дальше - на обычный стационарный этаж или в реанимацию. Важно: это было исследование «по данным», без контакта с пациентами; на реальные диагнозы и лечение тестирование не влияло.
На реальных случаях модель отвечала на ограниченный набор вопросов о симптомах и выдавала «наиболее вероятный» диагноз. В синтетических сценариях от нее дополнительно требовали объяснить логику и предложить дальнейшие шаги по ведению пациента.
По словам Родмана, в целом модель попадала в точный или очень близкий диагноз - и в отдельные моменты показывала результаты выше, чем врачи, участвовавшие в испытаниях, на каждом из этапов. «Это не означает, что компьютеры умеют заниматься медициной, но в рамках этой узкой задачи они могут решать вопросы диагностики лучше людей», - подчеркнул он.
Врачи в Канаде призывают не делать из этого вывод «ИИ лучше врача» - по крайней мере, если говорить о реальной практике. Терапевт и исследователь Амол Верма из больницы St. Michael’s Hospital в Торонто напоминает: диагноз почти никогда не строится только на тексте. Врач оценивает, как человек выглядит, как дышит и говорит, что показывает осмотр - и эти сигналы нередко меняют картину. По словам Вермы, он не знает ни одного врача, который бы принимал решения, опираясь исключительно на письменные записи.
Хатиб приводит пример из недавней смены: на этапе триажа все выглядело так, будто речь идет о симптомах «классического» заболевания. Но после того как она послушала грудную клетку стетоскопом, ее выводы изменились. ИИ, подчеркивает она, не может сделать ни физикальный осмотр, ни выполнить процедуры, без которых приемный покой просто не существует - например, интубацию или наложение гипса при травме.
При этом в «вспомогательных» задачах ИИ уже приносит ощутимую пользу. Хатиб участвует в пилотном проекте с так называемыми «ИИ-писарями»: с согласия пациента система расшифровывает разговор врача и пациента и помогает оформлять подробную медицинскую запись. В больницах также обсуждают ИИ для самопланирования расписаний и для чат-ботов, которые объясняют людям, что означает тот или иной диагноз и как с ним жить.
Авторы исследования признают ограничения работы и считают, что дальше нужны более надежные проверки - включая клинические испытания в реальных условиях, чтобы подтвердить и эффективность, и безопасность. Родман прямо говорит: вопрос теперь в том, как правильно выстроить взаимодействие человека и машины в неотложной помощи.
Верма настаивает, что «рассуждающие» модели нужно отдельно тестировать в канадском контексте. Его тревожит конфиденциальность медицинских данных - особенно с учетом того, что OpenAI является американской компанией, а сама модель обучалась на данных из США и опирается на опыт системы здравоохранения, где значительная часть помощи оказывается в приватизированной среде. Из-за этого результаты, по его мнению, могут не полностью переноситься на Канаду.
Хатиб же подчеркивает: любые эксперименты с ИИ в больницах должны идти только «с ограждениями» - с понятными правилами безопасности, защиты данных и корректного использования. «Мы работаем с ИИ, сначала выстраивая защитные барьеры. Мы не гонимся за заголовками об ИИ», - сказала она.



