Хто замінює лікарів у канадських госпіталях уже сьогодні

Фото створено штучним інтелектом для ілюстрації
У лікарнях Канади у лікарів з’явилися помічники, які замість лікаря ставлять діагнози пацієнтам, пояснюють, як їм жити з хворобою, і навіть здатні вести хворого.
Штучний інтелект усе впевненіше прописується в лікарнях: його використовують, щоб розвантажити лікарів, прискорити рутинні процеси й — у перспективі — підвищити якість допомоги. Нове дослідження зі США підлило олії в дискусію: спеціалізовані мовні моделі змогли доволі точно допомагати з діагнозами у приймальних відділеннях, а в окремих ситуаціях навіть обійшли лікарів.
Лікарка невідкладної допомоги з Онтаріо Нур Хатіб, яка працює у відділеннях швидкої допомоги лікарень Markham Stouffville та Uxbridge Hospitals (мережа Oak Valley Health), описує перші хвилини в приймальному покої як справжню діагностичну головоломку. Пацієнт щойно поступив, часу мало, даних часто недостатньо, а потрібно швидко зрозуміти, що відбувається, обрати тактику й вирішити, чи можна безпечно відпустити людину додому.
За її словами, багато лікарів уже почали активніше користуватися інструментами ШІ як підтримкою. «Це просто ще один інструмент, який допомагає нам надати пацієнту максимально якісну допомогу», — каже Хатіб.
Як зазначає CBC News, у дослідженні, опублікованому в четвер, науковці перевіряли великі мовні моделі у сценаріях, максимально схожих на реальну роботу приймального відділення. Завдання було максимально прикладним: за доступними медичними даними визначити найімовірніший діагноз, тобто зробити те, що на практиці постійно доводиться робити лікарям і медсестрам.
Для тестів взяли «міркувальну» модель — таку, що вміє розв’язувати складні завдання, послідовно вибудовуючи логіку перед фінальною відповіддю. Провідний автор дослідження, лікар Адам Родман з Beth Israel Deaconess Medical Center у Бостоні, каже, що подібні рішення вже стають звичною частиною американських лікарень. За його словами, коли ці моделі «розкладають» діагноз по кроках, їхній хід думок нерідко виглядає дуже схожим на клінічне міркування лікаря — і це може підвищувати точність.
ШІ випробували на кількох серіях перевірок: і на реальних клінічних випадках, і на синтетичних сценаріях. Причому дослідники робили ставку на «неструктуровані» дані — фрагменти записів із відділення невідкладної допомоги, щоб наблизитися до умов, де рішення часто ухвалюються швидко і під ризиком.
У роботі використовували модель OpenAI o1-preview. Її проганяли через три ключові точки маршруту пацієнта: первинний тріаж, лікарський огляд у приймальному відділенні та момент, коли вирішується, куди направити людину далі — на звичайний стаціонарний поверх або в реанімацію. Важливо: це було дослідження «за даними», без контакту з пацієнтами; на реальні діагнози та лікування тестування не впливало.
На реальних випадках модель відповідала на обмежений набір запитань про симптоми та видавала «найімовірніший» діагноз. У синтетичних сценаріях від неї додатково вимагали пояснити логіку та запропонувати подальші кроки з ведення пацієнта.
За словами Родмана, загалом модель потрапляла в точний або дуже близький діагноз — і в окремі моменти показувала результати вищі, ніж лікарі, які брали участь у випробуваннях, на кожному з етапів. «Це не означає, що комп’ютери вміють займатися медициною, але в межах цього вузького завдання вони можуть вирішувати питання діагностики краще за людей», — підкреслив він.
Лікарі в Канаді закликають не робити з цього висновок «ШІ кращий за лікаря» — принаймні, якщо говорити про реальну практику. Терапевт і дослідник Амол Верма з лікарні St. Michael’s Hospital у Торонто нагадує: діагноз майже ніколи не будується лише на тексті. Лікар оцінює, як людина виглядає, як дихає і говорить, що показує огляд — і ці сигнали нерідко змінюють картину. За словами Верми, він не знає жодного лікаря, який би ухвалював рішення, спираючись виключно на письмові записи.
Хатіб наводить приклад із нещодавньої зміни: на етапі тріажу все виглядало так, ніби йдеться про симптоми «класичного» захворювання. Але після того як вона послухала грудну клітку стетоскопом, її висновки змінилися. ШІ, підкреслює вона, не може зробити ані фізикальний огляд, ані виконати процедури, без яких приймальне відділення просто не існує - наприклад, інтубацію або накладання гіпсу при травмі.
При цьому в «допоміжних» завданнях ШІ вже приносить відчутну користь. Хатіб бере участь у пілотному проєкті з так званими «ШІ-писарями»: за згодою пацієнта система розшифровує розмову лікаря і пацієнта та допомагає оформлювати детальний медичний запис. У лікарнях також обговорюють ШІ для самопланування розкладів і для чат-ботів, які пояснюють людям, що означає той чи інший діагноз і як із ним жити.
Автори дослідження визнають обмеження роботи й вважають, що надалі потрібні більш надійні перевірки — зокрема клінічні випробування в реальних умовах, щоб підтвердити і ефективність, і безпеку. Родман прямо говорить: питання тепер у тому, як правильно вибудувати взаємодію людини й машини в невідкладній допомозі.
Верма наполягає, що «міркувальні» моделі потрібно окремо тестувати в канадському контексті. Його непокоїть конфіденційність медичних даних — особливо з огляду на те, що OpenAI є американською компанією, а сама модель навчалася на даних із США та спирається на досвід системи охорони здоров’я, де значна частина допомоги надається в приватизованому середовищі. Через це результати, на його думку, можуть не повністю переноситися на Канаду.
Хатіб же підкреслює: будь-які експерименти з ШІ в лікарнях мають відбуватися лише «з огорожами» — із зрозумілими правилами безпеки, захисту даних і коректного використання. «Ми працюємо з ШІ, спочатку вибудовуючи захисні бар’єри. Ми не женемося за заголовками про ШІ», — сказала вона.



