ИИ не придет за врачами. Он уже в комнате

Фото-иллюстрация TIME (Источник: Thanasis/Getty Images, Pakin Songmor—Getty Images)

По мере того, как больницы обращаются к искусственному интеллекту, пациенты могут больше не знать, кто или что принимает их медицинские решения. Как врачи скорой помощи, мы видим, как руководство ИИ меняет представление о том, что значит прийти в отделение неотложной помощи.

Это не политическая история. Это культурный вопрос: о том, что значит верить в своего врача, когда «доктором» может быть алгоритм. Согласно недавнему журналу Journal of American College of Emergency Physicians Primer, приложения ИИ в отделениях неотложной помощи уже используются для сортировки, прогнозирования рисков и моделей укомплектования персоналом — планов, которые помогают больницам убедиться, что у них есть нужное количество и сочетание врачей, медсестер и другого персонала, работающих в нужное время для ухода за пациентами. Пациенты могут не знать, является ли лечащий их человек врачом или гибридом с помощью искусственного интеллекта. Это может показаться бесшовным или тревожным, в зависимости от ставок. Мы боремся с тихой трансформацией скорой помощи, где давление затрат, нехватка персонала и вторые пилоты с искусственным интеллектом переписывают то, что значит обратиться к врачу и что значит доверять ему.

Переход от врачей к искусственному интеллекту — это не просто кадровое решение, а скорее кардинальное изменение в том, как принимаются медицинские решения. Каждый из них сопряжен с компромиссами. ИИ может обрабатывать горы данных за считанные секунды, но он не может смотреть пациенту в глаза и распознавать страх, ценить тихие моменты человеческих страданий или улавливать невысказанные подсказки, которые получают, когда он держит за руку человека, испытывающего боль. Часть нашего более чем 10 000 часов медицинского обучения для того, чтобы стать врачами скорой помощи, заключается в развитии интуиции, которая подсказывает, что что-то не так, даже когда жизненные показатели пациента и лабораторная работа выглядят хорошо. Он улавливает тонкие подсказки — намек на замешательство, слабую невнятность в речи пациента, тихую панику в его глазах — которые пациент может не упомянуть, а алгоритм не может воспринять. Человеческий фактор, сущность доверия и сострадания, — это именно то, на чем ИИ спотыкается.

Технологические компании стремятся интегрировать ИИ в клиническое пространство, создавая цифровые системы сортировки, диагностические помощники пилотов и инструменты поддержки принятия решений, призванные усилить или даже заменить контроль со стороны врача. И больницы быстро внедряют его, привлеченные обещанием снижения затрат и более высокой точности диагностики. В одном недавнем исследовании, опубликованном в журнале Nature, ИИ показал себя наравне с неопытными врачами, что свидетельствует о том, как быстро алгоритмы догоняют врачей-людей в смотровой комнате. OpenAI, Google и Microsoft специально тестируют приложения для здравоохранения на основе искусственного интеллекта. Одна из этих компаний, Open Evidence AI, создает инструмент на основе искусственного интеллекта, чтобы дать врачам быстрые, основанные на фактических данных ответы на медицинские вопросы, и уже оценивается в 3,5 миллиарда долларов.

Конечно, есть места, где ИИ может проявить себя. Он может выявлять закономерности, невидимые даже самому опытному клиницисту, связывая лабораторный результат многомесячной давности со списком лекарств и кластером симптомов, чтобы отметить риск серьезной инфекции до того, как его увидят другие. Он может выявлять неясные взаимодействия лекарств, поддерживать принятие решений и ускорять документирование, оставляя врачам больше времени для пациентов и снижая выгорание. При правильном использовании ИИ является не столько заменой интуиции, сколько множителем силы.

Возможно, больше всего новым является то, что и пациенты, и врачи теперь используют ИИ, но не таким же образом.

Несколько ночей назад молодая женщина поступила в отделение неотложной помощи с болью в груди. Все ее анализы были в норме, но она все еще казалась на грани. Когда я спросил, беспокоится ли она о чем-то, она призналась, что спустилась в кроличью нору ChatGPT, заметив несколько пропущенных сердечных сокращений. Чат-бот сказал ей, что у нее может быть аритмогенная дисплазия правого желудочка: редкое, смертельно опасное заболевание сердца. (Она этого не сделала.) Последовавшая за этим паника, вероятно, вызвала симптомы, которые привели ее в больницу.

Другой пациент, молодой человек, был уверен, что у него аппендицит, потому что ChatGPT сказал ему об этом. На этот раз он оказался прав. Его симптомы были хрестоматийными, и студент-медик, наблюдавший его самостоятельно, предположил тот же диагноз. Искусственный интеллект помог пациенту быстрее узнать свой диагноз и обратиться за лечением. Тем не менее, ему все еще требовались умелые руки хирурга, чтобы удалить аппендикс.

В этом и заключается парадокс настоящего момента: та же самая технология, которая подпитывает замешательство и страх, может также обострить понимание и ускорить лечение. Это не только меняет то, как мы ставим диагнозы, но и то, как поступают пациенты и кто о них заботится. Стоимость, персонал и технологии стерли грань между человеческим и машинным уходом, положив начало новому виду медицины: пациентов лечат врачи, самым влиятельным коллегой которых может быть алгоритм.

Проблема не только в том, что ИИ может ошибиться в диагнозе, но и в том, что долгосрочное использование ИИ также может поставить под угрозу понимание врача. В одном исследовании, опубликованном журналом Lancet, врачи с меньшей вероятностью обнаруживали возможные раковые пятна при колоноскопии после того, как они привыкли использовать инструмент искусственного интеллекта. Авторы предположили, что чем больше они полагаются на алгоритм, тем меньше человеческих суждений они проявляют.

Этот сдвиг в сторону интеграции ИИ или неврачей в отделение неотложной помощи по своей сути не является плохим, но он часто незаметен для пациентов. И в этом проблема.

Пациенты заслуживают того, чтобы знать, когда их лечением руководит ИИ, кто в конечном итоге несет ответственность за принимаемые решения и какие меры безопасности существуют, когда «врач в комнате» может быть алгоритмом.

Прозрачность не остановит марш технологий, но она может помочь сохранить то, что медицина не может позволить себе потерять: доверие.

Залишити перший коментар

Матеріали цього сайту доступні лише членам ГО “Відкритий ліс” або відвідувачам, які зробили благодійний внесок.

Благодійний внесок в розмірі 100 грн. відкриває доступ до всіх матеріалів сайту строком на 1 місяць. Розмір благодійної допомоги не лімітований.

Реквізити для надання благодійної допомоги:
ЄДРПОУ 42561431
р/р UA103052990000026005040109839 в АТ КБ «Приватбанк»,
МФО 321842

Призначення платежу:
Благодійна допомога.
+ ОБОВ`ЯЗКОВО ВКАЗУЙТЕ ВАШУ ЕЛЕКТРОННУ АДРЕСУ 

Після отримання коштів, на вказану вами електронну адресу прийде лист з інструкціями, як користуватись сайтом. Перевіряйте папку “Спам”, іноді туди можуть потрапляти наші листи.