Можно ли использовать ИИ в медицине и здравоохранении? Пока — нет

В работе, опубликованной ведущим австралийским специалистом по этике ИИ Стефаном Харрером, впервые предлагается комплексная этическая основа для ответственного использования, разработки и управления приложениями генеративного ИИ в здравоохранении и медицине.
Можно ли использовать ИИ в медицине и здравоохранении? Пока — нет
Unsplash.com

Доктор Харрер: «Раньше ИИ были скучными. Теперь они стали захватывающе интересными и опасными»

В исследовании, опубликованном ведущим австралийским специалистом по этике ИИ Стефаном Харрером, подробно описывается, как большие языковые модели (LLM) могут изменить управление информацией, образованием и рабочими процессами в здравоохранении и медицине. Но в то же время, по мнению Харрера, LLM остаются одним из самых опасных и неправильно понимаемых видов ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

LLM являются ключевым компонентом приложений генеративного ИИ для создания нового контента, включая текст, изображения, аудио, код и видео по текстовым инструкциям. Среди примеров, рассмотренных в исследовании: ChatGPT компании OpenAI, Med-PALM компании Google, генератор изображений Stability AI Stable Diffusion и BioGPT компании Microsoft.

Плюсы ИИ и большой минус

В исследовании выделены многие ключевые приложения генеративного ИИ для здравоохранения:

  1. помощь врачам в составлении медицинских заключений или писем с предварительной авторизацией;
  2. помощь студентам-медикам в более эффективном обучении;
  3. упрощение медицинского жаргона при общении врача с пациентом;
  4. повышение эффективности клинических исследований;
  5. помощь в преодолении препятствий, связанных с совместимостью и стандартизацией электронных медицинских карт;
  6. повышение эффективности разработки лекарств.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако в статье подчеркивается опасность, применения генеративного ИИ на основе LLM: такие системы могут авторитетно и убедительно создавать и распространять ложный и опасный контент.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как снизить риски ИИ в здравоохранении


Доктор Харрер определил набор факторов риска, которые имеют особое значение при использовании технологии LLM в здравоохранении и медицине.

Харрер утверждает, что ограничения LLM носят системный характер и коренятся в недостаточном понимании языка: «Суть эффективного поиска знаний заключается в том, чтобы задавать правильные вопросы, а искусство критического мышления основывается на способности анализировать ответы, оценивать их достоверность в соответствии с моделями мира. LLM не могут выполнить ни одну из этих задач. Они являются промежуточным звеном, которое может сократить огромное количество всех возможных ответов на вопрос до наиболее вероятных, но они не способны оценить, имеет ли вопрос или ответ смысл».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Харрер считает, что увеличение объема обучающих данных и создание все более сложных LLM не снизит риски, а скорее повысит их. В исследовании предлагаются подходы к этическому проектированию приложений генеративного ИИ. Ученый предлагает нормативную базу с 10 принципами для снижения рисков в здравоохранении:

  1. разрабатывать ИИ как вспомогательный инструмент для расширения возможностей людей, принимающих решения, а не для их замены;
  2. разрабатывать ИИ для оценки показателей эффективности и встраивать в систему методы самоконтроля и анализа потенциальных ошибок,
  3. изучать системы ценностей целевых групп пользователей и разрабатывать ИИ в соответствии с ними;
  4. заявлять о цели проектирования и использования ИИ в самом начале любой разработки,
  5. раскрывать все источники данных для обучения;
  6. соблюдать четкую и прозрачную маркировки любого генерируемого ИИ контента, чтобы невозможно было спутать высказывании ИИ и высказывание человека;
  7. постоянно проводить аудит ИИ для поиска конфиденциальных данных;
  8. вести базы данных для документирования и обмена результатами аудита ИИ, информировать пользователей о возможностях, ограничениях и рисках моделей;
  9. применять стандарты справедливого и безопасного труда при найме разработчиков-людей;
  10. создать правовой прецедент для определения того, при каких обстоятельствах данные могут быть использованы для обучения ИИ, и установить авторское право, ответственность и рамки подотчетности для регулирования правовых зависимостей между обучающими данными, контентом, создаваемым ИИ, и решениями, которые принимают люди с использованием таких данных.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но без ИИ мы все равно не обойдемся

«Без человеческого надзора, руководства и ответственного проектирования и эксплуатации приложения генеративного ИИ на базе LLM останутся забавным трюком, обладающим значительным потенциалом для создания и распространения дезинформации или вредного и неточного контента в беспрецедентных масштабах», — говорит Харрер.

Он прогнозирует, что от нынешней гонки LLM область перейдет к этапу более тонких и осознанных с точки зрения риска экспериментов в здравоохранении, медицине и биотехнологиях. В течение следующих 2 лет появятся первые нишевые приложения в области управления цифровыми медицинскими данными. С этого все и начнется.

«Меня вдохновляет мысль о той преобразующей роли, которую генеративный ИИ и LLM могут однажды сыграть в здравоохранении и медицине, но я также прекрасно понимаю, что мы еще далеки от этого. Несмотря на шумиху, генеративный ИИ на базе LLM может завоевать доверие и одобрение клиницистов и пациентов только в том случае, если сообщество исследователей и разработчиков будет стремиться к высокому уровню этической и технической честности по мере продвижения этой технологии к рыночной зрелости».