Герман Иноземцев: «Борьба с цифровыми миражами стала полем битвы за будущее AI в фарме»

19.11.2025
19:00
Ошибки и «галлюцинации» искусственного интеллекта могут обернуться непоправимыми последствиями для пациентов, врачей и фармкомпаний. О том, как превратить ИИ из талантливого, но склонного к вымыслу рассказчика в ответственного и проверяемого помощника, рассказал вице-президент медико-фармацевтического направления проекта PharmGPT Герман Иноземцев.
Фото: ru.123rf.com

Анализируй — не галлюцинируй

Они уже здесь. Большие языковые модели тихо проникают в святая святых — фармацевтический маркетинг, беря на себя задачи от генерации контента до ведения диалогов с врачами и пациентами. Но за этим технологическим прорывом скрывается тревожный и опасный спутник — призрак «галлюцинаций».

Это не метафора, а суровая реальность: ситуации, когда обычный искусственный интеллект с непоколебимой уверенностью выдает безупречно сформулированный, но абсолютно вымышленный текст. В нашем фармацевтическом мире, где от каждой запятой может зависеть человеческая жизнь, такая ошибка превращается из бага в угрозу. Некорректная информация о лекарстве — это не опечатка, это потенциальный вред здоровью, подорванное доверие врачей и суровые регуляторные санкции. Борьба с этими цифровыми миражами стала полем битвы за будущее AI в фарме.

Почему же общедоступные сверхумные алгоритмы, способные писать стихи и решать задачи, начинают «сочинять»? Вся суть проблемы кроется в самой природе их обучения. Эти модели — не всезнающие оракулы, а гениальные имитаторы, оптимизированные на создание связного и правдоподобного текста, а не на установление истины. Если в их памяти не находится точного ответа, они не останавливаются в неловком молчании. Вместо этого они действуют как уверенный в себе рассказчик, который скорее заполнит пробелы захватывающим вымыслом, чем признает свое незнание. В бытовом чате это обернется курьезом. В медицинском контексте — вымышленными противопоказаниями, неверными дозировками или ссылками на несуществующие исследования. Это системный сбой, несущий прямые риски для пациентов.

Истории, которые заставляют содрогнуться, уже накапливаются в судебных протоколах и научных отчетах в мире. Вспомним громкий случай американских юристов, которые в 2023 году доверили ChatGPT подготовку судебного документа. Модель блестяще сфабриковала шесть убедительно звучащих судебных прецедентов — с детализацией, цитатами и номерами дел. Вот только ни одного из этих дел в природе не существовало. Еще более показателен провал научной модели Galactica от Meta, призванной помогать исследователям. Вместо этого она стала генератором лженауки, бесстрастно сочиняя несуществующие статьи и искажая установленные факты. Ее публичную демоверсию пришлось экстренно закрыть всего через три дня. А в свежем фармацевтическом инциденте инструмент Scite, отвечая на вопрос о взаимодействии препаратов, выдал опасную рекомендацию — изменить дозировку и тем самым улучшить совместимость лекарств, сославшись на научную работу. Проверка показала: оригинальная статья утверждала прямо противоположное. Модель не просто ошиблась — она сконструировала смертельно опасную альтернативную реальность.

Представим себе чат-бота на сайте нашей фармкомпании. Если он, не имея проверенных данных и верифицированного метода их сбора и перекрестной проверки, «галлюцинирует» и посоветует применять лекарство при неутвержденном показании или утаит важное противопоказание, последствия могут быть крайне тяжелыми как для пациента и врача, так и для фармкомпании.

Суммируя: галлюцинации общедоступных больших языковых моделей (LLM) — результат сочетания ограничений обучения, дефицита актуальных знаний и отсутствия встроенной проверки фактов. У нас в фарме добавляются особые факторы: быстрое устаревание данных, узкоспециальная терминология и необходимость безошибочной логики.

Строгая диета под наблюдением

Но как с этим бороться? На передовой цифрового фронта ученые и инженеры выработали целый арсенал методов, чтобы поставить заслон на пути цифрового вымысла. Первая линия обороны — создание специализированных моделей, вскормленных не на просторах всего интернета, а на строгой диете из медицинских данных. Такие «супердоктора», как Med-PaLM 2 от Google или BioGPT от Microsoft, демонстрируют впечатляющие результаты. Med-PaLM 2, например, показывает точность ответов на уровне 86,5% на сложном экзамене для медиков, а в пилотных испытаниях ее ответы врачи оценивали как практически неотличимые по безопасности от консультаций живых коллег. Однако узкая специализация — не панацея. Порой именно общие модели-титаны вроде GPT-4, обладая более гибким «интеллектом», лучше справляются со сложными логическими цепочками и реже сбиваются в галлюцинации.

Самым же мощным оружием в этом противостоянии стал метод под названием RAG, или Retrieval-Augmented Generation. Его философия проста и гениальна: не позволять модели полагаться на свою ненадежную память. Прежде чем дать ответ, система проводит молниеносный поиск по утвержденным базам знаний — научным статьям, инструкциям к препаратам, внутренним документам компании. Найденные цитаты и факты подаются модели как основа для ответа. Это похоже на то, как если бы вы, готовя доклад, вместо того чтобы полагаться на память, всегда держали перед собой раскрытые учебники и справочники. Такой подход радикально снижает пространство для маневра вымысла, приземляя генерацию в реальность проверенных источников.

Таким образом, первым пунктом при анализе фарм-чата должен быть вопрос о наличии и эффективности модуля RAG.

Мы выбираем путь

Но инженеры пошли еще дальше, пытаясь научить AI… сомневаться. Техники под названиями Chain-of-Thought (Цепочка размышлений) и Chain-of-Verification (Цепочка проверки) заставляют модель не выпаливать ответ, а вести внутренний диалог, расписывая ход своих мыслей шаг за шагом, а затем критически перепроверяя собственные выводы. Это цифровой аналог врача, который, поставив предварительный диагноз, листает справочники, сверяется с анализами и консультируется с коллегами, прежде чем озвучить его пациенту. Исследования обнадеживают: такой подход способен сокращать долю вымысла в медицинских ответах более чем на 86%.

Фармацевтические гиганты, осознавая всю меру ответственности, не полагаются слепо на технологии. Они выстраивают сложные многоуровневые системы защиты, где последним и главным рубежом остается человек. Принцип «human-in-the-loop» (человек в цикле) сегодня незыблем. Любой контент, созданный AI, будь то письмо врачу или инструкция для пациента, проходит строжайший контроль медицинских редакторов, юристов и регуляторных специалистов. Компании встраивают в свои AI-системы цифровые «предохранители» — жесткие правила, которые, например, не позволяют чат-боту упоминать неутвержденные показания к препарату или сравнивать его с продуктами конкурентов.

К 2025 году на сцену вышло новое поколение решений. Это уже не просто эксперименты, а работающие инструменты. Roche разрабатывает внутреннюю модель RocheGPT для анализа научной литературы. При этом Roche подчеркивает полезность такого AI именно как ускорителя работы экспертов, а не их замены.

Одновременно другие фармгиганты объявили о специализированных партнерствах в 2024-м и 2025 годах: например, Novo Nordisk инвестировала в создание исследовательского центра по AI, Sanofi внедряет платформу специализированного фарм-GPT у себя.

Идем к своей мечте

Google и Microsoft продолжают шлифовать свои медицинские AI, сочетая в них мощь больших моделей с точностью доменных знаний. Прогресс налицо: современные LLM, оснащенные всем арсеналом — доступом к базам знаний, механизмами самопроверки и способностью к сложным рассуждениям, — демонстрируют надежность, вплотную приближающуюся к человеческой на узких задачах.

Не сильно отстают и наши активные фармкомпании — в 2026 году мы услышим несколько докладов о результатах внедрения специализированных фармацевтических GPT-инструментов в российских реалиях. С анонсами, по понятным конкурентным причинам, здесь никто не спешит. Сейчас идет тихая борьба за ранний старт в правильном направлении. Если начать раньше и бежать точнее, то велик шанс недостижимо оторваться от коллег как в России, так и в мире.

Однако, как метко заметил генеральный директор OpenAI Сэм Альтман, технологии, склонной к галлюцинациям, не стоит слепо доверять. Ключ к безопасному будущему — не в том, чтобы сделать AI безошибочным, а в том, чтобы научиться им грамотно управлять. Превратить его из талантливого, но склонного к вымыслу рассказчика в ответственного и проверяемого помощника. Это сложная и непрерывная работа, но альтернативы ей нет. Битва с цифровыми миражами — это та цена, которую индустрия платит за право использовать самую передовую технологию нашего времени на службе у человеческого здоровья. И судя по темпам прогресса, у фармацевтики есть все шансы в этой битве победить.

Прогресс налицо: фармспециализированные большие языковые модели (LLM), такие как представленные на PharmGPT например, оснащенные всем арсеналом — доступом к базам знаний, механизмами самопроверки и способностью к сложным рассуждениям, — демонстрируют надежность, вплотную приближающуюся к человеческой и на медико-фармацевтической ниве.

Что еще изучить по теме:

  • Islam Tonmoy S.M.T. et al. A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models (2024).
  • Chen S. et al. Medical Hallucination in Foundation Models and Their Impact on Healthcare (2025).
  • Sayres R. et al. Toward expert-level medical question answering with LLMs — Nature Medicine (2025).
  • Bejjani C., Adra N., Blackburn L. Artificial Intelligence as a Drug Information Resource: Limitations and Strategies-Am. J. Pharm. Educ. (2025).
  • McKinsey & Company. Generative AI in the pharmaceutical industry: Moving from hype to reality (2024).
  • RedHat. When LLMs day dream: Hallucinations and how to prevent them (2023).
  • TechTarget. What are AI Hallucinations and Why Are They a Problem? (2023).
  • Suvoda. Two years of AI learning: Streamlining clinical trials (2024).
  • Amazon Web Services. Reducing hallucinations in LLMs with custom intervention (2024).

Реклама, PharmGPT

Воспроизведение материалов допускается только при соблюдении ограничений, установленных Правообладателем, при указании автора используемых материалов и ссылки на портал Pharmvestnik.ru как на источник заимствования с обязательной гиперссылкой на сайт pharmvestnik.ru