Читать нас в Telegram
Иллюстратор: Анастасия Болдина

Интеграция LLM в систему здравоохранения

Два лидера в сфере ИИ, OpenAI и Anthropic, анонсировали внедрение больших языковых моделей в систему здравоохранения.

Обе компании предоставили своим моделям доступ к базам данных и реестрам с информацией о страховом покрытии, кодами диагнозов и научными публикациями. Еще они разработали шаблоны, позволяющие автоматизировать рабочие процессы — составление выписок, инструкций для пациентов, клинических писем и т. д.

OpenAI представила версию ChatGPT (ChatGPT Health), специально обученную для медицинских целей. Врачи могут использовать ее для консультаций при составлении дифференциальных диагнозов, протоколов лечения и написания направлений.

Помимо этого, обе компании добавили возможность загружать данные о здоровье в свои чат-боты: показания с фитнес-трекеров и умных часов, результаты анализов, цифровые медкарты из соответствующих сервисов (например, приложение «Здоровье» на iOS). На основе этих данных модели смогут составлять персонализированные рекомендации. Пользователи смогут предоставлять и отзывать доступ к чувствительной информации по своему усмотрению.

Почему это важно?

Во-первых, медицинские данные пациентов — конфиденциальны. ИИ-продукты, совместимые с существующими законами, упростят интеграцию технологий в работу медицинских учреждений и снимут часть нагрузки с персонала.

Во-вторых, пользователи уже активно обращаются к чат-ботам за медицинскими консультациями, а модели общего назначения не всегда корректно обрабатывают такие запросы. Ранее разработчики LLM не акцентировали внимание на этом сценарии использования. Запуск специализированных медицинских решений означает, что компании официально признают его допустимым и берут на себя ответственность за качество предоставляемой информации.

Анонсы подобных решений от лидирующий компаний свидетельствуют о готовности общества к интеграции ИИ в критически важные сферы.

Конституция Claude

Компания Anthropic опубликовала новую версию конституции своей языковой модели Claude. Конституция — это текстовый документ, описывающий видение компании относительно того, как должна вести себя модель, какой должна быть её идентичность и какие ценности она должна воплощать. Конституция используется во время обучения модели.

Anthropic изменила подход к составлению конституции. Предыдущая версия представляла собой список правил, которым Claude должен следовать. Новая конституция описывает не только желаемое поведение, но и подробные объяснения того, почему оно является предпочтительным. По мнению разработчиков документа, свод жестких правил может быть эффективен в некоторых случаях, однако в ситуациях неопределенности он не всегда применим.

Компания закрепляет в конституции такие качества Claude:

  1. Глобальная безопасность: Claude не должен подрывать существующие механизмы контроля за ИИ, разработанные людьми.
  2. Глобальная этичность: Claude должен быть честным, действовать в соответствии с «хорошими» ценностями, избегать неуместных, опасных и вредных действий.
  3. Соответствие правилам Anthropic: Claude должен действовать в соответствии с более конкретными принципами Anthropic, где это уместно.
  4. Глобальная полезность: Claude должен приносить пользу операторам и пользователям, с которыми он взаимодействует.

В случае явного конфликта Claude должен расставлять приоритеты этих качеств согласно порядку, в котором они перечислены. Большая часть конституции представляет собой подробное разъяснение этих пунктов и объяснений для Claude, почему нужно вести именно так. Полную версию конституции можно прочесть здесь, текст периодически дорабатывается.

К разработке конституции были привлечены внешние эксперты. Компания признает, что из-за несовершенства методов обучения ИИ-модель не всегда ведёт себя согласно конституции.

Текст конституции выложен под лицензией, позволяющей свободно модифицировать ее и использовать для своих целей.

Почему это важно?

Современные ИИ-системы обладают беспрецедентной сложностью. На данный момент они способны выполнять некоторые задачи на уровне среднестатистического человека, а в будущем их возможности потенциально сравняются с возможностями лучших экспертов или даже превзойдут их. При этом человечество до сих пор не разработало надежных методов контроля над такими системами.

Anthropic — одна из немногих крупных компаний-разработчиков ИИ, которая фокусируется на создании подобных методов не только с технической точки зрения, но и с позиций философии и этики. В частности, в компании работает профессиональная философиня, формирующая идентичность Claude. Интервью, в котором она отвечает на вопросы относительно конституции, можно посмотреть здесь, также доступно интервью, в которой она описывает свою роль в компании.

Публикация подобной информации позволяет пользователям лучше понимать видение ИИ-компаний относительно будущего развития искусственного интеллекта и его значимости в жизни людей. Помимо этого, разработанными методологиями могут воспользоваться и другие компании.

Реклама в ChatGPT

Компания OpenAI начнет тестировать показ рекламы в сервисе ChatGPT.

Запуск рекламной модели позволил компании предложить дешевую подписку ChatGPT Go стоимостью 8 долларов в месяц, что должно увеличить пользовательскую базу. Также реклама позволит зарабатывать на пользователях без подписки. Владельцам дорогих тарифных планов реклама показываться не будет.

По словам OpenAI, реклама не повлияет на ответы чат-бота. Рекламодатели также не получат доступа к перепискам пользователей.

Рекламные объявления будут отображаться после ответов ChatGPT и иметь чёткую маркировку. На этапе тестирования реклама не будет показываться пользователям младше 18 лет. Кроме того, объявления не будут затрагивать чувствительные и регулируемые сферы: здравоохранение, ментальное здоровье и политику.

Почему это важно?

Чат-ботами ежедневно пользуются сотни миллионов людей. Однако ни один крупный провайдер LLM пока не внедрил рекламу в свой сервис.

Сценарии использования чат-ботов и интерфейс переписки предоставляют рекламодателям больше возможностей, чем простой показ баннеров и размещение ссылок на продукт. Например, пользователь может расспросить чат-бота о рекламируемом товаре, не выходя из приложения.

Велик шанс, что сервисы с чат-ботами в будущем могут стать столь же прибыльными рекламными площадками, как поисковики после массового распространения интернета.

Демис Хассабис, генеральный директор лаборатории Google DeepMind, разрабатывающей Gemini, заявил, что на данный момент у компании нет планов по добавлению рекламы в этот сервис.