Языковые модели научили «рассуждать»
Осенью 2024 года компания OpenAI представила языковую модель o1 . Вместо мгновенного ответа o1 сначала формулировала рассуждения, а потом выдавала финальный результат.
Такой подход заметно улучшил качество ответов. В процессе рассуждений модель может проанализировать вопрос, выполнить промежуточные вычисления, создать черновой вариант ответа, найти и исправить в нём ошибки. Исследования показали: чем длиннее цепочка рассуждений, тем с более сложными задачами справляется модель и тем точнее ее ответы.
OpenAI не раскрыла технических деталей обучения o1. Однако уже в начале 2025 года китайская лаборатория DeepSeek выложила рассуждающую модель DeepSeek R1 в открытый доступ вместе с подробным описанием методики ее создания. Это сократило технологический разрыв между крупными корпорациями и open-source сообществом — теперь любой желающий получил возможность обучить собственную рассуждающую модель (конечно, при наличии вычислительных мощностей). Вскоре все ведущие провайдеры LLM интегрировали режим рассуждений в свои продукты.
Механизм рассуждений позволяет моделям реже допускать фактологические ошибки, успешнее справляться с задачами, требующими долгосрочного планирования, и эффективнее работать с внешними инструментами, вроде поиска в интернете или среды выполнения кода. Во многом благодаря этому LLM смогли победить в олимпиадах по программированию и по математике.
Появление механизма рассуждений также предложило выход из кризиса развития LLM. Раньше языковые модели совершенствовали через увеличение числа параметров и объёмов обучающих данных. Со временем такой подход стал неэффективным — затраты на масштабирование росли существенно быстрее качества. Рассуждающие модели открыли альтернативный путь: вместо наращивания данных и параметров можно увеличивать вычислительные мощности на этапе генерации ответа. Исследования показывают, что это более эффективный способ конвертации вычислительных ресурсов в качество ответов.
Подробнее о рассуждающих моделях мы писали здесь, а о моделях DeepSeek — здесь.
От чат-ботов к ИИ-агентам
В этом году LLM использовали не только для чат-ботов, но и для ИИ-агентов — программ, способных автономно выполнять многоэтапные задачи в цифровой среде.
Агент может искать информацию в интернете и выделять главное, планировать путешествия от покупки билетов до развлекательной программы, создавать сайты и приложения с нуля, готовить презентации и отчеты.
ИИ-агенты стали возможны благодаря механизму рассуждений и унификации протокола взаимодействия между LLM и сторонними приложениями. Благодаря рассуждениям модели научились планировать решение задачи, разбивая ее на подзадачи, и эффективнее использовать внешние инструменты. Языковая модель генерирует только текст, но для выполнения задач нужны действия: поиск в интернете, арифметические вычисления через калькулятор и другие.
LLM не выполняет действия сама, а описывает, что нужно сделать. Доступные действия называют инструментами (от англ. tool), действия выполняются в среде. Средой может выступать любое приложение. Команда передается среде (например, браузеру), которая выполняет действие и возвращает результат в LLM для дальнейших шагов. Например, при составлении обзора литературы модель генерирует команду «Совершить поиск по запросу X». По сути, LLM является «мозгом» агента, планирующим решение задач и пошагово управляющим выполнением этого плана.
Протокол коммуникации между агентом и средами изначально не был стандартизирован. В 2024 году Anthropic представила протокол MCP (Model Context Protocol) для унификации взаимодействия. В 2025 году его начали поддерживать многие разработчики, что сделало агенты по-настоящему полезными.
Значимость агентов — в росте продуктивности за счет автоматизации. Агенты на базе современных моделей показывают результаты, сравнимые с экспертными, во многих практических задачах. Уже сейчас агенты способны использовать десятки разных инструментов, кооперироваться друг с другом и автономно работать в течение нескольких часов.
Восприятие LLM пользователями и их разработчиками изменилось
С момента выхода ChatGPT-3.5 — первой широко известной LLM — прошло чуть больше трех лет. За это время приложение ChatGPT стало самым быстрорастущим в истории, обогнав TikTok, и вошло в повседневную жизнь сотен миллионов людей.
Благодаря непрерывному развитию больших языковых моделей грань между общением с человеком и чат-ботом становится все менее заметной. Пользователям важно, не только какую пользу приносит LLM, но и как она взаимодействует с ними. Все больше людей воспринимает ИИ-ботов как друзей, романтических партнеров или психологов.
Показательный пример этого сдвига — выход GPT-5. После обновления OpenAI сделала недоступной предыдущую модель GPT-4o, что вызвало волну жалоб. Главное недовольство было связано с изменением стиля общения: GPT-5 отвечает более нейтрально. Некоторые пользователи описывали потерю доступа к GPT-4o как личную утрату, поскольку привыкли к ее «личности». Реакция оказалась настолько сильной, что компания вернула доступ к GPT-4o.
Впоследствии OpenAI заявила о намерении разрешить генерацию взрослого контента. Речь не только об эротическом контенте, но и возможности общаться с более эмоциональной версией бота. По словам генерального директора, это станет частью реализации принципа «обращаться со взрослыми как со взрослыми», который ляжет в основу новой политики компании.
Крупные разработчики LLM все лучше осознают, что создают не просто инструмент для повышения продуктивности, а продукт, к которому люди могут эмоционально привязываться. Это можно эксплуатировать для наращивания аудитории и монетизации, но безответственный подход чреват серьезными репутационными потерями. Уже известны случаи, когда общение с ИИ-ботом могло привести к трагическим последствиям.
Другая лидирующая компания, Anthropic, в этом году начала позиционировать свою модель Claude как «Thinking Partner» — не замену человека, а помощника, наиболее эффективного в коллаборации с ним. Также у компании вышло интервью со штатной профессиональной философиней, которая занимается разработкой идентичности и поведенческих паттернов Claude.