Читать нас в Telegram

Утечка доступа к Sora

Группа художников с ранним доступом к видеогенератору Sora выступила против условий тестирования OpenAI и опубликовала программу для работы с нейросетью.

Согласно правилам OpenAI, художники получают доступ к Sora для исследования её возможностей, поиска уязвимостей (включая генерацию нежелательного контента) и предоставления обратной связи разработчикам.

В открытом письме участники программы критикуют многомиллиардную компанию за использование их труда без справедливой компенсации. Из сотен художников лишь единицам разрешат показать работы, созданные с помощью Sora. Авторы письма подчеркивают, что не против использования ИИ в искусстве, но не согласны с подходом OpenAI к взаимодействию с творческим сообществом. По мнению подписавших, программа раннего доступа служит не для сотрудничества с художниками и получения конструктивной критики, а исключительно для рекламы и PR-целей.

Вместе с письмом художники опубликовали примеры работ Sora и программу с доступом к закрытому API, позволяющую любому экспериментировать с нейросетью.

В ответ OpenAI через три часа отключила доступ всем участникам тестирования. Представитель OpenAI прокомментировал ситуацию: «Sora находится в разработке, и сотни художников помогли в её развитии, определяя приоритеты новых функций и мер безопасности. Участие в программе добровольное и не требует обязательного использования продукта или предоставления обратной связи».

Нейросеть Sora была представлена ещё в марте. С тех пор несколько компаний представили аналоги, в том числе и открытые для использования, на которые ссылаются авторы письма.

Рассуждающие модели от китайских лабораторий

Две китайские лаборатории выпустили LLM, обученные генерировать цепочки размышлений перед ответом. Подобную технику улучшения качества ответа ранее представила компания OpenAI вместе с моделями o1.

Первая модель DeepSeek R1-Lite от лаборатории DeepSeek опережает o1-preview в задачах по математике и программированию, однако хуже неё в задачах на логические рассуждения. Качество ответов модели от DeepSeek растёт с увеличением длины рассуждений (её можно варьировать). R1-Lite можно попробовать совершенно бесплатно. Релиз кода и весов модели, а также технический отчёт, по словам лаборатории, должен произойти в ближайшее время.

Вторая модель, QwQ-32B-Preview от лаборатории Qwen, по качеству также сопоставима с моделями o1 и доступна всем желающим. Модель находится на ранней стадии разработки, и поэтому у неё есть ограничения и несовершенства. В частности, рассуждения модели не всегда ведутся на одном языке, а также модель может генерировать бесконечные зацикленные рассуждения.

Появление таких моделей должно ускорить исследования в области рассуждающих языковых моделей. Открытые данные о методах их обучения и формирования обучающих данных, а также доступ к самим моделям позволит open-source сообществу сократить отставание от закрытых коммерческих компаний.

Открытый протокол для общения между LLM и пользовательскими приложениями

Компания Anthropic представила Model Context Protocol (MCP) — открытый протокол, позволяющий языковым моделям взаимодействовать с данными и функциями сторонних приложений. MCP упрощает интеграцию языковых моделей в различные продукты.

Протокол работает по классической клиент-серверной архитектуре, где клиентом выступает приложение с языковой моделью, а MCP-сервер обеспечивает доступ к внешним данным и функциям.

Рассмотрим пример: разработчики приложения для хранения заметок хотят дать пользователям возможность анализировать свои записи через приложение ChatGPT. Пользователь пишет: «Сделай выжимку из моих заметок о планируемом отпуске». И чат-бот обобщает заметки. Для этого разработчики создают MCP-сервер — программу, которая обрабатывает запросы от приложения ChatGPT и передаёт необходимые данные из базы приложения заметок. В контексте примера запрос включает идентификатор пользователя и тип запрашиваемой информации (заметки). Полученные от сервера заметки позволяют ChatGPT сгенерировать выжимку.

MTP-сервер также может предоставлять доступ к функциям приложения. Например, он может разрешить добавление новых заметок в аккаунт пользователя. Если пользователь просит ChatGPT сохранить полученную выжимку как новую заметку, бот запрашивает у сервера список доступных функций, находит нужную и отправляет запрос с её названием и параметрами (заголовком и содержанием заметки). Получив этот запрос, сервер создаёт новую заметку с указанными данными.

Вместе со спецификацией протокола Anthropic выложила код MCP-серверов для популярных приложений (Github, Google Drive, Slack, Google Maps и других), которые позволяют интегрировать их с приложением для общения с Claude (моделью от Anthropic), а также сервер для взаимодействия с локальной файловой системой пользователя.