Google Gemini 3
Корпорация Google обновила свою большую языковую модель Gemini. Пока доступна только флагманская версия Gemini 3 Pro, более компактные и быстрые варианты появятся позже.
Практически во всех стандартных тестах Gemini 3 превосходит лидирующие LLM OpenAI GPT-5.1 и Anthropic Opus 4.5 или сопоставима с ними. Главное в обновлении — улучшение агентских способностей: модель эффективнее применяет режим рассуждений (thinking/reasoning) и внешние инструменты, такие как поиск Google и среда выполнения кода. Также значительно выросло качество генерации кода, особенно для задач front-end, которые нужны для разработки интерфейсов сайтов и приложений.
Попробовать Gemini 3 можно бесплатно в Google AI Studio.
Почему это важно?
Gemini используется практически во всех ИИ-продуктах Google: от перевода видео на YouTube до генерации сводок поисковой выдачи. Поэтому обновление затронет миллионы пользователей.
Кроме того, благодаря финансовым и интеллектуальным ресурсам Google является ключевым участником гонки ИИ. По её флагманской модели можно судить о прогрессе генеративного ИИ в целом.
DeepSeek v3.2
Лаборатория DeepSeek обновила свою открытую LLM.
Базовая версия DeepSeek v3.2 по качеству сравнима с GPT-5, а версия с расширенными рассуждениями — с Gemini 3 Pro. Модель также стала быстрее благодаря архитектурным улучшениям.
По заявлениям лаборатории, DeepSeek v3.2 получила «золото» на Международной олимпиаде по математике и Международной олимпиаде по программированию 2025 года. Ранее о подобных достижениях своих LLM заявляли OpenAI и Google.
DeepSeek v3.2 и технический отчет находятся в открытом доступе. Опробовать модель можно на официальном сайте.
Почему это важно?
Разработка и обучение больших языковых моделей требуют значительных финансовых вложений. Лидирующие модели создаются корпорациями и доступны только по API, что даёт пользователю лишь минимальный контроль над ними.
Традиционно открытые модели (которые можно запустить на собственном сервере или компьютере) существенно отстают от закрытых. Модели DeepSeek уже неоднократно сокращали этот разрыв.
Выход DeepSeek v3.2 означает, что теперь любой желающий может без ограничений использовать и модифицировать LLM, сопоставимую по производительности с лучшими решениями.
SAM 3 и SAM 3D
Компания Meta* представила SAM 3 и SAM 3D — обновление своей линейки моделей компьютерного зрения Segment Anything.
SAM 3 может находить и выделять объекты на изображениях и на видео по текстовым описаниям. В отличие от предыдущих версий, которые работали только с визуальными подсказками (например, на нужный объект нужно было кликнуть или обвести его рамкой), новая модель понимает текстовые запросы вроде «жёлтый школьный автобус» или «люди в красных кепках».
SAM 3D позволяет генерировать 3D-модели объектов из двумерных изображений. SAM 3D состоит из двух моделей: SAM 3D Objects восстанавливает трёхмерную геометрию и текстуры предметов, а SAM 3D Body — позы и формы человеческого тела. Обе модели работают с одним изображением, без необходимости в специальных камерах.
Meta выпустила веса моделей, код и бенчмарки. Обе модели опубликованы в открытом доступе на официальном сайте.
Почему это важно?
Модели линейки SAM универсальны — они позволяют выделять произвольные объекты на самых разных изображениях и видео. Поэтому их можно применять в разных областях: обработка фото и видео, робототехника, AR/VR.
Meta уже внедряет модели в свои продукты. SAM 3 используется в приложении Edits для создания видеоэффектов, а SAM 3D обеспечивает работу функции «Просмотр в комнате» на Facebook Marketplace, позволяя покупателям визуализировать мебель в своём интерьере перед покупкой.
*Компания Meta признана экстремистской организацией, а её деятельность запрещена на территории РФ