word2vec

Как работает большая языковая модель: перцептроны в чёрном ящике

Несмотря на стремительное развитие больших языковых моделей, исследователи до сих пор плохо понимают, как и почему нейросети выдают тот или иной ответ. Однако изучение этих проблем находится на переднем крае компьютерных наук. В нашем новом материале рассказываем о механизмах работы языковых моделей. В первой части мы объясняем, почему нейросети работают, как «чёрные коробки», что такое интерпретируемость в контексте машинного обучения и как компьютеры моделируют работу нейрона.

язык произведений русской литературы

Опознаете ли вы Пушкина из параллельного мира: тест по векторной литературе

Сможем ли мы отличить «Мастера и Маргариту» от «12 стульев»? Скорее всего, не ошибемся. А что если заменить некоторые слова из оригинальных произведений на близкие по значению с помощью векторной модели на базе word2vec? Предлагаем вам пройти наш тест и проверить, насколько хорошо получится опознать классические тексты, если некоторые слова в них будут модифицированы.

Обучаем Word2vec: практикум по созданию векторных моделей языка

Как использовать в своей повседневной работе векторные семантические модели и библиотеку Word2Vec? Это несложно: понадобится немного кода на Python и (для второй части) готовые векторные модели — например, с сайта RusVectores. Публикуем наш тьюториал по Word2vec

Семантические сети: как представить значения слов в виде графа

Компьютерные лингвисты из Вышки, университета Тренто и университета Осло разработали vec2graph — инструмент для визуализации семантической близости слов в виде сети. Воспользоваться vec2graph может любой желающий. Рассказываем, как это работает и зачем нужно

Word2Vec: покажи мне свой контекст, и я скажу, кто ты

Разбираемся, как компьютеры понимают смысл наших текстов

Word2Vec

Модель, которая преобразовывает слова в числовые векторы, отражающие семантические значения и взаимосвязи слов