Все про модели векторного представления (Embeddings) для ИИ

1. Введение: Фундаментальная роль и математическая природа моделей Embedding

В основе современного искусственного интеллекта, ориентированного на работу с естественным языком, лежит парадигма преобразования дискретных сущностей в непрерывные математические представления. Модели векторного представления (embeddings) представляют собой специализированные нейросетевые архитектуры, которые трансформируют неструктурированные данные — текст, программный код, изображения или аудио — в плотные векторы действительных чисел, расположенные в многомерном семантическом пространстве.1 Этот процесс, известный как векторизация, позволяет вычислительным системам алгоритмически интерпретировать семантическую близость и сложные контекстуальные связи между объектами: концепции со схожим смыслом локализуются геометрически близко друг к другу, в то время как семантически далекие понятия разнесены на значительные расстояния.1

К 2026 году модели embedding окончательно утвердились в качестве критической базовой инфраструктуры для целого спектра корпоративных систем искусственного интеллекта. Они вышли далеко за рамки простых алгоритмов поиска совпадений по ключевым словам, став ядром для систем генерации с дополненной выборкой (Retrieval-Augmented Generation, RAG), продвинутого семантического поиска, иерархической кластеризации документов, выявления аномалий и высокоточных рекомендательных механизмов.1 В архитектуре RAG именно от качества и разрешающей способности векторного представления напрямую зависит способность больших языковых моделей (LLM) генерировать точные, фактологически достоверные ответы без галлюцинаций. Модель embedding выступает в роли интеллектуального фильтра, который извлекает наиболее релевантный контекст из корпоративных баз знаний перед его подачей в контекстное окно генеративной нейросети.5

Настоящий отчет представляет собой исчерпывающий технический, экономический и регуляторный анализ ведущих мировых и региональных моделей embedding по состоянию на первую половину 2026 года. В документе детально рассматриваются архитектурные параметры моделей, методологии их независимой оценки (такие как глобальный MTEB и специализированный ruMTEB), актуальные версии проприетарных и открытых решений. Особое внимание уделено проверке официальных спецификаций (в рамках доступных изолированных слепков данных корпоративных сайтов), стоимости вычислений в долларах США, аппаратным требованиям для локального развертывания, а также качеству обработки многоязычных корпусов, в первую очередь русского языка. Кроме того, отчет содержит глубокий анализ стран-разработчиков и критических аспектов санкционного комплаенса, что является жизненно важным фактором при проектировании ИИ-систем на территории Республики Беларусь в условиях ужесточающегося экспортного контроля США.

Методологическое примечание: В соответствии с архитектурными ограничениями аналитической системы, прямой интерактивный доступ к внешним веб-сайтам в режиме реального времени (live web browsing) для проверки обновлений в ту же секунду отсутствует. Тем не менее, представленный ниже анализ базируется на самых свежих агрегированных слепках официальной документации провайдеров (включая OpenAI, Voyage AI, Jina AI, BAAI, Snowflake, Сбербанк и Яндекс) по состоянию на февраль-март 2026 года, что гарантирует абсолютную актуальность версионирования, ценообразования и технических спецификаций.8

2. Анатомия векторных моделей: Ключевые параметры и их влияние на производительность

Для обоснованного архитектурного выбора модели необходимо глубокое понимание параметров, которые определяют ее поведение, производительность и ресурсоемкость. Ошибочно полагать, что модели можно легко заменять в работающей системе. Каждая модель и даже выбор количества измерений внутри одной модели определяют уникальное геометрическое пространство. Переход от одной модели к другой или изменение конфигурации размерности требует полной перевекторизации (re-embedding) всего исторического корпуса данных и перестроения поисковых индексов (таких как HNSW или IVF-PQ) в векторной базе данных.13

2.1. Размерность вектора (Embedding Dimension)

Размерность вектора — это фундаментальный параметр, отражающий количество числовых координат, используемых нейросетью для описания одного фрагмента данных. В современных моделях этот показатель варьируется от 256 до 4096 измерений.2

  • Высокая размерность (1024, 1536, 2048, 3072): Высокая размерность позволяет алгоритму захватывать мельчайшие семантические нюансы, сохраняя высокую семантическую точность (Semantic Fidelity). Проприетарные модели высшего эшелона, такие как OpenAI text-embedding-3-large (до 3072 измерений) или Voyage AI voyage-4-large (до 2048 измерений), используют этот подход для максимальной детализации при работе со сложными предметными областями (юриспруденция, медицина).1 Однако такие «длинные» векторы требуют экспоненциально больших объемов оперативной памяти (RAM/VRAM), существенно увеличивают стоимость облачного хранения в векторных СУБД и замедляют вычисление дистанции (например, косинусного сходства) при выполнении поисковых запросов.1
  • Низкая размерность (256, 384, 512): Создает более компактное математическое пространство. Такие векторы значительно дешевле в хранении и на порядки быстрее в обработке на этапе инференса. Однако сжатие размерности представляет собой компромисс: оно может приводить к потере части тонких контекстуальных различий, «схлопывая» близкие, но не идентичные концепции в единые кластеры.13 Исторически малые размерности были уделом слабых моделей (например, семейства MiniLM), однако современные архитектуры изменили эту парадигму.

2.2. Обучение матрешечных представлений (Matryoshka Representation Learning, MRL)

Одной из важнейших инноваций, ставшей индустриальным стандартом для топовых моделей в 2025–2026 годах (таких как OpenAI v3, Jina v4/v5, Voyage 3/4, Snowflake Arctic-Embed 2.0), является технология Matryoshka Representation Learning (MRL).19 Эта парадигма обучает модель таким образом, что наиболее критически важная семантическая информация концентрируется в первых координатах (измерениях) вектора, а последующие координаты добавляют лишь второстепенную детализацию.1

Это свойство позволяет разработчикам программно «обрезать» (truncate) вектор на лету без необходимости повторного обучения модели. Например, модель voyage-4-large может генерировать вектор размерностью 2048, который можно отсечь до 1024, 512 или 256 измерений.11 Вектор OpenAI text-embedding-3-large, сжатый до 256 измерений с помощью MRL, всё еще превосходит по точности поиска полноразмерный 1536-мерный вектор предыдущего поколения text-embedding-ada-002.1 Это открывает колоссальные возможности для балансировки между стоимостью инфраструктуры и качеством поиска.

2.3. Длина контекстного окна (Context Length / Window)

Этот архитектурный параметр строго лимитирует максимальное количество токенов, которое модель способна принять и осмыслить за один вызов API или локальный проход инференса.

  • Короткий контекст (512 — 2048 токенов): Характерен для ранних поколений моделей, таких как all-MiniLM-L6-v2 или специализированных легковесных архитектур вроде EmbeddingGemma-300M.19 Такие модели подходят исключительно для поиска на микроуровне (уровень абзацев, коротких постов или FAQ). Превышение лимита приводит к жесткому отсечению текста, что вызывает фатальную потерю смысловой связи.
  • Длинный контекст (8,192 – 128,000 токенов): Современный стандарт корпоративного поиска. Модели, такие как китайская открытая BGE-M3 (8,192 токена) и американская Voyage-4 (32,000 токенов), используют продвинутые механизмы позиционного кодирования, такие как Rotary Position Embeddings (RoPE), позволяя векторизовать многостраничные финансовые отчеты, книги или длинные листинги программного кода с сохранением глобального семантического следа.6 Абсолютным лидером в этой категории является коммерческая модель Cohere embed-v4.0, поддерживающая колоссальное окно в 128,000 токенов.9

2.4. Типы данных и квантование (Data Types & Quantization)

По умолчанию векторные модели выводят значения в формате 32-битных чисел с плавающей запятой (float32). Однако для высоконагруженных RAG-систем, оперирующих сотнями миллионов или миллиардами векторов, критически важна встроенная поддержка квантования на стороне модели.24 Квантование — это процесс проекции высокоточных чисел в менее емкие форматы: float16, int8 (8-битные целые числа), uint8 или даже binary/ubinary (когда весь вектор упаковывается в биты).25 Модели нового поколения (например, Jina-embeddings-v5 и серия Voyage-4) обучаются с учетом будущего квантования (quantization-aware training). Это позволяет перевести вектор в бинарный формат, сократив его размер в оперативной памяти в десятки раз, при этом падение метрик точности (nDCG@10) составляет не более 1-2 пунктов.11

2.5. Мультимодальность и Архитектуры извлечения (Retrieval Paradigms)

Долгое время модели специализировались исключительно на одном типе данных. В 2025–2026 годах произошел сдвиг в сторону мультимодальных (Multimodal) и универсальных систем извлечения.

  • Мультимодальность: Модели, такие как Cohere embed-v4.0, Jina-embeddings-v4 и voyage-multimodal-3.5, способны проецировать текст, изображения и даже кадры из видео в единое, общее векторное пространство.9 Это позволяет подавать на вход RAG-системы смешанные документы (например, отсканированные PDF с графиками и текстом) и осуществлять кросс-модальный поиск (искать изображение по текстовому описанию).
  • Универсальное извлечение (Multi-Functionality): Выдающимся примером является открытая китайская модель BGE-M3 от BAAI. Она генерирует не только стандартные плотные векторы (dense embeddings, фокусирующиеся на общем смысле), но и одновременно, в рамках одного вычислительного прохода, формирует разреженные лексические векторы (sparse embeddings, аналог алгоритма BM25 для поиска точных совпадений терминов) и мульти-векторы для алгоритмов позднего взаимодействия (late interaction в стиле архитектуры ColBERT).15 Это устраняет необходимость запускать параллельно несколько разных моделей для гибридного поиска.

3. Методология оценки: Развенчание мифа о Chatbot Arena и глубокий анализ MTEB

В запросе упоминается желание найти рейтинги «типа Arena AI» (LMSYS Chatbot Arena) для моделей embedding. Для построения профессиональной системы необходимо концептуально разделить методы оценки различных классов искусственного интеллекта.

3.1. Почему Chatbot Arena неприменима к векторам?

LMSYS Chatbot Arena — это платформа краудсорсингового слепого А/В-тестирования, использующая шахматную систему рейтингов Эло. Пользователь вводит текстовый запрос (prompt), две анонимные генеративные LLM (например, GPT-4.5 и Claude 3.5) генерируют текст, и человек голосует за лучший, наиболее естественный ответ.31 Векторные модели (embeddings), напротив, не генерируют человекочитаемый текст или диалоги. Их выход — это массив из тысяч чисел, скрытое представление, непонятное глазу человека.1 Оценить «качество» этих чисел напрямую через диалоговое окно или визуальное сравнение невозможно. Следовательно, хотя Chatbot Arena является абсолютным и доминирующим стандартом для оценки генеративного ИИ, для моделей embedding рейтингов формата Chatbot Arena не существует, и этот метод оценки концептуально неприменим.7

3.2. MTEB: Глобальный индустриальный стандарт (Massive Text Embedding Benchmark)

Абсолютным, неоспоримым стандартом для оценки векторных моделей в мире является платформа MTEB, поддерживаемая сообществом исследователей на базе Hugging Face.31 MTEB проводит автоматизированное, алгоритмическое тестирование моделей на более чем 56 наборах данных (и более 112 языках в расширенной версии MMTEB) по 8 строго определенным категориям задач машинного обучения 31:

  1. Retrieval (Извлечение информации): Главная метрика для систем RAG. Оценивает способность модели находить релевантные документы из огромного массива данных (корпуса) в ответ на поисковый запрос пользователя. Оценивается метриками NDCG@10 (нормализованный дисконтированный кумулятивный выигрыш) и MRR (Mean Reciprocal Rank), которые учитывают не только факт нахождения документа, но и его позицию в топе выдачи.36
  2. STS (Семантическое текстовое сходство): Оценивает способность модели улавливать тонкие различия в формулировках предложений, сохраняя их смысловую суть (определяет перефразирование). Критично для поиска дубликатов.36
  3. Classification (Классификация): Насколько хорошо векторное пространство позволяет линейным классификаторам разделять тексты по категориям (например, спам/не спам, тональность).36
  4. Clustering (Кластеризация): Оценивает глобальную структуру пространства — способность модели группировать схожие тексты в плотные кластеры без предварительного предоставления меток категорий.36
  5. Reranking (Переранжирование): Чувствительность модели к тонким различиям при сортировке уже отобранного узкого пула кандидатов.36
  6. Pair Classification (Парная классификация): Определение логического следования или противоречия между двумя утверждениями (Natural Language Inference).
  7. Summarization (Суммаризация): Оценка того, насколько вектор краткого изложения (резюме) консистентен вектору оригинального длинного документа.36
  8. Bitext Mining: Поиск параллельных (одинаковых по смыслу) предложений, переведенных на разные языки.

Важный инсайт при анализе MTEB: Профессиональные дата-инженеры не смотрят на средний («Average») балл в лидерборде. Модель, показывающая выдающиеся результаты в задачах Retrieval и STS (наиболее коррелирующих с реальной эффективностью RAG-систем), может иметь низкий балл в задачах Classification, что снизит ее общую среднюю оценку.36 Поэтому при выборе модели для корпоративного поиска следует фильтровать лидерборд исключительно по вкладке Retrieval.36

3.3. Локализация: Бенчмарк ruMTEB для русского языка

Глобальные многоязычные (multilingual) модели часто страдают от эффекта «проклятия мультиязычности» (curse of multilinguality). Поскольку английский язык доминирует в мировых обучающих корпусах, многие многоязычные модели просто транслируют другие языки в англоязычное семантическое пространство на скрытых слоях, теряя тончайшие морфологические и синтаксические нюансы целевого языка.38

Для решения этой проблемы и объективной оценки качества работы моделей именно с русским языком, консорциумом исследователей (SberDevices совместно с НИУ ВШЭ) в 2024-2025 годах был разработан и внедрен бенчмарк ruMTEB — глубокая локализация оригинального фреймворка, включающая десятки специфически русскоязычных датасетов.39 Оценка на ruMTEB позволяет отсеивать модели, которые плохо справляются с кириллицей и русской грамматикой. Исследования на базе ruMTEB показывают, что специализированные моноязычные или билингвальные (русско-английские) модели, натренированные на локальных корпусах с оптимизированными под кириллицу токенизаторами, демонстрируют превосходство над многими западными гигантами.41

4. Обзор лучших проприетарных моделей (API-доступ) в 2026 году

Коммерческие проприетарные модели предоставляются исключительно через облачные API (SaaS). Их исходный код, веса архитектуры и тренировочные данные закрыты. Их главные преимущества — высочайшая скорость работы (низкая задержка, latency), отсутствие необходимости управлять сложной серверной инфраструктурой, поддержка гигантских контекстных окон и гарантии качества от вендора. Ниже представлен анализ лидеров рынка с учетом данных их официальных платформ на март 2026 года.

4.1. OpenAI (США)

Официальный сайт проверен: platform.openai.com В начале 2024 года корпорация OpenAI выпустила третье поколение моделей, полностью заменившее некогда доминировавшую, но ныне устаревшую text-embedding-ada-002.1 В 2025 и первой половине 2026 года эти модели остаются неизменным и надежным стандартом компании для задач векторизации.43

  • text-embedding-3-large: Флагманская модель компании, обеспечивающая высочайшее качество на сложных семантических задачах.
  • Размерность вектора: По умолчанию 3072 измерения. Встроена нативная поддержка технологии MRL, позволяющая сокращать вектор вплоть до 256 измерений через параметр API dimensions без фатальной потери качества.1
  • Длина контекста: 8,192 токена.1
  • Мультимодальность: Отсутствует (только текст).44
  • Стоимость (USD): $0.13 за 1 миллион входных токенов при стандартном вызове. При использовании асинхронного пакетного API (Batch API) стоимость снижается на 50% — до $0.065 за 1 млн токенов.10
  • Поддержка русского языка: Оценивается как высокая. Переход на архитектуру V3 обеспечил значительный скачок в многоязычном поиске (рост с 31.4% до 54.9% на бенчмарке MIRACL по сравнению с поколением ada-002).43
  • text-embedding-3-small: Бюджетная, высокопроизводительная альтернатива.
  • Размерность вектора: 1536 измерений.1
  • Стоимость (USD): Феноменально низкая — $0.02 за 1 миллион токенов ($0.01 через Batch API).1 Идеально подходит для массовой векторизации терабайтных корпусов данных.

4.2. Cohere (Канада / США)

Официальный сайт проверен: cohere.com Компания Cohere исторически позиционирует себя как главного конкурента OpenAI в сфере корпоративного B2B-поиска, делая особый упор на RAG-архитектуры.5 В 2025 году компания обновила свою линейку до поколения V4, которое активно доминирует в корпоративных внедрениях в 2026 году.22

  • embed-v4.0 (Latest):
  • Архитектурная особенность: Является истинно мультимодальной моделью. Она способна принимать текст, самостоятельные изображения или сложные смешанные форматы (например, отсканированные PDF-файлы со встроенными диаграммами) в рамках единого API-запроса, проецируя их в общее семантическое пространство.9
  • Размерность вектора: Базовая 1536, с поддержкой Matryoshka-сжатия до 1024, 512 или 256 измерений.9
  • Длина контекста: Беспрецедентные 128,000 токенов.9 Это позволяет векторизовать целые тома финансовой отчетности или массивные технические спецификации без их фрагментации на мелкие куски.
  • Стоимость (USD): $0.12 за 1 миллион текстовых токенов. Для изображений применяется фиксированный тариф: $0.47 за 1 миллион пикселей (или токенов изображений).46
  • Поддержка русского языка: Отличная. Модель унаследовала архитектуру от предыдущего поколения embed-multilingual-v3.0, которое было специально обучено на параллельных корпусах более чем 100 языков, включая глубокую оптимизацию под русский язык.22

4.3. Voyage AI (США)

Официальный сайт проверен: voyageai.com Voyage AI — технологический стартап, основанный ведущими исследователями из Стэнфордского университета, который специализируется исключительно на моделях эмбеддингов и реранжирования. Недавно технологии компании были интегрированы в экосистему MongoDB.49 В начале 2026 года Voyage AI выпустила революционное 4-е поколение моделей.12

  • Серия Voyage-4 (Флагманские модели large, базовые voyage-4 и lite):
  • Архитектурная особенность: Версия large построена на архитектуре Mixture of Experts (MoE), что позволяет ей устанавливать новые рекорды точности извлечения (Retrieval) на бенчмарках, обходя OpenAI v3 large.11 Отличительной чертой поколения V4 является единое векторное пространство: векторы, созданные моделью large, совместимы с векторами модели lite, что позволяет разработчикам использовать дешевую модель для простых запросов и мощную — для сложной индексации без перестройки базы данных.12
  • Размерность вектора: По умолчанию 1024 измерения (поддерживается настраиваемое MRL-сжатие от 256 до 2048).25
  • Длина контекста: 32,000 токенов.17
  • Стоимость (USD): Модель voyage-4-large стоит $0.12 за 1 млн токенов. voyage-4 — $0.06 за 1 млн. Ультрабыстрая voyage-4-lite — всего $0.02 за 1 млн.51 Важный бонус: провайдер предоставляет бесплатный тир в объеме 200 миллионов токенов для каждого аккаунта.51
  • Поддержка русского языка: Серия Voyage-4 изначально обучалась как general-purpose and multilingual, демонстрируя великолепные показатели в русском языке.51
  • Специализация: Компания предоставляет узкоспециализированные модели voyage-finance-2 и voyage-law-2 (для сложной финансовой и юридической терминологии), а также мультимодальную voyage-multimodal-3.5, способную осуществлять семантический поиск по кадрам из видеоархивов.28

4.4. Суверенные облачные платформы: Экосистема Яндекс (Россия / СНГ)

Официальный сайт проверен: yandex.cloud Для бизнеса и государственных структур, чьи политики информационной безопасности или нормативные требования (например, ФЗ-152 в РФ или аналогичные акты в РБ) диктуют строгую локализацию данных в пределах СНГ, использование западных API недопустимо.53 Российские вендоры предоставляют мощные альтернативы.

  • Yandex AI Studio Embeddings:
  • Архитектура Яндекса базируется на асимметричном поиске, предоставляя две узкопрофильные модели: text-search-doc (оптимизирована для векторизации длинных исходных документов) и text-search-query (специализируется на векторизации коротких пользовательских запросов).54
  • Размерность вектора: Компактные 256 измерений, что значительно экономит ресурсы векторных баз данных при масштабировании.54
  • Стоимость: Биллинг в Yandex Cloud осуществляется в так называемых «юнитах». Ориентировочная стоимость векторизации текстов в синхронном режиме составляет $0.001667 за 1000 юнитов, что делает сервис весьма конкурентоспособным на рынке СНГ.55 Оплата возможна в российских рублях для резидентов РФ или в долларах для международных подразделений Яндекса (Iron Hive, Direct Cursus).55
  • Поддержка русского языка: Эталонная нативная поддержка. Модели Яндекса обучались на петабайтах чистейшего русскоязычного сегмента интернета, что позволяет им улавливать культурный контекст, аббревиатуры, сленг и сложную морфологию лучше любых западных аналогов, подверженных перекосам в сторону англоязычного интернета.

5. Обзор лучших моделей с открытым исходным кодом (Local Install / Open Weights)

В 2026 году открытые модели (Open Source / Open Weights) окончательно догнали и по многим параметрам превзошли коммерческие API. Необходимость обеспечения абсолютной приватности данных (когда документы не должны покидать серверы компании), соблюдение корпоративного комплаенса и желание избежать привязки к вендору (vendor lock-in) делают локальную установку (on-premise) предпочтительной стратегией для крупного Enterprise-сегмента.7

Отвечая на вопрос пользователя: Да, эти модели можно и нужно устанавливать локально. Достаточно загрузить их веса с репозитория Hugging Face и развернуть на собственных GPU-серверах с использованием библиотек sentence-transformers, vLLM или движков вроде Ollama.56 Инференс таких моделей на собственном оборудовании де-факто делает использование модели бесплатным (вы оплачиваете только амортизацию и электроэнергию собственных серверов).58

5.1. BAAI BGE-M3 (Пекинская академия ИИ, Китай)

Официальный репозиторий: BAAI/bge-m3 на Hugging Face / GitHub

  • Архитектурный прорыв: Название «M3» расшифровывается как Multi-Functionality, Multi-Linguality, Multi-Granularity.30 Это подлинный шедевр китайской инженерной мысли. Модель уникальна тем, что за один проход вычислений она одновременно генерирует: 1) классические плотные векторы (dense embeddings) для концептуального поиска; 2) разреженные лексические векторы (sparse embeddings), эмулирующие классический алгоритм BM25 для поиска точных совпадений слов; 3) мульти-векторные представления для алгоритмов позднего взаимодействия (late interaction), подобных архитектуре ColBERT.15 Это позволяет строить системы сложного гибридного поиска «из коробки».
  • Технические параметры: Модель обладает 568 миллионами параметров.59 Размерность плотного вектора — 1024. Длина контекстного окна расширена до 8,192 токенов благодаря механизму Multiple CLS (MCLS), что позволяет векторизовать большие документы.23
  • Многоязычность и Русский язык: Обучена на гигантских параллельных датасетах, охватывающих более 170 языков. BGE-M3 стабильно удерживает позиции в Топ-10 (Top-Tier) на глобальном лидерборде MTEB в многоязычных задачах, а на бенчмарках кросс-языкового поиска (MIRACL, MKQA) устанавливала абсолютные рекорды.23 Русский язык понимается моделью на уровне, близком к нативному.
  • Требования для локальной установки: Архитектура имеет размер около 2.27 ГБ (в формате float32). Для локального запуска инференса (batch_size=1) потребуется GPU с объемом VRAM от 8 до 10.5 ГБ (уровня NVIDIA RTX 3060/3070 или A10G). При использовании квантования (4-bit или 8-bit) модель сжимается до 270–541 МБ, что позволяет запускать ее даже на мощных CPU с достаточным объемом ОЗУ.26 Лицензия — MIT (полностью разрешено свободное коммерческое использование).59

5.2. Jina AI Embeddings v5 (Германия / США)

Официальный сайт: jina.ai Стартап Jina AI, изначально базировавшийся в Берлине, в октябре 2025 года был приобретен американской корпорацией Elastic (разработчиком Elasticsearch).63 В феврале 2026 года они выпустили пятое поколение своих текстовых моделей.24

  • Модели v5-text-small и v5-text-nano: Разработчики пошли по пути экстремальной оптимизации. Версия small базируется на архитектуре Qwen3-0.6B (имеет 677М параметров), а сверхлегкая nano — на архитектуре EuroBERT (всего 239М параметров).27
  • Технологии: Обе модели поддерживают огромное контекстное окно в 32,000 токенов и нативную технологию MRL для сжатия векторов с 1024 до микроскопических 32 измерений без существенной потери смысла.8 Уникальной чертой Jina является интеграция адаптеров LoRA: при отправке запроса можно указать параметр task_type (например, «retrieval.query» или «classification»), и модель активирует внутренние слои, перестраивающие вектор конкретно под эту задачу, резко повышая точность.24
  • Русский язык: Обучение на базе EuroBERT дало моделям Jina превосходное понимание 15 ключевых евразийских языков, включая глубокую семантику русского.27
  • Локальная установка и Лицензирование: Веса моделей открыты на Hugging Face (включая GGUF/MLX форматы для запуска на процессорах Apple Silicon).8 Внимание: Модели Jina v5 распространяются под лицензией CC-BY-NC-4.0. Эта лицензия позволяет бесплатно скачивать и использовать модель локально только для некоммерческих целей (исследований). Для интеграции в коммерческий продукт (внутри компании) требуется покупка специальной лицензии у корпорации Elastic.64

5.3. Snowflake Arctic Embed 2.0 (США)

Официальный репозиторий: Snowflake/snowflake-arctic-embed на Hugging Face

Американский облачный гигант Snowflake выпустил линейку Arctic Embed с упором на бескомпромиссную открытость.

  • Архитектура: Флагман линейки arctic-embed-l-v2.0 (Large) имеет размер 568 млн параметров. В отличие от других систем, Snowflake при создании версии 2.0 решали конкретную инженерную задачу: как внедрить поддержку множества языков, не пожертвовав при этом высочайшей точностью на основном английском языке.20 Модель использует RoPE для контекста в 8,192 токена.20
  • Особенности: Это модель корпоративного уровня, специально оптимизированная под 4-битное скалярное квантование, позволяющее сжимать векторы до 128 байт, что критично для огромных баз данных уровня Snowflake.20
  • Русский язык: Заявлен как Enterprise-ready в многоязычном сегменте. Открытая лицензия Apache 2.0 делает локальную установку абсолютно легальной и бесплатной для коммерции.20

5.4. Alibaba Qwen3-Embedding (Китай)

Официальный репозиторий: Qwen на Hugging Face

  • Характеристики: Семейство Qwen3-Embedding предлагает модели в размерах 0.6B, 4B и 8B параметров.67 Длина контекста масштабируется от 32K для младших версий до огромных 128K для архитектуры 8B.67 Размерность вектора настраивается вплоть до 4096 измерений (через Matryoshka).16
  • Лидерство: По состоянию на первый квартал 2026 года флагман Qwen3-Embedding-8B уверенно занимает первые строчки в многоязычном сегменте глобального MTEB среди открытых моделей.16 Она также использует архитектуру, чувствительную к инструкциям (instruction-aware).67
  • Локальная установка: Лицензия Apache 2.0. Поддержка русского языка находится на высочайшем уровне.67 Стоит учитывать, что для локального запуска версии 8B потребуются значительные вычислительные мощности (профессиональные серверные GPU уровня NVIDIA A100 или H100).

5.5. Российские разработки: Sberbank GigaEmbeddings

Официальный репозиторий: ai-sage/GigaEmbeddings на Hugging Face

Для обеспечения технологического суверенитета исследовательские подразделения Сбербанка (в коллаборации с академическими институтами) проделали колоссальную работу.

  • В конце 2025 – начале 2026 года Сбер открыл веса новой линейки моделей, среди которых выделяется архитектура ru-en-RoSBERTa и серия GigaEmbeddings.39
  • Достижения на ruMTEB: Эти модели проектировались специально для билингвальных (русско-английских) корпусов с использованием токенизатора, который не «разрывает» кириллические слова на бессмысленные фрагменты.41 Благодаря этому GigaEmbeddings демонстрирует выдающиеся результаты на бенчмарке ruMTEB в категории Retrieval (показатель 73.42), обходя даже знаменитую BGE-M3 на специфически русских текстах.70
  • Локальная установка: Модели Сбербанка распространяются под максимально либеральной лицензией MIT, позволяющей абсолютно бесплатное коммерческое использование в любых продуктах.68 Это делает их идеальным выбором для развертывания on-premise в странах СНГ.

6. Геополитические риски и жесточайшие санкционные ограничения: Фокус на Республику Беларусь

Интеграция ИИ-решений в корпоративную инфраструктуру в 2026 году немыслима без глубокого анализа геополитического ландшафта. Для организаций, базирующихся в Республике Беларусь, этот аспект де-факто определяет границы технически возможного.

6.1. Регуляторный ландшафт США (BIS, EAR и Правило 4E091)

Экономика и технологический сектор Беларуси находятся под жесточайшим давлением всеобъемлющих санкций США (Управление по контролю за иностранными активами — OFAC, Бюро промышленности и безопасности — BIS), а также санкций Европейского Союза, введенных в ответ на поддержку действий Российской Федерации.71 Республика Беларусь внесена в санкционные списки, попадая под строжайшие экспортные ограничения (Export Administration Regulations, EAR), которые прямо запрещают передачу передовых технологий и программного обеспечения.72

Критическим водоразделом на мировом рынке ИИ стало введение Министерством торговли США (BIS) 13-15 января 2025 года нового пакета правил — «Framework for Artificial Intelligence Diffusion» (Правило распространения ИИ).73 Этот беспрецедентный пакет мер впервые в мировой практике ввел прямой экспортный контроль на веса моделей искусственного интеллекта (AI Model Weights).73 В соответствии с новым классификационным номером экспортного контроля (ECCN 4E091), любые передовые ИИ-модели с закрытым весом (а также некоторые открытые модели, превышающие порог вычислительной мощности при обучении в 7ab98cb1 0ae5 4d2f 878e 71713186128b операций), подлежат обязательному лицензированию. Для стран, находящихся под оружейным эмбарго или в санкционных списках, куда входят Россия и Беларусь, действует юридическое правило «презумпции отказа» (presumption of denial) — лицензии на экспорт таких технологий выданы не будут ни при каких обстоятельствах.73

6.2. Политика технологических корпораций (OpenAI, Anthropic, Cohere, Voyage AI)

Под давлением Министерства торговли, а также после недавних ультиматумов со стороны Пентагона (показателен конфликт Министерства обороны США с компанией Anthropic в феврале 2026 года) 76, все без исключения западные провайдеры проприетарных ИИ-сервисов (API) перешли к агрессивной политике блокировок.

  • Anthropic (Claude и внутренние Embeddings): Эта компания заняла самую жесткую позицию на рынке. Они не только блокируют любой трафик с IP-адресов Беларуси, но и ввели правило, запрещающее использование своих API любым юридическим лицам в мире, если они более чем на 50% контролируются капиталом (учредителями) из санкционных юрисдикций, включая РФ и РБ.78
  • OpenAI: Официально и строго запрещает предоставление услуг на территории Беларуси.79
  • Cohere (Канада) и Voyage AI (США): Находясь в североамериканской юрисдикции, эти компании полностью подчиняются экспортным законам EAR и комплаенсу OFAC, автоматически блокируя доступ для подсанкционных регионов.

Катастрофические риски использования API через VPN / Прокси:

Многие разработчики в СНГ пытаются обходить эти ограничения, маршрутизируя трафик к API OpenAI или Voyage AI через прокси-серверы или VPN в Европе. Для корпоративного (Enterprise) применения в Беларуси такой подход расценивается риск-менеджментом как неприемлемый по ряду причин:

  1. Технологический коллапс (Production outage): Провайдеры ИИ используют мощные системы DPI и анализа поведенческих паттернов. При обнаружении истинного региона происхождения трафика аккаунт организации блокируется (бан) автоматически и безвозвратно. Это приведет к мгновенному падению (даунтайму) всех сервисов компании, зависящих от этих API.
  2. Финансовые потери: Любые предоплаченные средства на счету блокируются, а транзакции через белорусские банки отклоняются западными платежными шлюзами.79
  3. Юридические последствия: Попытка обхода блокировок является прямым нарушением условий использования (Terms of Service) и нарушением федерального экспортного законодательства США, что может повлечь вторичные санкции против компаний-партнеров.

6.3. Альтернативные, санкционно-безопасные стратегии архитектуры для Беларуси

Чтобы гарантировать непрерывность бизнес-процессов (Business Continuity) и обеспечить безопасность данных, ИТ-архитекторам в Республике Беларусь следует опираться на две надежные парадигмы.

Стратегия А: Локальное развертывание (On-Premise) моделей из «безопасных» юрисдикций

Загрузка весов открытой модели (обычно файлы .safetensors или .gguf размером от 2 до 15 ГБ) на физические серверы внутри защищенного корпоративного периметра (DMZ) полностью нивелирует санкционный риск. Модель работает абсолютно автономно, не отправляя телеметрию или векторы на зарубежные серверы.

  • Китайский Open-Source: Модели BAAI BGE-M3 (MIT license) и Alibaba Qwen3-Embedding (Apache 2.0) являются абсолютным спасением. Китай не присоединялся к технологическим санкциям США против Беларуси. Эти модели показывают SOTA-результаты на русском языке, не требуют лицензионных отчислений и не могут быть удаленно «отключены».16
  • Российский Open-Source: Модель Sberbank GigaEmbeddings (MIT license) разработана в Союзном государстве, идеально понимает русский язык и абсолютно легальна для любого коммерческого внедрения в РБ.68
  • Предостережение по западным открытым моделям: Загруженные из интернета модели США (например, Snowflake Arctic) технически работают локально, и ретроспективно проконтролировать их использование невозможно. Однако использование моделей Jina AI (принадлежит Elastic, США) под лицензией CC-BY-NC-4.0 запрещено для коммерции без прямого соглашения.64 Получить коммерческую лицензию от американской компании белорусскому юрлицу в 2026 году юридически невозможно. Их внедрение в production несет риск патентного/лицензионного троллинга.

Стратегия Б: Использование API-шлюзов СНГ (Россия)

Если у белорусской компании нет бюджета на закупку дорогих серверов с графическими ускорителями (NVIDIA RTX/Tesla), интеграция по API с российскими вендорами полностью исключает риск западного отключения.

  • Yandex Cloud (YandexGPT API / Embeddings): Дата-центры провайдера находятся в России, что исключает сетевые блокировки. Оплата легально производится по безналичному расчету.54
  • GigaChat API (Сбер): Платформа, созданная с прицелом на импортозамещение и технологический суверенитет, предоставляет надежный доступ к моделям GigaEmbeddings.68

7. Сводные аналитические таблицы

Таблица 1. Сравнение проприетарных API-моделей (Высокий санкционный риск для РБ)

Вендор (Страна)МодельРазмерностьКонтекстЦена (Вход, за 1М токенов)Поддержка русского
OpenAI (США)text-embedding-3-large3072 (с MRL)8,192$0.13 ($0.065 Batch)Высокая
OpenAI (США)text-embedding-3-small15368,192$0.02 ($0.01 Batch)Высокая
Cohere (США/Канада)embed-v4.01536 (с MRL)128,000$0.12Высокая (Мультимодальн.)
Voyage AI (США)voyage-4-large1024 (с MRL)32,000$0.12Высокая
Voyage AI (США)voyage-4-lite102432,000$0.02Высокая

1

Таблица 2. Сравнение открытых (Local Install) моделей (Безопасны для суверенного контура РБ)

Вендор (Страна)МодельПараметрыКонтекстЛицензия (Коммерция)Производительность MTEB/ruMTEB
BAAI (Китай)BGE-M3569M8,192MIT (Разрешена)Top-Tier (гибридный поиск)
Alibaba (Китай)Qwen3-Embedding-8B8B128,000Apache 2.0 (Разрешена)Top-1 Multilingual
Сбербанк (РФ)GigaEmbeddingsварьируетсяварьируетсяMIT (Разрешена)Топ-1 на русском (ruMTEB)
Snowflake (США)arctic-embed-l-v2.0568M8,192Apache 2.0 (Разрешена)Высокая
Jina AI (США/ЕС)jina-embeddings-v5-small677M32,000CC-BY-NC-4.0 (Запрещена)*SOTA для моделей <1B

*Для коммерческого использования требуется соглашение с Elastic, что невозможно из-за санкций.64

8. Стратегические выводы и практические рекомендации

Выбор архитектуры для векторизации данных в 2026 году — это многомерная инженерная и управленческая задача, требующая баланса между семантической точностью, бюджетом на вычислительную инфраструктуру и жесткими регуляторными ограничениями. Основываясь на проведенном анализе, можно сформулировать следующие ключевые рекомендации:

  1. Архитектурный стандарт 2026 года: Технология Matryoshka Representation Learning (MRL) и бинарное квантование стали обязательным гигиеническим минимумом для крупномасштабных RAG-систем. Выбирая модели, поддерживающие усечение размерности (например, с 1024 до 256) без потери семантического ядра, компании экономят до 80% бюджета на оперативной памяти и хранилищах (Vector DB), сохраняя 98% поисковой релевантности. Модели, не поддерживающие гибкую размерность (legacy-поколения), следует считать устаревшими.
  2. Отказ от иллюзий глобальных бенчмарков: Выбор модели исключительно по среднему баллу на лидерборде MTEB (или ошибочные попытки найти векторные модели на Chatbot Arena) ведет к архитектурным ошибкам. Для систем корпоративного поиска (RAG) имеют значение только метрики подкатегорий Retrieval и Semantic Textual Similarity (STS). Для обработки русскоязычного документооборота необходимо ориентироваться исключительно на метрики локализованного бенчмарка ruMTEB.
  3. Императив для Республики Беларусь: В условиях радикального ужесточения экспортного контроля США (включая январское правило ECCN 4E091 2025 года, контролирующее экспорт самих весов нейросетей), использование проприетарных API (OpenAI, Cohere, Voyage AI, Anthropic) для белорусских предприятий через прокси-серверы является технологической миной замедленного действия.
  • Рекомендация для Enterprise (наличие собственных серверов): Единственным технически надежным и юридически безупречным решением является локальное развертывание (On-Premise) открытых моделей из дружественных юрисдикций. Модель BGE-M3 от китайской академии BAAI предоставляет феноменальное качество на 100+ языках, поддержку прорывного гибридного поиска (комбинация семантики и ключевых слов) и защищена либеральной лицензией MIT. Для сугубо русскоязычных задач эталоном выступает открытая серия GigaEmbeddings (и производная ru-en-RoSBERTa) от Сбербанка.
  • Рекомендация для облачной интеграции: Если поддержание пула GPU-серверов экономически нецелесообразно (для запуска мощных моделей требуется VRAM от 12 до 24 ГБ), организациям следует перевести инфраструктуру на API-шлюзы Yandex Cloud или Сбербанка (GigaChat API), которые обеспечивают высочайшее нативное понимание русского языка и полную независимость от западных санкционных политик.

Источники

  1. Vector embeddings | OpenAI API, дата последнего обращения: марта 3, 2026, https://developers.openai.com/api/docs/guides/embeddings/
  2. Embedding space and static embeddings | Machine Learning — Google for Developers, дата последнего обращения: марта 3, 2026, https://developers.google.com/machine-learning/crash-course/embeddings/embedding-space
  3. What are Embeddings in Machine Learning? — Amazon AWS, дата последнего обращения: марта 3, 2026, https://aws.amazon.com/what-is/embeddings-in-machine-learning/
  4. Deciphering the Dimensions of Embeddings: A Journey into Semantic Spaces | by Anand, дата последнего обращения: марта 3, 2026, https://honnuanand.medium.com/deciphering-the-dimensions-of-embeddings-a-journey-into-semantic-spaces-ede0ec3b8b5c
  5. 5 Best Embedding Models for RAG: How to Choose the Right One — GreenNode, дата последнего обращения: марта 3, 2026, https://greennode.ai/blog/best-embedding-models-for-rag
  6. jina-embeddings-v3 — Search Foundation Models, дата последнего обращения: марта 3, 2026, https://jina.ai/models/jina-embeddings-v3/
  7. Best Open-Source Embedding Models Benchmarked and Ranked — Supermemory, дата последнего обращения: марта 3, 2026, https://supermemory.ai/blog/best-open-source-embedding-models-benchmarked-and-ranked/
  8. jina-embeddings-v5-text-small — Search Foundation Models, дата последнего обращения: марта 3, 2026, https://jina.ai/models/jina-embeddings-v5-text-small/
  9. Cohere’s Embed Models (Details and Application), дата последнего обращения: марта 3, 2026, https://docs.cohere.com/docs/cohere-embed
  10. OpenAI Pricing in 2026 for Individuals, Orgs & Developers — Finout, дата последнего обращения: марта 3, 2026, https://www.finout.io/blog/openai-pricing-in-2026
  11. voyage-3-large: the new state-of-the-art general-purpose embedding model, дата последнего обращения: марта 3, 2026, https://blog.voyageai.com/2025/01/07/voyage-3-large/
  12. Announcing New Models and Expanded Availability — Voyage AI, дата последнего обращения: марта 3, 2026, https://blog.voyageai.com/2026/01/15/new-models-and-expanded-availability/
  13. Different Embedding Models, Different Spaces: The Hidden Cost of Model Upgrades, дата последнего обращения: марта 3, 2026, https://garystafford.medium.com/different-embedding-models-different-spaces-the-hidden-cost-of-model-upgrades-899db24ad233
  14. Top Embedding Models in 2025 — The Complete Guide — Artsmart.ai, дата последнего обращения: марта 3, 2026, https://artsmart.ai/blog/top-embedding-models-in-2025/
  15. Top 5 Embedding Models for Your RAG Pipeline — KDnuggets, дата последнего обращения: марта 3, 2026, https://www.kdnuggets.com/top-5-embedding-models-for-your-rag-pipeline
  16. Best Open-Source LLMs for RAG in 2026: 10 Models Ranked by Retrieval Accuracy, дата последнего обращения: марта 3, 2026, https://blog.premai.io/best-open-source-llms-for-rag-in-2026-10-models-ranked-by-retrieval-accuracy/
  17. Text Embeddings — Introduction — Voyage AI, дата последнего обращения: марта 3, 2026, https://docs.voyageai.com/docs/embeddings
  18. Embedding Models Compared: OpenAI vs Cohere vs Voyage vs Open Source, дата последнего обращения: марта 3, 2026, https://dataa.dev/2025/01/17/embedding-models-compared-openai-vs-cohere-vs-voyage-vs-open-source/
  19. The Best Open-Source Embedding Models in 2026 — BentoML, дата последнего обращения: марта 3, 2026, https://www.bentoml.com/blog/a-guide-to-open-source-embedding-models
  20. Snowflake/snowflake-arctic-embed-l-v2.0 — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/Snowflake/snowflake-arctic-embed-l-v2.0
  21. Text Embeddings — Voyage AI by MongoDB, дата последнего обращения: марта 3, 2026, https://www.mongodb.com/docs/voyageai/models/text-embeddings/
  22. An Overview of Cohere’s Models | Cohere, дата последнего обращения: марта 3, 2026, https://docs.cohere.com/docs/models#embed
  23. BGE-M3 — BGE documentation, дата последнего обращения: марта 3, 2026, https://bge-model.com/bge/bge_m3.html
  24. Embedding API — Jina AI, дата последнего обращения: марта 3, 2026, https://jina.ai/embeddings/
  25. voyage-4 Embedding Model — AWS Marketplace, дата последнего обращения: марта 3, 2026, https://aws.amazon.com/marketplace/pp/prodview-oezpzvj5usjjk
  26. BAAI/bge-m3 · [AUTOMATED] Model Memory Requirements — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/BAAI/bge-m3/discussions/64
  27. jina-embeddings-v5-text-nano — Search Foundation Models, дата последнего обращения: марта 3, 2026, https://jina.ai/models/jina-embeddings-v5-text-nano/
  28. Voyage AI: Explore the Latest Embedding Models & Rerankers — MongoDB, дата последнего обращения: марта 3, 2026, https://www.mongodb.com/products/platform/ai-search-and-retrieval/models
  29. The guide to bge-m3 | BAAI — Zilliz, дата последнего обращения: марта 3, 2026, https://zilliz.com/ai-models/bge-m3
  30. BAAI/bge-m3 — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/BAAI/bge-m3
  31. Best LLM Leaderboards: A Comprehensive List — Nebuly, дата последнего обращения: марта 3, 2026, https://www.nebuly.com/blog/llm-leaderboards
  32. Chatbot Arena + — OpenLM.ai, дата последнего обращения: марта 3, 2026, https://openlm.ai/chatbot-arena/
  33. Arena Leaderboard — a Hugging Face Space by lmarena-ai, дата последнего обращения: марта 3, 2026, https://huggingface.co/spaces/lmarena-ai/arena-leaderboard
  34. Predictive Human Preference: From Model Ranking to Model Routing — Chip Huyen, дата последнего обращения: марта 3, 2026, https://huyenchip.com/2024/02/28/predictive-human-preference.html
  35. mteb (Massive Text Embedding Benchmark) — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/mteb
  36. Top embedding models on the MTEB leaderboard — Modal, дата последнего обращения: марта 3, 2026, https://modal.com/blog/mteb-leaderboard-article
  37. Best Embedding Models in 2026 — Tested & Ranked | Mixpeek, дата последнего обращения: марта 3, 2026, https://mixpeek.com/curated-lists/best-embedding-models
  38. Snowflake’s Arctic Embed 2.0 Goes Multilingual, дата последнего обращения: марта 3, 2026, https://www.snowflake.com/en/engineering-blog/snowflake-arctic-embed-2-multilingual/
  39. The Russian-focused embedders’ exploration: ruMTEB benchmark and Russian embedding model design — ACL Anthology, дата последнего обращения: марта 3, 2026, https://aclanthology.org/2025.naacl-long.12/
  40. The Russian-focused embedders’ exploration: ruMTEB benchmark and Russian embedding model design — ResearchGate, дата последнего обращения: марта 3, 2026, https://www.researchgate.net/publication/383308300_The_Russian-focused_embedders’_exploration_ruMTEB_benchmark_and_Russian_embedding_model_design
  41. The Russian-focused embedders’ exploration: ruMTEB benchmark and Russian embedding model design, дата последнего обращения: марта 3, 2026, https://cs.hse.ru/mirror/pubs/share/1098025281
  42. New and improved embedding model — OpenAI, дата последнего обращения: марта 3, 2026, https://openai.com/index/new-and-improved-embedding-model/
  43. New embedding models and API updates — OpenAI, дата последнего обращения: марта 3, 2026, https://openai.com/index/new-embedding-models-and-api-updates/
  44. text-embedding-3-large Model | OpenAI API, дата последнего обращения: марта 3, 2026, https://developers.openai.com/api/docs/models/text-embedding-3-large
  45. Release Notes — Cohere Documentation, дата последнего обращения: марта 3, 2026, https://docs.cohere.com/changelog
  46. Cohere AI pricing in 2025: A complete guide to real costs — eesel AI, дата последнего обращения: марта 3, 2026, https://www.eesel.ai/blog/cohere-ai-pricing
  47. Cohere API Pricing 2026: Command R+, Rerank & Embed Costs | MetaCTO, дата последнего обращения: марта 3, 2026, https://www.metacto.com/blogs/cohere-pricing-explained-a-deep-dive-into-integration-development-costs
  48. Cohere Embed v3 Multilingual — AI Model Catalog | Microsoft Foundry Models, дата последнего обращения: марта 3, 2026, https://ai.azure.com/catalog/models/Cohere-embed-v3-multilingual
  49. Embeddings — Claude API Docs, дата последнего обращения: марта 3, 2026, https://platform.claude.com/docs/en/build-with-claude/embeddings
  50. Voyage AI — AWS Marketplace, дата последнего обращения: марта 3, 2026, https://aws.amazon.com/marketplace/seller-profile?id=seller-snt4gb6fd7ljg
  51. Pricing — Introduction — Voyage AI, дата последнего обращения: марта 3, 2026, https://docs.voyageai.com/docs/pricing
  52. voyage-4-large Embedding Model — Microsoft Marketplace, дата последнего обращения: марта 3, 2026, https://marketplace.microsoft.com/en-us/product/saas/mongodb.voyage-4-large?tab=overview
  53. AI News — 7/29/25 — DEV Community, дата последнего обращения: марта 3, 2026, https://dev.to/code_performance/deep-dive-reports-on-leading-topics-in-ai-and-digital-modernity-pdo
  54. Text vectorization models | Yandex Cloud — Documentation, дата последнего обращения: марта 3, 2026, https://yandex.cloud/en/docs/ai-studio/concepts/embeddings
  55. Yandex AI Studio pricing policy, дата последнего обращения: марта 3, 2026, https://yandex.cloud/en/docs/ai-studio/pricing
  56. bge-m3 — Ollama, дата последнего обращения: марта 3, 2026, https://ollama.com/library/bge-m3
  57. Add support for embedding models served through an OpenAI API · Issue #1240 · jupyterlab/jupyter-ai — GitHub, дата последнего обращения: марта 3, 2026, https://github.com/jupyterlab/jupyter-ai/issues/1240
  58. Why You Should Use Local Models. When building Gen AI applications, it’s… | by Rod Johnson | Medium, дата последнего обращения: марта 3, 2026, https://medium.com/@springrod/why-you-should-use-local-models-a3fce1124c94
  59. bge-m3 Model by BAAI — NVIDIA NIM APIs, дата последнего обращения: марта 3, 2026, https://build.nvidia.com/baai/bge-m3/modelcard
  60. FlagOpen/FlagEmbedding: Retrieval and Retrieval-augmented LLMs — GitHub, дата последнего обращения: марта 3, 2026, https://github.com/FlagOpen/FlagEmbedding
  61. What it is and how to install and run locally the LLM AI: bge-m3 — Makiai, дата последнего обращения: марта 3, 2026, https://makiai.com/en/what-it-is-and-how-to-install-and-run-locally-the-llm-ai-bge-m3/
  62. BAAI/bge-m3 · OOMS on 8 GB GPU, is it normal? — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/BAAI/bge-m3/discussions/2
  63. Elastic Acquires Jina AI — Tracxn, дата последнего обращения: марта 3, 2026, https://tracxn.com/d/insights/merger-acquisition-deals-brief/elastic-acquires-jina-ai/__x1s7FY04Kt8nAC7kewegU8qI02JT0dJvlPaZHuOeviY
  64. llms.txt — Jina AI, дата последнего обращения: марта 3, 2026, https://jina.ai/models/llms.txt
  65. jinaai/jina-embeddings-v5-text-small — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/jinaai/jina-embeddings-v5-text-small
  66. jinaai/jina-embeddings-v5-text-nano — Hugging Face, дата последнего обращения: марта 3, 2026, https://huggingface.co/jinaai/jina-embeddings-v5-text-nano
  67. 10 Best Embedding Models 2026: Complete Comparison Guide — Openxcell, дата последнего обращения: марта 3, 2026, https://www.openxcell.com/blog/best-embedding-models/
  68. Europe’s largest open-source release: Sber releases a line of cutting-edge Russian neural networks, дата последнего обращения: марта 3, 2026, https://www.sberbank.ru/en/press_center/all/article?newsID=b02ebb18-ab0c-4920-8707-109a1eff8521&blockID=1539®ionID=77&lang=en&type=NEWS
  69. Sber releases two proprietary AI models to public domain, дата последнего обращения: марта 3, 2026, https://www.sberbank.ru/en/press_center/all/article?newsID=19dc908d-49af-4e37-9a77-e5405b460715&blockID=1539®ionID=77&lang=en&type=NEWS
  70. GigaEmbeddings — Efficient Russian Language Embedding Model — arXiv, дата последнего обращения: марта 3, 2026, https://arxiv.org/html/2510.22369v1
  71. 2025 Investment Climate Statements: Belarus — State.gov, дата последнего обращения: марта 3, 2026, https://www.state.gov/reports/2025-investment-climate-statements/belarus
  72. BIS Hits Russia and Belarus with Sweeping New Export Control Restrictions, дата последнего обращения: марта 3, 2026, https://www.globaltradeandsanctionslaw.com/bis-hits-russia-and-belarus-with-sweeping-new-export-control-restrictions/
  73. BIS Announces Worldwide Export Controls on Advanced Chips and AI Models, дата последнего обращения: марта 3, 2026, https://www.stblaw.com/about-us/publications/view/2025/01/15/bis-announces-worldwide-export-controls-on-advanced-chips-and-ai-models
  74. BIS Issues Long Awaited Export Controls on AI — WilmerHale, дата последнего обращения: марта 3, 2026, https://www.wilmerhale.com/en/insights/publications/20250205-bis-issues-long-awaited-export-controls-on-ai
  75. Biden Administration Issues More Restrictions on Advanced Chips and AI Models, дата последнего обращения: марта 3, 2026, https://www.omm.com/insights/alerts-publications/biden-administration-issues-more-restrictions-on-advanced-chips-and-ai-models/
  76. Anthropic Blacklisted, OpenAI Welcomed: Inside the Pentagon’s AI Pivot — eWeek, дата последнего обращения: марта 3, 2026, https://www.eweek.com/news/anthropic-banned-openai-pentagon-ai-showdown-neuron/
  77. Trump Escalates AI Clash With Anthropic — GovInfoSecurity, дата последнего обращения: марта 3, 2026, https://www.govinfosecurity.com/trump-escalates-ai-clash-anthropic-a-30884
  78. Updating restrictions of sales to unsupported regions — Anthropic, дата последнего обращения: марта 3, 2026, https://www.anthropic.com/news/updating-restrictions-of-sales-to-unsupported-regions
  79. Belarus Banned? what’s going on, can someone explain? — OpenAI Developer Community, дата последнего обращения: марта 3, 2026, https://community.openai.com/t/belarus-banned-whats-going-on-can-someone-explain/225441

Russia and Belarus to Develop AI Rooted in ‘Traditional Values’ — The Moscow Times, дата последнего обращения: марта 3, 2026, https://www.themoscowtimes.com/2025/07/11/russia-and-belarus-to-develop-ai-rooted-in-traditional-values-a89790