Perplexity выпустила open-source модели эмбеддингов pplx-embed
Вердикт
Релевантная находка для RAG-инфраструктуры портфеля. Контекстные эмбеддинги от Perplexity особенно ценны для многоязычных длинных документов, которых в портфеле большинство. Рекомендую протестировать 0.6B-модель на текущей инфраструктуре до завершения GDrive-RAG индексации — это окно возможности для выбора оптимальной модели без двойной переиндексации.
Описание
id: 51e7028b-0da0-4898-b384-125e97d26720 type: web category: exocortex relevance: 7.0 captured: 2026-03-15T19:30:17.176323+00:00
Сценарии использования
Анализ по линзам
Напрямую усиливает OKR по Exocortex v2.1 и RAG-инфраструктуре — контекстные эмбеддинги улучшат качество семантического поиска по 80K+ документам Nexus RAG и GDrive-RAG.
Модель 0.6B можно развернуть на Mac Mini M4 через Ollama/HuggingFace, 4B — на UNO (RTX 2070 SUPER); потребуется переиндексация коллекций ChromaDB (замена nomic-embed-text и qwen3-embedding).
Контекстный вариант (contextual) даёт преимущество при работе с длинными документами (протоколы, отчёты, контракты), что критично для портфеля с 44 проектами и многоязычным контентом.
Минимальные затраты (open-source, бесплатно), основной риск — время на миграцию: переиндексация 80K документов Nexus + GDrive коллекций может занять 6-12 часов.
Актуально в этом месяце — GDrive-RAG в активной разработке, самое время выбрать оптимальную модель эмбеддингов до завершения индексации.