Perplexity Embeddings API — генерация эмбеддингов для семантического поиска
Вердикт
Перспективная, но не срочная находка. Контекстуализированные эмбеддинги Perplexity теоретически улучшат качество RAG для длинных документов, однако текущий локальный стек (Ollama + ChromaDB) уже работает в продакшене с 80K документами и не стоит денег. Рекомендация: добавить в backlog Exocortex для тестирования в Q2, начав с GDrive-коллекции, и обязательно проверить политику конфиденциальности перед отправкой портфельных данных.
Описание
id: 36582e40-f840-41ab-ab44-2c969762f81f type: web category: exocortex relevance: 5.8 captured: 2026-03-15T19:30:17.581848+00:00
Сценарии использования
Анализ по линзам
Улучшение качества RAG напрямую усиливает Exocortex v2.1 и Intelligence Hub, но не является ключевым блокером для текущих OKR 2026 — локальные эмбеддинги уже работают в продакшене.
Текущий стек (nomic-embed-text + qwen3-embedding:8b на Ollama) бесплатен и работает локально; переход на Perplexity потребует рефакторинга индексаторов Nexus RAG, GDrive-RAG и Telegram-пайплайна, при этом контекстуализированные эмбеддинги (32K контекст) действительно могут улучшить качество поиска по длинным документам.
Инкрементальное улучшение качества поиска — полезно, но не даёт принципиального преимущества по сравнению с текущим локальным решением, которое уже обслуживает 80K документов.
Стоимость минимальна ($0.004-0.05/1M токенов), но добавляется внешняя API-зависимость и данные портфеля начинают покидать локальную сеть — для конфиденциальных документов (контракты, стейкхолдеры) это существенный фактор.
Не срочно — текущая инфраструктура функционирует стабильно; имеет смысл протестировать в Q2 2026 на одной коллекции (например, GDrive) для A/B сравнения качества retrieval.