Perplexity выпустила открытые эмбеддинг-модели pplx-embed
Вердикт
Значимая находка для RAG-инфраструктуры портфеля: open-source модель уровня Voyage/Anthropic под MIT снимает зависимость от платных API и потенциально улучшает качество поиска в Nexus RAG, GDrive-RAG и Telegram Pipeline. Рекомендуется провести бенчмарк 0.6B варианта на UNO в ближайшие 2 недели — если результаты лучше nomic-embed-text, мигрировать все коллекции ChromaDB на pplx-embed как единый стандарт эмбеддингов портфеля.
Описание
id: 694bd6b6-e416-4576-8fb4-648bc8acde53 type: web category: exocortex relevance: 6.8 captured: 2026-03-15T19:30:16.867536+00:00
Сценарии использования
Анализ по линзам
Прямое усиление Exocortex v2.1 и Nexus RAG (80K docs) — качество эмбеддингов определяет точность поиска по всему портфелю из 44 проектов, что является фундаментом для Intelligence Hub (D46).
Модели доступны на Hugging Face под MIT, 0.6B вариант запустится на UNO (RTX 2070 SUPER) через Ollama; потребуется бенчмарк против текущих nomic-embed-text (768d) и qwen3-embedding:8b, а также пересоздание коллекций ChromaDB при смене размерности.
Даёт независимость от платных API (Voyage, OpenAI) для RAG-инфраструктуры — важно при масштабировании GDrive-RAG и Telegram Intelligence Pipeline, но конкурентное преимущество косвенное (инфраструктурное, а не продуктовое).
Минимальный: MIT-лицензия, zero cost; основной риск — 4B-модель может не поместиться в VRAM RTX 2070 SUPER (8GB), потребуется квантизация INT8 или использование 0.6B варианта.
Актуально в этом месяце: можно протестировать на существующей инфраструктуре UNO/Mac Mini параллельно с текущими задачами Exocortex v2.1, без блокировки активных фокусов.