Инструкция по локальному запуску DeepSeek R1 через Ollama и Open WebUI
Вердикт
Полезная, но рутинная находка — DeepSeek R1 через Ollama добавляет reasoning-модель в уже работающую инфраструктуру. Практическая ценность высокая (всё готово, запуск за минуты), но стратегический импакт невелик, так как портфель уже активно использует локальные LLM. Рекомендация: добавить модель в фоновом режиме и протестировать на задачах UNO Agent.
Описание
id: 67183ed1-8b21-4d29-abc4-09efb36a3b90 type: youtube category: ai_tools relevance: 6.98 captured: 2026-03-15T19:29:18.918187+00:00
Сценарии использования
Анализ по линзам
DeepSeek R1 дополняет инфраструктуру локальных LLM (Exocortex/UNO), но не является приоритетом OKR 2026 — скорее инкрементальное усиление уже существующего стека Ollama.
Инфраструктура уже готова: Ollama на Mac Mini + UNO, Open WebUI доступен — добавить DeepSeek R1 можно за 5 минут одной командой `ollama pull deepseek-r1`.
Локальные LLM уже развёрнуты в портфеле (qwen3, command-r7b, phi4), DeepSeek R1 добавляет reasoning-capability, но это общедоступный инструмент без уникального преимущества.
Минимальный риск: бесплатная модель, никаких зависимостей от облака, единственное ограничение — VRAM на UNO (8GB RTX 2070S) для полной версии, но квантизированные версии работают.
Можно применить немедленно — вся инфраструктура уже на месте, видео полезно как справочник для команды Dev Hub при онбординге.