Self-hosted ИИ-агенты для бизнеса: Ollama, OpenWebUI и MCP на вашем сервере
ИИ-агенты — это программные системы, которые самостоятельно принимают решения, используют инструменты и выполняют многошаговые задачи. В отличие от обычных чат-ботов, агенты могут искать информацию в базах данных, вызывать API, создавать файлы и делегировать задачи другим агентам. Ключевое преимущество self-hosted подхода — данные остаются на вашем сервере и не передаются в OpenAI, Anthropic или Google.
Почему self-hosted LLM выгоднее API в 2026 году
Стоимость использования коммерческих API растёт вместе с нагрузкой. GPT-4o стоит $2.50/1M input tokens и $10/1M output tokens. При активном использовании агентов в бизнесе счёт за API легко достигает 500–5000 долларов в месяц. Self-hosted LLM на VDS: фиксированная стоимость сервера, ноль расходов на токены.
Качество открытых моделей в 2026 году сравнялось с коммерческими аналогами во многих задачах. Llama 3.3 70B от Meta, Mistral Large, DeepSeek R1, Qwen 2.5 72B — все доступны бесплатно через Ollama и показывают результаты, сравнимые с GPT-4 на большинстве бизнес-задач: анализ документов, генерация текстов, суммаризация, классификация.
Ollama: локальные языковые модели на VDS
Ollama — наиболее популярный инструмент для запуска языковых моделей на собственном сервере. Он предоставляет OpenAI-совместимый API, что означает: любое приложение, работающее с OpenAI, можно переключить на локальную модель простой сменой base_url. Ollama поддерживает сотни моделей и автоматически управляет их загрузкой и кешированием.
Требования к железу зависят от размера модели. Для 7B-моделей достаточно 8 GB RAM. Для 13B — 16 GB RAM. Для 70B-моделей нужно 48–64 GB RAM или GPU с достаточным VRAM. При отсутствии GPU модели работают на CPU — медленнее, но вполне пригодно для задач с нереальтаймовой обработкой (анализ документов, ночные пакетные задачи).
MCP (Model Context Protocol): стандарт для ИИ-агентов
Model Context Protocol — открытый стандарт, разработанный Anthropic в 2024 году и активно принятый экосистемой в 2025–2026. MCP определяет, как ИИ-агент может взаимодействовать с внешними инструментами: базами данных, файловой системой, API, браузером, редактором кода.
MCP-сервер — это программа, которая «экспортирует» набор инструментов для агента. Например, MCP-сервер для PostgreSQL позволяет агенту выполнять SQL-запросы. MCP-сервер для файловой системы — читать и записывать файлы. Один агент может одновременно использовать десятки MCP-серверов, формируя мощную экосистему инструментов.
Мы настраиваем MCP-инфраструктуру на вашем VDS: устанавливаем MCP-серверы для ваших систем (базы данных, CRM, файловые хранилища), конфигурируем агентов (Claude Desktop, Continue.dev, кастомные агенты через n8n), обеспечиваем безопасную коммуникацию между компонентами.
OpenWebUI: интерфейс ChatGPT для ваших моделей
OpenWebUI — полнофункциональный веб-интерфейс для работы с локальными LLM, по ощущениям близкий к ChatGPT. Поддерживает множественные модели, историю разговоров, загрузку документов (RAG), системные промпты, роли пользователей. Для команд это особенно ценно: можно дать сотрудникам доступ к корпоративному чат-боту с настроенным контекстом, не оплачивая ChatGPT Teams и не передавая данные в США.