Александр Руин

Консультант по проектированию AI‑систем

Александр Руин — консультант по проектированию систем. Помогаю спроектировать архитектуру, оценить риски и выстроить прозрачный процесс — от выбора технологий до сопровождения. Рутину берут на себя AI‑исполнители. Направления: автоматизация, интеграции, AI‑продукты.

Ollama в Docker 2026: запуск нейросети в контейнере за 5 минут

Нативная установка Ollama пачкает хост-систему зависимостями и усложняет обновление. Если у вас уже работают другие Docker-сервисы — Home Assistant, Jellyfin, Nextcloud — логично добавить нейросеть в тот же стек. Один docker compose up -d, один файл конфигурации, полная изоляция. Образ ollama/ollama поддерживает CPU, NVIDIA CUDA и AMD ROCm — переключение одной строкой в compose-файле.

TL;DR: - Образ ollama/ollama:latest весит ~2 ГБ, API слушает на порту 11434 - GPU-ускорение через NVIDIA Container Toolkit — скорость 5–10× выше CPU - docker compose up -d поднимает Ollama + Open WebUI за 3 минуты - Модели хранятся в volume и переживают docker compose down && up - AI Home Server — всё предустановлено, не нужен ни Docker, ни терминал

Ollama: нативная установка vs Docker vs AI Home Server — что выбрать?

Критерий Нативная установка Docker AI Home Server
Время первого запуска 10–15 мин 3–5 мин 2 минуты
Изоляция от системы Нет Полная Полная
GPU-ускорение Да Да (NVIDIA Toolkit) Из коробки
Обновление Ручное (ollama update) docker pull Автоматическое
Веб-интерфейс Нет Open WebUI отдельно Включён
Работа рядом с другими сервисами Конфликты возможны Без конфликтов Без конфликтов

Docker — правильный выбор, если вы уже используете Docker-стек. Нативная установка — проще для первого знакомства. AI Home Server — если не хотите разбираться с контейнерами вообще.

3 шага: запуск Ollama в Docker

Шаг 1. Подготовьте образ и GPU-поддержку

docker pull ollama/ollama

Для GPU установите NVIDIA Container Toolkit:

sudo apt-get install nvidia-container-toolkit
sudo systemctl restart docker

Проверьте: docker run --gpus all nvidia/cuda:12.0-base nvidia-smi — если видите вашу карту, GPU работает в контейнерах.

Шаг 2. Запустите контейнер

CPU (минимальный запуск):

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

С GPU (NVIDIA):

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Загрузите модель: docker exec ollama ollama pull llama3.2

Шаг 3. Добавьте Open WebUI через docker-compose

Создайте файл docker-compose.yml:

services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - "11434:11434"
    volumes:
      - ollama:/root/.ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    depends_on:
      - ollama
volumes:
  ollama:

Запуск: docker compose up -d. Откройте http://localhost:3000 — у вас полноценный AI-чат с локальной нейросетью.

Или: всё из коробки без терминала

AI Home Server — мини-ПК с предустановленными Ollama, Open WebUI и Home Assistant. Подключили к питанию — работает через 2 минуты. Никакого Docker, терминала или конфигурационных файлов.

Смотрите также

Часто задаваемые вопросы

Работает ли без GPU? Да, CPU-режим комфортен для 3B-моделей на 8 ГБ RAM. Phi-4-mini даёт 5–8 токенов/сек на CPU.

Сколько места занимает? Образ — ~2 ГБ. Модели: 3B ~2 ГБ, 7B ~4 ГБ, 14B ~8 ГБ. Хранятся в отдельном Docker volume.

Как обновить без потери моделей? docker pull ollama/ollama && docker compose up -d — volume с моделями сохраняется, обновляется только образ.

Работает ли на Mac с Apple Silicon? Образ работает, но без MPS-ускорения. На Mac лучше нативная установка: Ollama для macOS использует Metal GPU и работает быстрее, чем Docker-контейнер.


Хотите собрать домашний AI-сервер под ключ? Стоимость — 30 000 ₽ за проект. Напишите в Telegram: @onoutnoxon — подберём конфигурацию под ваши задачи.

Статья подготовлена командой habab.ru. Обновлено: 2026-03-05. Источники: - https://hub.docker.com/r/ollama/ollama - https://docs.ollama.com/docker - https://docs.docker.com/guides/rag-ollama/develop/ - https://www.sitepoint.com/ollama-local-llm-production-deployment-docker/ - https://oneuptime.com/blog/post/2026-01-27-ollama-docker/view

О сервисе "AI Home Server"

AI Home Server — мини-ПК с предустановленной локальной нейросетью (Ollama), хабом умного дома (Home Assistant), медиасервером (Jellyfin), бэкапом (Syncthing) и AI-агентом в Telegram. Подключаешь к питанию и интернету — работает из коробки.

Ключевые преимущества:

  • Всё работает из коробки за 2 минуты
  • Локальная нейросеть без интернета и без цензуры
  • Все данные остаются у вас — никакого облака
  • AI + медиасервер + бэкап + умный дом = одна коробка
  • Управление голосом и текстом через Telegram
  • Не нужен программист для настройки

Для кого подходит:

Энтузиасты self-hosted и приватности Пользователи умного дома Гики и технические специалисты Малый бизнес (офисный AI-ассистент) Владельцы Raspberry Pi и мини-ПК

Сценарии использования:

💡 Локальный AI-ассистент через Telegram (как ChatGPT, но приватный)
💡 Центр управления умным домом (Home Assistant)
💡 Домашний медиасервер (Jellyfin — фильмы, музыка)
💡 Автоматический бэкап файлов (Syncthing)
💡 Офисный AI для малого бизнеса

📰 Промо-статьи наших решений

Изучите детальные обзоры наших технологических решений для различных отраслей:

🚀 Работаю до результата

Работаю до результата и бизнес-ценности, быстро корректирую подходы в процессе. Использую современный стек для качественного и быстрого решения задач.