Александр Руин

Консультант по проектированию AI‑систем

Александр Руин — консультант по проектированию систем. Помогаю спроектировать архитектуру, оценить риски и выстроить прозрачный процесс — от выбора технологий до сопровождения. Рутину берут на себя AI‑исполнители. Направления: автоматизация, интеграции, AI‑продукты.

Ollama в Docker 2026: запуск нейросети в контейнере за 5 минут

Docker — самый удобный способ запустить Ollama: изоляция, одна команда для старта, простое обновление. Образ ollama/ollama поддерживает CPU, NVIDIA GPU и AMD ROCm.

Ключевые факты

  • Образ: ollama/ollama:latest (CPU + CUDA) — ~2 ГБ
  • Порт API: 11434
  • GPU-ускорение: NVIDIA (CUDA), AMD (ROCm), Vulkan
  • Модели в volume — переживают перезапуск контейнера
  • Open WebUI подключается за 1 минуту

Сравнение: нативная установка vs Docker vs AI Home Server

Критерий Нативная установка Docker AI Home Server
Время запуска 10–15 мин 3–5 мин 2 минуты
Изоляция Нет Полная Полная
GPU-ускорение Да Да (NVIDIA Toolkit) Из коробки
Обновление Ручное docker pull Автоматическое
Веб-интерфейс Нет Open WebUI отдельно Включён
Настройка CLI docker-compose.yml Не нужна

3 шага: запуск Ollama в Docker

Шаг 1. Скачай образ

docker pull ollama/ollama

Для GPU установи NVIDIA Container Toolkit и перезапусти Docker.

Шаг 2. Запусти контейнер

CPU:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

С GPU (NVIDIA):

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Скачай модель: docker exec ollama ollama pull llama3.2.

Шаг 3. Подключи веб-интерфейс (Open WebUI)

Создай docker-compose.yml:

services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - "11434:11434"
    volumes:
      - ollama:/root/.ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    depends_on:
      - ollama
volumes:
  ollama:

Запуск: docker compose up -d. Откройте http://localhost:3000 — готово.

Или: всё из коробки за 2 минуты

AI Home Server — мини-ПК с предустановленной Ollama, Open WebUI и Home Assistant. Подключил к питанию — работает без Docker и терминала.

Часто задаваемые вопросы

Можно ли без GPU? Да, CPU-режим работает. Модели до 3B (Phi-3-mini) — комфортно на 8 ГБ RAM.

Сколько места на диске? Образ ~2 ГБ + модели: 3B ~2 ГБ, 7B ~4 ГБ.

Как обновить? docker pull ollama/ollama && docker compose up -d — модели сохраняются.

Работает ли на Mac? Образ работает, но без GPU. На Mac лучше нативная установка или AI Home Server.


CTA: 5 000 ₽/мес или 30 000 ₽ AI Home Server — всё из коробки Статья подготовлена командой habab.ru. Обновлено: 2026-03-05. Источники: - https://hub.docker.com/r/ollama/ollama - https://docs.ollama.com/docker - https://docs.docker.com/guides/rag-ollama/develop/ - https://www.sitepoint.com/ollama-local-llm-production-deployment-docker/ - https://oneuptime.com/blog/post/2026-01-27-ollama-docker/view

О сервисе "AI Home Server"

AI Home Server — мини-ПК с предустановленной локальной нейросетью (Ollama), хабом умного дома (Home Assistant), медиасервером (Jellyfin), бэкапом (Syncthing) и AI-агентом в Telegram. Подключаешь к питанию и интернету — работает из коробки.

Ключевые преимущества:

  • Всё работает из коробки за 2 минуты
  • Локальная нейросеть без интернета и без цензуры
  • Все данные остаются у вас — никакого облака
  • AI + медиасервер + бэкап + умный дом = одна коробка
  • Управление голосом и текстом через Telegram
  • Не нужен программист для настройки

Для кого подходит:

Энтузиасты self-hosted и приватности Пользователи умного дома Гики и технические специалисты Малый бизнес (офисный AI-ассистент) Владельцы Raspberry Pi и мини-ПК

Сценарии использования:

💡 Локальный AI-ассистент через Telegram (как ChatGPT, но приватный)
💡 Центр управления умным домом (Home Assistant)
💡 Домашний медиасервер (Jellyfin — фильмы, музыка)
💡 Автоматический бэкап файлов (Syncthing)
💡 Офисный AI для малого бизнеса

📰 Промо-статьи наших решений

Изучите детальные обзоры наших технологических решений для различных отраслей:

🚀 Работаю до результата

Работаю до результата и бизнес-ценности, быстро корректирую подходы в процессе. Использую современный стек для качественного и быстрого решения задач.