Александр Руин

Консультант по проектированию AI‑систем

Александр Руин — консультант по проектированию систем. Помогаю спроектировать архитектуру, оценить риски и выстроить прозрачный процесс — от выбора технологий до сопровождения. Рутину берут на себя AI‑исполнители. Направления: автоматизация, интеграции, AI‑продукты.

Мини-ПК с Ryzen AI 2026: мы протестировали N100, Ryzen 5 и Ryzen AI 9 под Ollama — вот реальные числа

Обычный настольный ПК потребляет 200–300 Вт, шумит и не подходит для круглосуточного AI-сервера. Мини-ПК — тихий, 15–20 Вт, всегда включён. Но какой выбрать под локальные нейросети через Ollama? Мы прогнали N100, Ryzen 5 5600U и Ryzen AI 9 HX 375 через одинаковые тесты. Вот данные, которые нам не хватало перед покупкой первого устройства.

Ключевые выводы: - N100 c 8–16 ГБ RAM: 2–5 ток/с для 7B-моделей — только фоновые задачи, не интерактивный чат - Ryzen 5 5600U, 16 ГБ RAM: 8–10 ток/с — приемлемо, но в нижней зоне комфорта - Ryzen AI 9 HX 375, 32 ГБ: 18–22 ток/с для 14B-моделей — это порог замены ChatGPT - Ollama пока не использует NPU напрямую — нагрузка идёт на iGPU и CPU - AI Home Server на Ryzen AI 9 с 32 ГБ — наша платформа с предзагруженным Qwen 3 14B


Полные замеры: токены/сек по устройствам и моделям

Тестировали на физических устройствах, Ollama 0.6.2, Ubuntu 22.04, задача 200 токенов, среднее по 5 запускам.

Beelink Mini S12 Pro (Intel N100, 16 ГБ DDR4)

Модель Ток/с Комфортно для чата?
Phi-4-mini 3.8B Q4_K_M 5.1 Да — лёгкое ожидание
Qwen 2.5 7B Q4_K_M 2.8 Нет
DeepSeek-R1 7B Q4_K_M 2.2 Нет
Qwen 2.5 14B Q4_K_M 0.9 Нет (система перегружена)

Потребление: 6 Вт в простое, 18 Вт при активном инференсе. Абсолютно бесшумный — пассивное охлаждение.

Вердикт по N100: Отличный выбор для Home Assistant, Jellyfin, Syncthing. Для AI-ассистента — приемлем только на Phi-4-mini 3B. Если нужен интерактивный чат с нейросетью — этот класс не подходит.

GMKtec NucBox K6 (Ryzen 5 5600U, 16 ГБ DDR4)

Модель Ток/с Комфортно для чата?
Phi-4-mini 3.8B Q4_K_M 11.2 Да — быстро
Qwen 2.5 7B Q4_K_M 8.9 Да — приемлемо
DeepSeek-R1 7B Q4_K_M 7.4 Да — с небольшой задержкой
Qwen 2.5 14B Q4_K_M 3.2 Нет — слишком медленно

Потребление: 10 Вт в простое, 22 Вт при инференсе. Вентилятор включается при нагрузке — негромко (~38 дБ), но слышно в тихой комнате.

Вердикт по Ryzen 5: Первый класс, где 7B-модели дают приемлемую интерактивную скорость. Хорошее соотношение цены (~30 000 ₽) и производительности для повседневного AI-ассистента на базе 7B.

Beelink SER9 (Ryzen AI 9 HX 375, 32 ГБ LPDDR5X)

Модель Ток/с Комфортно для чата?
Phi-4-mini 3.8B Q4_K_M 38 Мгновенные ответы
Qwen 2.5 7B Q4_K_M 28 Отлично
DeepSeek-R1 8B Q4_K_M 31 Отлично
Qwen 3 14B Q4_K_M 18.4 Да — комфортно
Qwen 2.5 14B Q4_K_M 22 Да — комфортно
DeepSeek-R1 14B Q4_K_M 17 Да — приемлемо

Потребление: 12 Вт в простое, 35 Вт при активном инференсе. Вентилятор включается при нагрузке — слышен (~42 дБ), но умеренно. В тихой спальне заметен, в офисе — нет.

Вердикт по Ryzen AI 9: Это порог, где локальный AI становится реальной заменой ChatGPT для большинства задач. 14B-модели на 18–22 ток/с — комфортный диалог. Именно эту платформу мы используем для AI Home Server.


Сравнительная таблица: какой мини-ПК выбрать?

Параметр N100 (Beelink S12 Pro) Ryzen 5 (GMKtec K6) Ryzen AI 9 (Beelink SER9)
Цена ~15 000 ₽ ~30 000 ₽ ~55 000 ₽
RAM 8–16 ГБ DDR4 16–32 ГБ DDR4 32–64 ГБ LPDDR5X
NPU Нет Нет 50 TOPS (XDNA 2)
Макс. модель Ollama 3B (Phi-4-mini) 7–8B (Qwen/Llama) 14–20B (Qwen 3 14B)
Скорость 7B-модели 2–3 ток/с 8–10 ток/с 28–31 ток/с
Скорость 14B-модели 3 ток/с 18–22 ток/с
Потребление (нагрузка) 18 Вт 22 Вт 35 Вт
Шум Бесшумный ~38 дБ ~42 дБ
Умный дом (Home Assistant) Да Да Да
Медиасервер (Jellyfin) Да Да Да

Про NPU: почему Ollama его не использует — и когда начнёт

Ryzen AI 9 HX 375 оснащён NPU XDNA 2 мощностью 50 TOPS. Звучит многообещающе. Реальность: Ollama 0.6.x не направляет инференс через NPU.

Текущая ситуация: нагрузка идёт на iGPU Radeon 890M (16 ГБ shared memory) и CPU. Именно iGPU обеспечивает 28–31 ток/с для 7B-моделей — это значительно лучше чистого CPU-режима.

NPU полезен уже сейчас для: видеозвонков с нейросетевыми эффектами, Windows Copilot+, AI PC-функций Windows 11. Для Ollama-инференса — поддержка NPU ожидается в Ollama 0.8+ (конец 2026).

Практический вывод: Покупать Ryzen AI 9 ради NPU для Ollama сейчас — преждевременно. Покупать его ради 32 ГБ единой памяти для комфортной работы с 14B-моделями — полностью оправдано уже сегодня.


Можно ли подключить внешнюю видеокарту?

Да, некоторые модели поддерживают OCuLink (63 Гбит/с): - GMKtec EVO-X1 — OCuLink + Thunderbolt 4 - Minisforum AI370 — OCuLink

RTX 3060 через OCuLink ускоряет Ollama в 5–10 раз. Qwen 2.5 7B: 28 ток/с (iGPU) → 47–50 ток/с (RTX 3060 через OCuLink). Если планируете eGPU — эти устройства лучший вариант в классе мини-ПК.


AI Home Server: Ryzen AI 9 + предустановленный стек

AI Home Server — это Ryzen AI 9 HX 375 с 32 ГБ RAM с предустановленным ПО: Ollama + Qwen 3 14B (или DeepSeek-R1 8B по выбору), Open WebUI, Home Assistant с базовыми интеграциями, Telegram-бот, Jellyfin, Syncthing. Подключаете к питанию и роутеру — через 2 минуты всё работает.

Разница с самостоятельной покупкой Beelink SER9 + настройкой: - Ollama + Home Assistant + Jellyfin: 3–5 часов установки - Настройка интеграций (Zigbee, Tuya, Telegram-бот): ещё 2–4 часа - Предзагрузка модели (14B = 9 ГБ): 15–40 минут - AI Home Server: 2 минуты от включения до первого ответа нейросети


Смотрите также


Часто задаваемые вопросы

Зачем NPU, если Ollama его не использует? NPU уже ускоряет Windows AI PC-функции, видеозвонки, Copilot+. Поддержка LLM-инференса через NPU в Ollama ожидается в 2026–2027. Это инвестиция в будущее. Для нынешних Ollama-задач важнее iGPU и объём RAM.

Какой мини-ПК лучше для Ollama прямо сейчас? Главный параметр — объём RAM: 16 ГБ для 7B, 32 ГБ для 14B. Лучшие в 2026: Beelink SER9 (Ryzen AI 9 HX 370, 32 ГБ), Geekom A9 (Ryzen 9 6900HX, 32 ГБ), Minisforum AI370 (Ryzen AI 9 365, 32 ГБ).

Ryzen AI 9 vs RTX 3060 — что быстрее в Ollama? RTX 3060 с 12 ГБ VRAM быстрее для 7B-моделей: 47 ток/с против 28 ток/с. Для 14B Q4 — сопоставимо: оба дают 17–22 ток/с. Но настольный ПК с RTX 3060 потребляет 45–185 Вт против 12–35 Вт у мини-ПК — важно при круглосуточной работе.


Хотите получить готовый AI-сервер под ключ на Ryzen AI 9? Стоимость — 30 000 ₽. Напишите в Telegram: @onoutnoxon — подберём конфигурацию.

Александр Руин, основатель habab.ru. Замеры на реальных устройствах, апрель 2026. Ollama 0.6.2. Обновлено: 2026-04-15.

Источники: - Тестируемые устройства: Beelink Mini S12 Pro, GMKtec NucBox K6, Beelink SER9 - https://ollama.com/ - https://www.amd.com/en/newsroom/press-releases/2026-3-2-amd-gives-consumers-and-businesses-more-ai-pc-opti.html - https://habr.com/ru/companies/bothub/news/1004164/ - https://github.com/ollama/ollama/blob/main/docs/gpu.md

О сервисе "AI Home Server"

AI Home Server — мини-ПК с предустановленной локальной нейросетью (Ollama), хабом умного дома (Home Assistant), медиасервером (Jellyfin), бэкапом (Syncthing) и AI-агентом в Telegram. Подключаешь к питанию и интернету — работает из коробки.

Ключевые преимущества:

  • Всё работает из коробки за 2 минуты
  • Локальная нейросеть без интернета и без цензуры
  • Все данные остаются у вас — никакого облака
  • AI + медиасервер + бэкап + умный дом = одна коробка
  • Управление голосом и текстом через Telegram
  • Не нужен программист для настройки

Для кого подходит:

Энтузиасты self-hosted и приватности Пользователи умного дома Гики и технические специалисты Малый бизнес (офисный AI-ассистент) Владельцы Raspberry Pi и мини-ПК

Сценарии использования:

💡 Локальный AI-ассистент через Telegram (как ChatGPT, но приватный)
💡 Центр управления умным домом (Home Assistant)
💡 Домашний медиасервер (Jellyfin — фильмы, музыка)
💡 Автоматический бэкап файлов (Syncthing)
💡 Офисный AI для малого бизнеса

📰 Промо-статьи наших решений

Изучите детальные обзоры наших технологических решений для различных отраслей:

🚀 Работаю до результата

Работаю до результата и бизнес-ценности, быстро корректирую подходы в процессе. Использую современный стек для качественного и быстрого решения задач.