Мини-ПК с Ryzen AI 2026: мы протестировали N100, Ryzen 5 и Ryzen AI 9 под Ollama — вот реальные числа
Обычный настольный ПК потребляет 200–300 Вт, шумит и не подходит для круглосуточного AI-сервера. Мини-ПК — тихий, 15–20 Вт, всегда включён. Но какой выбрать под локальные нейросети через Ollama? Мы прогнали N100, Ryzen 5 5600U и Ryzen AI 9 HX 375 через одинаковые тесты. Вот данные, которые нам не хватало перед покупкой первого устройства.
Ключевые выводы: - N100 c 8–16 ГБ RAM: 2–5 ток/с для 7B-моделей — только фоновые задачи, не интерактивный чат - Ryzen 5 5600U, 16 ГБ RAM: 8–10 ток/с — приемлемо, но в нижней зоне комфорта - Ryzen AI 9 HX 375, 32 ГБ: 18–22 ток/с для 14B-моделей — это порог замены ChatGPT - Ollama пока не использует NPU напрямую — нагрузка идёт на iGPU и CPU - AI Home Server на Ryzen AI 9 с 32 ГБ — наша платформа с предзагруженным Qwen 3 14B
Полные замеры: токены/сек по устройствам и моделям
Тестировали на физических устройствах, Ollama 0.6.2, Ubuntu 22.04, задача 200 токенов, среднее по 5 запускам.
Beelink Mini S12 Pro (Intel N100, 16 ГБ DDR4)
| Модель | Ток/с | Комфортно для чата? |
|---|---|---|
| Phi-4-mini 3.8B Q4_K_M | 5.1 | Да — лёгкое ожидание |
| Qwen 2.5 7B Q4_K_M | 2.8 | Нет |
| DeepSeek-R1 7B Q4_K_M | 2.2 | Нет |
| Qwen 2.5 14B Q4_K_M | 0.9 | Нет (система перегружена) |
Потребление: 6 Вт в простое, 18 Вт при активном инференсе. Абсолютно бесшумный — пассивное охлаждение.
Вердикт по N100: Отличный выбор для Home Assistant, Jellyfin, Syncthing. Для AI-ассистента — приемлем только на Phi-4-mini 3B. Если нужен интерактивный чат с нейросетью — этот класс не подходит.
GMKtec NucBox K6 (Ryzen 5 5600U, 16 ГБ DDR4)
| Модель | Ток/с | Комфортно для чата? |
|---|---|---|
| Phi-4-mini 3.8B Q4_K_M | 11.2 | Да — быстро |
| Qwen 2.5 7B Q4_K_M | 8.9 | Да — приемлемо |
| DeepSeek-R1 7B Q4_K_M | 7.4 | Да — с небольшой задержкой |
| Qwen 2.5 14B Q4_K_M | 3.2 | Нет — слишком медленно |
Потребление: 10 Вт в простое, 22 Вт при инференсе. Вентилятор включается при нагрузке — негромко (~38 дБ), но слышно в тихой комнате.
Вердикт по Ryzen 5: Первый класс, где 7B-модели дают приемлемую интерактивную скорость. Хорошее соотношение цены (~30 000 ₽) и производительности для повседневного AI-ассистента на базе 7B.
Beelink SER9 (Ryzen AI 9 HX 375, 32 ГБ LPDDR5X)
| Модель | Ток/с | Комфортно для чата? |
|---|---|---|
| Phi-4-mini 3.8B Q4_K_M | 38 | Мгновенные ответы |
| Qwen 2.5 7B Q4_K_M | 28 | Отлично |
| DeepSeek-R1 8B Q4_K_M | 31 | Отлично |
| Qwen 3 14B Q4_K_M | 18.4 | Да — комфортно |
| Qwen 2.5 14B Q4_K_M | 22 | Да — комфортно |
| DeepSeek-R1 14B Q4_K_M | 17 | Да — приемлемо |
Потребление: 12 Вт в простое, 35 Вт при активном инференсе. Вентилятор включается при нагрузке — слышен (~42 дБ), но умеренно. В тихой спальне заметен, в офисе — нет.
Вердикт по Ryzen AI 9: Это порог, где локальный AI становится реальной заменой ChatGPT для большинства задач. 14B-модели на 18–22 ток/с — комфортный диалог. Именно эту платформу мы используем для AI Home Server.
Сравнительная таблица: какой мини-ПК выбрать?
| Параметр | N100 (Beelink S12 Pro) | Ryzen 5 (GMKtec K6) | Ryzen AI 9 (Beelink SER9) |
|---|---|---|---|
| Цена | ~15 000 ₽ | ~30 000 ₽ | ~55 000 ₽ |
| RAM | 8–16 ГБ DDR4 | 16–32 ГБ DDR4 | 32–64 ГБ LPDDR5X |
| NPU | Нет | Нет | 50 TOPS (XDNA 2) |
| Макс. модель Ollama | 3B (Phi-4-mini) | 7–8B (Qwen/Llama) | 14–20B (Qwen 3 14B) |
| Скорость 7B-модели | 2–3 ток/с | 8–10 ток/с | 28–31 ток/с |
| Скорость 14B-модели | — | 3 ток/с | 18–22 ток/с |
| Потребление (нагрузка) | 18 Вт | 22 Вт | 35 Вт |
| Шум | Бесшумный | ~38 дБ | ~42 дБ |
| Умный дом (Home Assistant) | Да | Да | Да |
| Медиасервер (Jellyfin) | Да | Да | Да |
Про NPU: почему Ollama его не использует — и когда начнёт
Ryzen AI 9 HX 375 оснащён NPU XDNA 2 мощностью 50 TOPS. Звучит многообещающе. Реальность: Ollama 0.6.x не направляет инференс через NPU.
Текущая ситуация: нагрузка идёт на iGPU Radeon 890M (16 ГБ shared memory) и CPU. Именно iGPU обеспечивает 28–31 ток/с для 7B-моделей — это значительно лучше чистого CPU-режима.
NPU полезен уже сейчас для: видеозвонков с нейросетевыми эффектами, Windows Copilot+, AI PC-функций Windows 11. Для Ollama-инференса — поддержка NPU ожидается в Ollama 0.8+ (конец 2026).
Практический вывод: Покупать Ryzen AI 9 ради NPU для Ollama сейчас — преждевременно. Покупать его ради 32 ГБ единой памяти для комфортной работы с 14B-моделями — полностью оправдано уже сегодня.
Можно ли подключить внешнюю видеокарту?
Да, некоторые модели поддерживают OCuLink (63 Гбит/с): - GMKtec EVO-X1 — OCuLink + Thunderbolt 4 - Minisforum AI370 — OCuLink
RTX 3060 через OCuLink ускоряет Ollama в 5–10 раз. Qwen 2.5 7B: 28 ток/с (iGPU) → 47–50 ток/с (RTX 3060 через OCuLink). Если планируете eGPU — эти устройства лучший вариант в классе мини-ПК.
AI Home Server: Ryzen AI 9 + предустановленный стек
AI Home Server — это Ryzen AI 9 HX 375 с 32 ГБ RAM с предустановленным ПО: Ollama + Qwen 3 14B (или DeepSeek-R1 8B по выбору), Open WebUI, Home Assistant с базовыми интеграциями, Telegram-бот, Jellyfin, Syncthing. Подключаете к питанию и роутеру — через 2 минуты всё работает.
Разница с самостоятельной покупкой Beelink SER9 + настройкой: - Ollama + Home Assistant + Jellyfin: 3–5 часов установки - Настройка интеграций (Zigbee, Tuya, Telegram-бот): ещё 2–4 часа - Предзагрузка модели (14B = 9 ГБ): 15–40 минут - AI Home Server: 2 минуты от включения до первого ответа нейросети
Смотрите также
- Ollama замеры: 6 конфигураций железа
- Ollama модели 2026: полные замеры по задачам
- Лучшие локальные нейросети 2026: ТОП-10
- Как сделать домашний сервер
- NAS-сервер для дома с AI
Часто задаваемые вопросы
Зачем NPU, если Ollama его не использует? NPU уже ускоряет Windows AI PC-функции, видеозвонки, Copilot+. Поддержка LLM-инференса через NPU в Ollama ожидается в 2026–2027. Это инвестиция в будущее. Для нынешних Ollama-задач важнее iGPU и объём RAM.
Какой мини-ПК лучше для Ollama прямо сейчас? Главный параметр — объём RAM: 16 ГБ для 7B, 32 ГБ для 14B. Лучшие в 2026: Beelink SER9 (Ryzen AI 9 HX 370, 32 ГБ), Geekom A9 (Ryzen 9 6900HX, 32 ГБ), Minisforum AI370 (Ryzen AI 9 365, 32 ГБ).
Ryzen AI 9 vs RTX 3060 — что быстрее в Ollama? RTX 3060 с 12 ГБ VRAM быстрее для 7B-моделей: 47 ток/с против 28 ток/с. Для 14B Q4 — сопоставимо: оба дают 17–22 ток/с. Но настольный ПК с RTX 3060 потребляет 45–185 Вт против 12–35 Вт у мини-ПК — важно при круглосуточной работе.
Хотите получить готовый AI-сервер под ключ на Ryzen AI 9? Стоимость — 30 000 ₽. Напишите в Telegram: @onoutnoxon — подберём конфигурацию.
Александр Руин, основатель habab.ru. Замеры на реальных устройствах, апрель 2026. Ollama 0.6.2. Обновлено: 2026-04-15.
Источники: - Тестируемые устройства: Beelink Mini S12 Pro, GMKtec NucBox K6, Beelink SER9 - https://ollama.com/ - https://www.amd.com/en/newsroom/press-releases/2026-3-2-amd-gives-consumers-and-businesses-more-ai-pc-opti.html - https://habr.com/ru/companies/bothub/news/1004164/ - https://github.com/ollama/ollama/blob/main/docs/gpu.md
О сервисе "AI Home Server"
AI Home Server — мини-ПК с предустановленной локальной нейросетью (Ollama), хабом умного дома (Home Assistant), медиасервером (Jellyfin), бэкапом (Syncthing) и AI-агентом в Telegram. Подключаешь к питанию и интернету — работает из коробки.
Ключевые преимущества:
- Всё работает из коробки за 2 минуты
- Локальная нейросеть без интернета и без цензуры
- Все данные остаются у вас — никакого облака
- AI + медиасервер + бэкап + умный дом = одна коробка
- Управление голосом и текстом через Telegram
- Не нужен программист для настройки
Для кого подходит:
Сценарии использования:
📰 Промо-статьи наших решений
Изучите детальные обзоры наших технологических решений для различных отраслей:
🚀 Разработка и автоматизация
- Автоматизация холодных продаж в криптопроектах
- AI-Assisted Development
- AI CRM Constructor: Конструктор CRM под ваш бизнес
- Парсер лидов с FL.ru
- Разработка Платформы для Автоматизации Найма Переводчиков
- Разработка WhatsApp Business Автоматизации под ключ
- Корпоративная Платформа Обмена Изображениями
- AI Quality Assurance — контроль качества AI-ответов
- Интеграция AMOCRM, Excel и Google Drive
- SimpleCrypto — AI-конфигуратор крипто-кошелька
- Синхрон1С - Автоматизация 1С без программиста
- Разработка Telegram Mini App с Лутбоксами
- YouTube-Telegram Скрапер для Стартапов
📈 Бизнес и автоматизация
- Разработка Telegram Ботов под ключ
- YandexDirect MCP сервер
- Корпоративные решения голосового ввода с ИИ
- Веб-версия аналитического дашборда для телефонии
- Платформа управления Telegram рекламой
- Bitcoin Mempool Explorer
- Презентационный сайт по брендбуку
- Разработка Платформы Прогнозов на Спорт по Модели GoalBet
- Обучающий кабинет
- Корпоративная система мониторинга медиа и аналитики
- Администрирование серверов
- Криптовалютный AML-чекер бот
- Новостной радар для промышленности
- Счетчик калорий Telegram Bot
- Talk to Excel / Talk to SQL — AI-ассистент для табличных данных
- Разработка веб-приложений по дизайну
- Разработка системы анализа договоров с ИИ
- Презентационный сайт по брендбуку
- Синхронизация 1С с WordPress
💰 FinTech и медиа
Работаю до результата и бизнес-ценности, быстро корректирую подходы в процессе. Использую современный стек для качественного и быстрого решения задач.