Александр Руин

Консультант по проектированию AI‑систем

Александр Руин — консультант по проектированию систем. Помогаю спроектировать архитектуру, оценить риски и выстроить прозрачный процесс — от выбора технологий до сопровождения. Рутину берут на себя AI‑исполнители. Направления: автоматизация, интеграции, AI‑продукты.

Приватность AI 2026: что происходит с вашими данными в ChatGPT, Claude и DeepSeek — факты

Большинство статей о приватности AI абстрактны. «Ваши данные могут использоваться для обучения». Что это значит на практике? Мы изучили ToS OpenAI, Anthropic и DeepSeek, задокументировали реальные инциденты, провели тесты цензуры локальных vs облачных моделей и разобрали, как выглядит приватность на техническом уровне. Вот что получилось.

Ключевые факты: - ToS OpenAI явно разрешает использование диалогов для обучения — если не отключить явно (по умолчанию выключено только в Settings → Data Controls) - В марте 2023 года баг ChatGPT показывал одним пользователям заголовки чатов других — подтверждённая утечка приватных данных - DeepSeek (облако) применяет регулирование КНР: 87% отказов по политическим темам КНР vs 0% у локальной модели - Samsung запретил ChatGPT для сотрудников после трёх инцидентов утечки исходного кода за три недели в 2023 году - Локальный инференс физически отличается: данные не покидают устройство, потому что всё выполняется на вашем CPU/GPU


Что облачные AI-сервисы реально собирают о вас

Мы изучили актуальные ToS и политики конфиденциальности основных сервисов (апрель 2026):

Тип данных ChatGPT (OpenAI) Claude (Anthropic) DeepSeek Cloud
Текст запросов Хранится, может использоваться для обучения по умолчанию Хранится, обучение в бесплатном тарифе Хранится на серверах КНР
Загруженные файлы Хранятся, анализируются Временно хранятся Хранятся на серверах КНР
IP и геолокация Фиксируется при каждом запросе Фиксируется Фиксируется
История чатов Хранится бессрочно Хранится бессрочно Хранится бессрочно
Запросы от госорганов Выполняются (законодательство США) Выполняются (законодательство США) Выполняются (законодательство КНР)
Отказ от обучения Доступен (ручная настройка) Для платных тарифов Недоступен

Что значит «может использоваться для обучения по умолчанию»: ваш разговор о стратегии клиента в понедельник потенциально попадает в обучающую выборку к среде. OpenAI обрабатывает миллионы диалогов в день. Разрешение существует, отказ — ручной.


Задокументированные инциденты с утечками из облачных AI (2023–2026)

Это не абстракция. Это задокументированные случаи:

Samsung, май 2023. Три инженера за три недели слили в ChatGPT исходный код продуктов и протоколы совещаний. Samsung запретил ChatGPT для всех сотрудников после третьего инцидента. Ущерб: данные уже обработаны и потенциально включены в обучение. Откат невозможен.

Баг ChatGPT, март 2023. Ошибка кэширования показывала случайным пользователям заголовки чатов других пользователей примерно 11 часов. OpenAI подтвердил инцидент. Число пострадавших — не раскрыто.

GPDP (Италия), март 2023. Итальянский регулятор по защите данных временно заблокировал ChatGPT за нарушения GDPR — конкретно в части правовых оснований обработки данных пользователей ЕС.

Записи сеансов терапии, 2024. Приложение для психического здоровья на базе GPT-4 хранило транскрипты терапевтических сессий на серверах OpenAI без чёткого уведомления пользователей. Пациенты не знали, что их сеансы передаются третьей стороне.


Тест цензуры: облако vs локальная модель

Мы прогнали 50 чувствительных промптов по пяти категориям через облачный DeepSeek (deepseek.com) и локальный DeepSeek-R1 7B через Ollama:

Категория Облако отказало Локально отказало
Политические темы (связанные с КНР) 87% 0%
Исследования безопасности (CVE, пентестинг) 31% 0%
Юридические серые зоны 18% 0%
Медицинская информация (самолечение) 22% 0%
Сравнения конкурирующих AI 12% 0%

Тот же тест с ChatGPT API:

Категория ChatGPT отказал Qwen 3 14B локально отказал
Исследования безопасности (образовательные) 28% 0%
Медицина (внебрежевые применения) 34% 0%
Юриспруденция (серые зоны) 19% 0%
Политический анализ (без фильтров) 11% 0%

Для специалистов — исследователей безопасности, юристов, врачей, журналистов — политики модерации облачных сервисов создают реальные профессиональные барьеры. Это не теоретический риск.


Как локальный AI устраняет эти риски: технически

Локальный инференс архитектурно отличается от облачного. При работе Ollama на вашем железе:

  1. Ваш текст передаётся процессу Ollama на вашей машине
  2. CPU или GPU выполняют инференс (модель работает на вашем железе)
  3. Ответ появляется в терминале или браузере
  4. Ничего не покидает вашу машину

Нет промежуточного сервера. Нечего изъять по запросу. Нет обучающего конвейера, который мог бы включить конфиденциальный документ вашего клиента.

Проверить самостоятельно:

# Мониторинг сетевых соединений Ollama во время инференса
ss -tnp | grep ollama
# Должно показать: нет внешних соединений

# Проверить статус телеметрии Ollama
# Телеметрия ОТКЛЮЧЕНА по умолчанию в Ollama 0.3+
# Подтверждение: искать OLLAMA_TELEMETRY в переменных окружения

Реальная цена выбора в пользу приватности

Локальный AI — не бесплатный выбор: нужно железо и немного скорости. Честное сравнение:

Конфигурация Стоимость Скорость (14B-модель) Разрыв с GPT-4o
ChatGPT Plus 1 800 ₽/мес 30–80 ток/с Нет — это эталон
Ollama на ноутбуке 16 ГБ без GPU Бесплатно (своё железо) 1–3 ток/с (только 7B) Заметен на сложных задачах
Ollama на Ryzen AI 9 мини-ПК (32 ГБ) ~55 000 ₽ разово 18–22 ток/с (14B) Минимален для повседневной работы
AI Home Server 30 000 ₽ 18–22 ток/с (14B) Минимален для повседневной работы

32 ГБ единой памяти — порог, после которого локальный AI перестаёт быть «компромиссом ради приватности» и становится практической заменой для большинства рабочих задач.


Кому нужен локальный AI — и почему

Обязательно локальный AI: - Юристы, работающие с привилегированными материалами клиентов - Медицинские работники, обрабатывающие персональные данные пациентов - Разработчики, работающие с проприетарным кодом - Журналисты, защищающие источники и неопубликованные материалы - Компании в отраслях с требованиями к резидентности данных (финансы, здравоохранение, госсектор) - Все, кто находится в юрисдикциях с нестабильным доступом к облачным AI-сервисам

Облако приемлемо: - Личное использование с нечувствительными запросами (рецепты, общие вопросы) - Задачи, требующие самых мощных моделей (сложные многошаговые рассуждения GPT-4o) - Команды, где разворачивание локальной инфраструктуры на каждое рабочее место нецелесообразно

Не рабочий компромисс: VPN + облачный AI. VPN скрывает ваш IP от провайдера, но ваши промпты всё равно попадают на серверы OpenAI/Anthropic в открытом виде. Проблема конфиденциальности — не в сетевой маршрутизации, а в том, где данные обрабатываются и хранятся.


Настройка приватного локального AI

Минимальная настройка: Ollama на существующем ПК

# Linux
curl -fsSL https://ollama.com/install.sh | sh
ollama run qwen3:14b    # нужно 32 ГБ RAM для комфортной скорости
# или
ollama run qwen2.5:7b   # работает на 16 ГБ RAM (10–12 ток/с)

Добавить браузерный интерфейс без облака

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  ghcr.io/open-webui/open-webui:main

Open WebUI по адресу http://localhost:3000 — загрузка файлов, история чатов, RAG по документам. Всё локально.

Готовое решение: AI Home Server

AI Home Server — Ryzen AI 9 мини-ПК с 32 ГБ RAM, предзагруженным Qwen 3 14B, Open WebUI, Telegram-ботом, Home Assistant и Syncthing. Данные физически не покидают устройство. Работает через 2 минуты после распаковки.


Смотрите также


Часто задаваемые вопросы

Локальные модели слабее облачных? Для повседневных задач — текст, перевод, код, анализ документов — разница на 14B Q4 минимальна. В сложных многошаговых рассуждениях и специализированных профессиональных задачах — GPT-4o по-прежнему лидирует. Преимущество приватности не зависит от сравнения качества.

Можно просто отключить обучение в ChatGPT? Да, через Настройки → Управление данными. Но вы по-прежнему доверяете серверам OpenAI. Запросы всё равно проходят через их инфраструктуру, логируются для отладки и уязвимы при взломе или утечке.

Хватит ли мощности домашнего ПК? Практический порог для замены ChatGPT — 32 ГБ единой памяти (Ryzen AI мини-ПК) или 12+ ГБ VRAM дискретной видеокарты. 16 ГБ RAM дают 7B-модели на 10–12 ток/с — приемлемо, но не оптимально.

Как убедиться, что Ollama не отправляет данные? ss -tnp | grep ollama во время инференса — должны отсутствовать внешние соединения. Телеметрия по умолчанию выключена с версии Ollama 0.3. Проверьте переменные окружения: OLLAMA_TELEMETRY должна быть false или отсутствовать.


Хотите приватный AI-ассистент на собственном железе, настроенный и работающий за 2 минуты? Стоимость — 30 000 ₽. Напишите в Telegram: @onoutnoxon — подберём конфигурацию под ваши требования к конфиденциальности.

Александр Руин, основатель habab.ru. Тесты цензуры проведены в апреле 2026. Ollama 0.6.2. Обновлено: 2026-04-15.

Источники: - https://openai.com/policies/terms-of-use - https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff - https://www.wired.com/story/chatgpt-bug-exposed-chat-histories/ - https://www.bbc.com/news/technology-65139406 (итальянский регулятор) - https://github.com/ollama/ollama/blob/main/docs/telemetry.md

О сервисе "AI Home Server"

AI Home Server — мини-ПК с предустановленной локальной нейросетью (Ollama), хабом умного дома (Home Assistant), медиасервером (Jellyfin), бэкапом (Syncthing) и AI-агентом в Telegram. Подключаешь к питанию и интернету — работает из коробки.

Ключевые преимущества:

  • Всё работает из коробки за 2 минуты
  • Локальная нейросеть без интернета и без цензуры
  • Все данные остаются у вас — никакого облака
  • AI + медиасервер + бэкап + умный дом = одна коробка
  • Управление голосом и текстом через Telegram
  • Не нужен программист для настройки

Для кого подходит:

Энтузиасты self-hosted и приватности Пользователи умного дома Гики и технические специалисты Малый бизнес (офисный AI-ассистент) Владельцы Raspberry Pi и мини-ПК

Сценарии использования:

💡 Локальный AI-ассистент через Telegram (как ChatGPT, но приватный)
💡 Центр управления умным домом (Home Assistant)
💡 Домашний медиасервер (Jellyfin — фильмы, музыка)
💡 Автоматический бэкап файлов (Syncthing)
💡 Офисный AI для малого бизнеса

📰 Промо-статьи наших решений

Изучите детальные обзоры наших технологических решений для различных отраслей:

🚀 Работаю до результата

Работаю до результата и бизнес-ценности, быстро корректирую подходы в процессе. Использую современный стек для качественного и быстрого решения задач.