Пока Midjourney требует подписку, Discord и иногда пляски с VPN, есть нейросеть, которая может работать у дома, оффлайн и бесплатно. Знакомьтесь — Stable Diffusion. Если Midjourney — это такси (удобно, но платно), то Stable Diffusion — это личный автомобиль: нужно один раз разобраться, где педали и руль, зато потом ездите когда и куда хотите. В этой статье разберём, что это за нейросеть, чем так крута и какие три способа начать пользоваться уже сегодня — без погружения в страшные технические термины.
Что такое Stable Diffusion и почему он особенный?
Самое простое объяснение
Stable Diffusion — это нейросеть-художник, которая генерирует изображения по текстовому описанию, как Midjourney или DALL-E. Главная разница — запускается прямо на компьютере. Не в браузере, не в чате, а у себя локально.
У неё открытый исходный код — это как рецепт, который выложили в общий доступ. Любой может взять, слегка изменить, добавить свои специи и получить новый «вкус». Поэтому вокруг Stable Diffusion выросла огромная экосистема: тысячи моделей, интерфейсов, плагинов и дополнений.
Какие главные преимущества
- Бесплатность
Платите только за электричество. Никаких обязательных подписок, лимитов по количеству картинок и привязки к одному сервису. - Контроль
Доступны все настройки: от шага генерации и глубины детализации до загрузки своих моделей, плагинов, скриптов. Можно настраивать всё под себя. - Приватность
Ваши промпты и изображения не уходят на чужие сервера. Особенно важно для коммерческих проектов и работы с чувствительным контентом. - Гибкость
Хотите аниме? Скачиваете аниме-модель. Нужен фотореализм? Берёте Realistic Vision. Любите стилизованный арт? В пару кликов ставите DreamShaper. Всё это — в одной экосистеме.
А есть ли недостатки?
Честно — да.
- Нужен более-менее современный компьютер (особенно видеокарта).
- Придётся немного покопаться в настройках и интерфейсах.
- «Вау-эффект» из коробки слабее, чем у Midjourney: хорошие результаты зависят от модели и ваших рук.
Но зато, когда один раз это освоите, получаете инструмент, который остаётся с вами надолго.
Как начать пользоваться
Не обязательно сразу лезть в установку и консоль. Есть три уровня «погружения» — выбирайте по терпению и времени.
Способ 1: Stable Diffusion в браузере
Если пока не хочется ничего устанавливать:
- Leonardo.Ai — удобный веб-интерфейс на движке Stable Diffusion. Похоже на Midjourney, но прямо в браузере, есть бесплатный лимит.
- Playground AI — простой онлайн-сервис, даёт много бесплатных генераций, удобно тестировать промпты и стили.
- DreamStudio — официальная онлайн-версия от создателей Stable Diffusion. Платная, но с прозрачной моделью оплаты и доступом к свежим моделям.
Плюс: ничего не настраиваете. Минус: всё равно завязаны на чужой сервис и его лимиты.
Stable diffusion установка на ПК
Хотите локально, но без боли?
- Easy Diffusion
Прямо как обещают: установка в несколько кликов. Скачиваете инсталлятор, запускаете, ждёте, и у вас появляется веб-интерфейс в браузере. Отлично подходит новичкам. - NMKD Stable Diffusion GUI
Простая программа под Windows «всё в одном файле». Интерфейс в стиле обычного софта, минимум страшных кнопок.
Это золотая середина: уже локально, но без необходимости разбираться в десятке параметров сразу.
Полный контроль
Когда хочется выжать максимум:
- Automatic1111 WebUI
Золотой стандарт. Огромное количество настроек, интеграция с модельными хабами, десятки плагинов (ControlNet, LoRA, upscalers и т. д.). Для тех, кто готов немного посидеть и разобраться. - ComfyUI
Визуальное программирование Stable Diffusion. Собираете генерацию как конструктор из блоков (ноды): модель, промпт, ControlNet, upscale и т.д. Выглядит страшно, но даёт абсолютно максимальный контроль.
Пошаговая инструкция установки
Разберём самый простой локальный вариант — Easy Diffusion.
Минимальные требования к ПК
Идеально, если у вас:
- Видеокарта NVIDIA с 4+ ГБ видеопамяти
(AMD тоже можно, но иногда с костылями и ограничениями) - ОЗУ: от 8 ГБ
- Свободное место на диске: 10+ ГБ (модели весят прилично)
Запуститься может и на более слабых конфигурациях, но медленно.
Установка Easy Diffusion
- Переходите на официальный сайт Easy Diffusion.
- Скачиваете установщик под вашу систему (обычно Windows).
- Запускаете файл и просто жмёте «Next», пока всё не поставится. Установка может занять 10–15 минут — не пугайтесь.
- После завершения программа автоматически откроет браузер по адресу `http://localhost:9000` (или подскажет ссылку).
Если вы видите интерфейс с полем для промпта и кнопкой «Generate» — поздравляю, вы в Stable Diffusion!
Первая генерация
Для начала попробуйте что-то простое:
prompt: a cute cat in a garden, detailed fur, sunny day, bright colors, high quality
steps: 20
size: 512×768
Нажимаете «Generate», ждёте полминуты-минуту — и у вас первая картинка. Дальше можно крутить настройки, менять промпт, играться с размерами и стилями.
Что такое модели и как их устанавливать
Объясняем на пальцах
Модель — это «мозг» Stable Diffusion и одновременно «стиль» рисования. Базовая модель — как универсальный художник, который всё делает неплохо, но без ярко выраженного почерка. А кастомная модель — как отдельный художник: один специализируется на аниме, другой — на реалистичных портретах, третий — на темном фэнтези.
Меняя модель, вы буквально меняете художника.
Топ-3 модели для старта
- DreamShaper
Универсальный солдат. Хорош для иллюстраций, фэнтези, персонажей, обложек. Если не знаете, с чего начать — берите его. - Realistic Vision
Для фотореалистичных людей и портретов. Если нужны «почти настоящие» лица — это ваш выбор.
3. Anything / AOM / Anime модели
Линейка моделей для аниме-стиля. Идеальны для персонажей, манги, арты в духе Pixiv.
Где брать модели
— Civitai — самый популярный сайт с моделями, LoRA и стилями. Есть рейтинги, примеры, теги.
— Hugging Face — крупный репозиторий, где лежат официальные и кастомные модели. Чуть менее дружелюбен, но надёжен.
Установка обычно сводится к тому, чтобы положить скачанный файл (`.safetensors` или `.ckpt`) в папку `models` вашего WebUI или Easy Diffusion и выбрать модель в интерфейсе.
Базовые настройки, которые нужно знать
Чтобы не утонуть в настройках, держите три ключевых параметра.
Шаги (Steps)
Количество итераций, за которые нейросеть «дорисовывает» картинку.
- 20–30 шагов — оптимум для большинства задач.
- Больше 40–50 даёт минимальный прирост качества, но сильно замедляет генерацию.
CFG Scale
Показывает, насколько строго модель должна следовать вашему промпту.
- 7–9 — золотая середина: картинка соответствует описанию, но не выглядит зажатой.
- Меньше 5 — модель «фантазирует» и может уходить в сторону.
- Больше 12 — часто даёт странные, перетянутые детали.
Сэмплеры
Алгоритмы, по которым происходит генерация.
- DPM++ 2M Karras — быстрый и даёт качественный результат. Отличный выбор по умолчанию.
- Euler a — более творческий и вариативный, иногда лучше для стилизованных картинок.
Если не хотите заморачиваться — ставьте DPM++ 2M Karras и живите спокойно.
Типичные ошибки новичков
«У меня всё тормозит!»
Причины:
— Слишком большое разрешение (например, сразу 1024×1024).
— Слабая видеокарта или вообще нет GPU.
Решения:
— Уменьшите размер до 512×512 или 512×768.
— В Automatic1111 включите режимы `—xformers`, `—medvram` или `—lowvram`.
— Не запускайте параллельно тяжёлые игры и монтаж.
«Картинки получаются блеклыми и странными»
Причины:
— Используете базовую модель, заточенную под всё и сразу.
— Промпт слишком общий: «beautiful girl», «fantasy art», «cool logo».
Решения:
— Поставьте другую модель (DreamShaper, Realistic Vision и т.п.).
— Добавляйте детали в промпт: освещение, стиль, ракурс, настроение, качество.
«Не могу найти свои картинки»
Классика. В Easy Diffusion и большинстве WebUI изображения сохраняются автоматически.
— В Easy Diffusion — обычно папка `outputs/easy-diffusion-images/`.
— В Automatic1111 — `outputs\txt2img-images\…` или `outputs\img2img-images\…`.
Путь всегда можно посмотреть в настройках или на панели истории.
От новичка до эксперта. Что дальше?
Когда первые картинки уже не удивляют и хочется контроля — начинается самое интересное.
Плагины, которые меняют игру
- ControlNet
Позволяет управлять позой, композицией, контуром, глубиной. Можно взять фото человека, нарисовать по его позе нового персонажа или использовать скетч как основу. - LoRA (Low-Rank Adaptation)
Лёгкие надстройки к моделям, которые добавляют конкретный стиль, персонажа, одежду и т.п. Весят мало, качаются быстро, комбинируются между собой. - Upscalers
Сервисы и модели для увеличения разрешения изображения в 2–4 раза без потери (или даже с улучшением) качества. Полезно для печати, постеров и коммерческих макетов.
Куда двигаться дальше
- Разобраться с Automatic1111, если начали с Easy Diffusion.
- Подобрать набор моделей «под себя» — для портретов, аниме, фэнтези, коммерческих задач.
- Освоить ControlNet, LoRA и upscalers — это уже уровень полупрофессиональной студии у вас дома.
Stable Diffusion открывает мир бесплатной и практически безграничной генерации изображений. Начните с простой установки, поиграйтесь с базовыми настройками, а когда освоитесь — переходите к продвинутым интерфейсам, моделям и плагинам. Этот инструмент может стать вашим личным «визуальным суперсилой» — от обложек и иллюстраций до коммерческих проектов.
Хотите научиться писать промпты так, чтобы нейросеть понимала с полуслова? Загляните в нашу статью «Промты для генерации изображений: готовые примеры и руководство для нейросетей» — там всё про структуру, ошибки и десятки готовых формул.
А если хотите увидеть, как Stable Diffusion смотрится на фоне других нейросетей, не пропустите наш большой обзор «Лучшие нейросети для генерации изображений в 2025 году: полный обзор и сравнение» — там честно разбираем плюсы и минусы каждого инструмента.





Я работаю со Stable Diffusion через бота. Не всегда результаты меня устраивают, поэтому я научилась постепенно корректировать промпт, чтобы добиться желаемого.
Очень интересная и полезная статья! Сейчас без нейросетей и ИИ никуда. Спасибо за полезные советы! Буду у вас учиться! 🌸
Открыла для себя новую ИИ, всегда интересно узнать о личном опыте