Kom i gang med Stable Diffusion på din PC
Stable Diffusion er et gratis, lokalt bildegeneratorverktøy. Lær å installere AUTOMATIC1111 og generere dine første bilder uten å betale for abonnement.
Hva er Stable Diffusion?
Stable Diffusion er en åpen kildekode-bildegenereringsmodell som kjører lokalt på din PC — ingen skyabonnement, ingen betalingsgrenser, full kontroll. Det er mer teknisk å sette opp enn Midjourney eller DALL-E, men gir deg full frihet.
Systemkrav:
- Windows 10/11 eller Linux (macOS har redusert støtte)
- NVIDIA GPU med minimum 4 GB VRAM (8 GB anbefalt)
- 16 GB RAM anbefalt
- 20 GB ledig diskplass
Steg 1: Installer AUTOMATIC1111 Web UI
AUTOMATIC1111 er det mest populære brukergrensesnittet for Stable Diffusion.
Windows-installasjon:
-
Installer Python 3.10.x fra python.org
- Huk av "Add Python to PATH" under installasjon
-
Installer Git fra git-scm.com
-
Åpne Command Prompt og klone repositoriet:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
- Kjør webUI-et for første gang:
webui-user.bat
Første kjøring laster ned alle nødvendige avhengigheter automatisk. Dette tar 10–30 minutter.
Steg 2: Last ned en modell
Stable Diffusion trenger en modell (checkpoint-fil) for å generere bilder:
- Gå til civitai.com eller huggingface.co
- Last ned en modell — anbefalte startmodeller:
- Realistic Vision v5 — for fotorealistiske bilder
- DreamShaper — allsidig, god for mange stilarter
- Anything v5 — for anime/illustrasjonsbilder
- Kopier .safetensors- eller .ckpt-filen til mappen:
stable-diffusion-webui/models/Stable-diffusion/
Steg 3: Start Web UI og velg modell
- Kjør
webui-user.batigjen - Åpne nettleseren på http://127.0.0.1:7860
- Øverst til venstre: velg modellen du lastet ned
Steg 4: Generer ditt første bilde
I txt2img-fanen:
Positiv prompt (hva du vil ha):
portrait of a Norwegian woman, natural lighting,
detailed face, photorealistic, 4k, professional photography
Negativ prompt (hva du ikke vil ha):
blurry, bad anatomy, deformed, ugly, low quality,
watermark, text, extra fingers
Innstillinger:
- Steps: 20–30 (høyere = bedre kvalitet, tregere)
- CFG Scale: 7 (hvor nøye modellen følger prompten)
- Size: 512x512 for SD 1.5, 1024x1024 for SDXL
Klikk Generate og vent 10–60 sekunder avhengig av GPU-en din.
Steg 5: Forstå de viktigste innstillingene
Sampling method:
- DPM++ 2M Karras — anbefalt for de fleste brukstilfeller
- Euler a — raskere, litt mer kreativ
- DDIM — god for lavere step-tall
Seed:
- -1 betyr tilfeldig. Skriv inn et spesifikt tall for å reprodusere eksakt samme bilde.
Hires. fix: Aktivér denne for bilder over 512x512 for å unngå at ansikter og detaljer ser rare ut.
Steg 6: Bruk img2img for redigering
img2img lar deg bruke et eksisterende bilde som utgangspunkt:
- Gå til img2img-fanen
- Last opp et bilde
- Sett Denoising strength (0.3 = lite endring, 0.8 = stor endring)
- Skriv en prompt som beskriver hva du vil endre
- Generer
Steg 7: Installer utvidelser
AUTOMATIC1111 har et rikt utvidelsessystem. Gå til Extensions-fanen:
Populære utvidelser:
- ControlNet — kontroller posisjon og komposisjon med referansebilder
- ADetailer — forbedrer ansikter automatisk
- tiled-diffusion — generer svært store bilder
Klikk Install from URL og lim inn utvidelsens GitHub-URL.
Stable Diffusion har en brattere læringskurve enn skybaserte verktøy, men gir deg ubegrenset bildegenerering uten kostnader og full kontroll over resultatet.