Modelle

Diffusion-Modell

KI-Architektur zur Bildgenerierung, die schrittweise aus Rauschen ein Bild erzeugt — Grundlage von DALL-E, Midjourney und Stable Diffusion.

Definition

Diffusion-Modelle sind eine Klasse generativer Modelle, die Bilder erzeugen, indem sie schrittweise zufälliges Rauschen in ein kohärentes Bild umwandeln. Im Training lernt das Modell den umgekehrten Prozess: Wie man aus einem verrauschten Bild das Originalbild rekonstruiert. Bei der Generierung startet das Modell mit reinem Rauschen und entfernt es Schritt für Schritt, gesteuert durch einen Text-Prompt. Diese Architektur ist die Grundlage von DALL-E 3, Midjourney, Stable Diffusion und FLUX. Diffusion-Modelle haben 2023–2024 die Bildgenerierung revolutioniert und liefern fotorealistische Ergebnisse aus Textbeschreibungen.

Verwandte Begriffe

KI-Wissen vertiefen?

KI-Überblick liefert täglich eingeordnete KI-Trends, Lernpfade und Deep Dives — 14 Tage kostenlos.

Kostenlos starten