Diffusion-Modell
KI-Architektur zur Bildgenerierung, die schrittweise aus Rauschen ein Bild erzeugt — Grundlage von DALL-E, Midjourney und Stable Diffusion.
Definition
Diffusion-Modelle sind eine Klasse generativer Modelle, die Bilder erzeugen, indem sie schrittweise zufälliges Rauschen in ein kohärentes Bild umwandeln. Im Training lernt das Modell den umgekehrten Prozess: Wie man aus einem verrauschten Bild das Originalbild rekonstruiert. Bei der Generierung startet das Modell mit reinem Rauschen und entfernt es Schritt für Schritt, gesteuert durch einen Text-Prompt. Diese Architektur ist die Grundlage von DALL-E 3, Midjourney, Stable Diffusion und FLUX. Diffusion-Modelle haben 2023–2024 die Bildgenerierung revolutioniert und liefern fotorealistische Ergebnisse aus Textbeschreibungen.
Verwandte Begriffe
KI-Wissen vertiefen?
KI-Überblick liefert täglich eingeordnete KI-Trends, Lernpfade und Deep Dives — 14 Tage kostenlos.
Kostenlos starten