Von Midjourney bis FLUX: KI-Workflows für Produktintegration

Eine Flasche in der Hand, die Brille im Gesicht, das richtige Abendkleid am Körper: reale Produkte in vorhandene Bildwelten zu integrieren ist und bleibt eine Herausforderung. Das menschliche Auge nimmt schnell wahr, wenn Licht, Perspektive und Positionierung nicht 100-prozentig stimmen. Wie können also Kreative und Designer:innen ohne Fotoproduktion und ohne große KI-Rechenleistung diese Herausforderung stemmen? Welche Tools sind für welchen Use-Case am besten geeignet – und schaffen sie es generell, einen Fotoshoot zu ersetzen?

Wir zeigen euch verschiedene KI-gestützte Workflows, mit denen ihr Produkte in Bilder integrieren könnt.

 

Virtual Try-On oder Online-Shop: realitätsnahe Produktpräsentation entscheidet Über den Erfolg

Besonders in Branchen wie Mode, E-Commerce, Werbung und virtueller Anprobe suchen Unternehmen nach effizienten Lösungen, um Produkte visuell überzeugend zu präsentieren – ohne aufwendige Fotoshootings oder manuelle Retusche. Wo Tools wie Photoshop an ihre Grenzen stoßen, steigt die Nachfrage nach KIs, mit denen sich Kleidung, Brillen oder andere Objekte realistisch auf Personen oder Szenen übertragen lassen.

Während viele spezialisierte SaaS-Tools an ihre Grenzen stoßen, bieten fortgeschrittene Lösungen wie ComfyUI deutlich mehr Spielraum: Mit individuell anpassbaren Workflows lassen sich hochwertige Ergebnisse erzielen.
Dabei kommen spezielle Nodes – also modular einsetzbare Funktionsbausteine innerhalb des Workflows – wie Flux Kontext, XISER_Nodes oder CATvTON zum Einsatz. Sie ermöglichen es, Objekte gezielt in Bilder zu integrieren: flexibel, visuell ansprechend und an verschiedene Anforderungen anpassbar.
Diese Herangehensweise erfordern ein technisches Verständnis im Umgang mit ComfyUI und Node-basierten Workflows. Wer ohne Vorkenntnisse arbeitet, muss sich zunächst in die Struktur und die Funktionsweise der einzelnen Nodes einarbeiten – dafür wird man aber mit sehr flexiblen und hochwertigen Ergebnissen belohnt.
Auch Tools wie Midjourney können in bestimmten Fällen unterstützen, insbesondere wenn schnelle visuelle Entwürfe gefragt sind.

Hier sind die Methoden im Detail:

 

Midjourney

Methode 1:

Midjourney – Die Einfache Variante

Mit der neuen „omni-Reference“-Funktion in Midjourney Version 7 lassen sich Objekte jetzt deutlich einfacher in Bilder übertragen – ein großer Schritt in Richtung gezielter Bildkomposition. So geht’s: Ein passendes Model erstellen, das Produktbild (auf Lizenz achten!) hinzufügen – und fertig. Die Qualität ist für schnelle Visualisierungen ausreichend. Soll es exakt die Brille aus dem Katalog sein, dann muss Midjourney passen.


Bis Version 6.1 kann man auch mit dem Inpainting-Feature arbeiten und über eine ausgewählte Fläche ein Objekt– in unserem Fall die Brille – hinzufügen. Bei Veränderung des Hintergrundes kann es passieren, dass auch die Brille verändert ausgespielt wird.

 

Methode 2:

Flux Kontext und Image Stitch – Der Einfache ComFy.UI-Workflow

Eine komplexere Methode ist, mit Flux Kontext zu arbeiten. Wir nutzen Flux über ComfyUI. Das spezialisierte Node-Modul ermöglicht es, Kleidungsstücke realitätsnah von einer Quelle auf eine Zielperson zu übertragen – inklusive Faltenwurf, Perspektive und Lichtstimmung. Hier ist darauf zu achten, dass das Objekt schon im richtigen Größenverhältnis eingespielt wird, damit es nicht überdimensioniert wirkt, wie in unserem Beispiel die Brille. Die Positionierung der Brille kann über mehrere Wiederholungen optimiert werden.

 

Methode 3:

Photoshop, XISER_Canvas und Flux Kontext – für Fortgeschrittene

Ein effizienter visueller Workflow zur realistischen Übertragung von Kleidung auf eine Zielperson nutzt Photoshop, XISER_Canvas und Flux Kontext in ComfyUI. Die Kleidung fügt sich nahtlos und realistisch ein, mit hoher Kontrolle über jeden Schritt. So geht’s:

1. Vorbereitung in Photoshop

Zuerst wird die gewünschte Kleidung aus dem Bild ausgeschnitten. Mit Masken und Ebenen in Photoshop kann man die Teile genau freistellen und als PSD-Datei speichern.

2. Komposition mit XISER_Canvas

Die freigestellte Kleidung und das Zielbild werden als Ebenen im XISER_Canvas Node geladen. Dort können Position, Größe und Ausrichtung der Kleidung später visuell geändert werden.

3. Integration mit Flux Kontext

Der Flux Kontext Node sorgt dafür, dass Kleidung wirklich zur Szene passt. Er prüft Licht, Blickwinkel und Oberfläche und passt das Kleidungsstück so an, dass es echt und passend wirkt.

Fazit: Kleine Abstriche bei der Steuerbarkeit des Models

Der Output von Flux wird modifiziert und findet nicht nur in einem maskierten Teilbereich eines Bildes statt. Durch die reduzierte Ausgabegröße können auch Informationen des Originalbildes verloren gehen. So kann etwa die Pose des Models leicht variieren. Abhilfe kann ein nachträgliches Upscaling und zusammenführen von Teilbereichen durch Masken sein.

Vorher

Groblayout in Photoshop

Nachher

Ein simpler Workflow in ComfyUI

Auch Kleidung lässt sich so übertragen.

 

Methode 4:

SM4LL but GREAT – Kombination aus Verschiedenen Modellen

Mit sm4llVTON („same methodology 4 all VTON“) präsentiert YourMirror AI eine neue Familie hochspezialisierter Diffusionsmodelle, die die virtuelle Anprobe revolutionieren. Statt eines universellen Modells setzt sm4llVTON auf eine Sammlung schlanker, auf spezifische Kleidungsbereiche abgestimmter Modelle – etwa für Schuhe, Oberteile oder Gesichtsanpassungen. Dadurch sehen die Ergebnisse realistischer aus, haben mehr Details und eine besserer Passform. Ein echter Gamechanger ohne komplexe ComfyUI Workflows.

Fazit

Diese Workflows für digitale Produktvisualisierung – von ComfyUI über CatVTON Flux bis hin zu Midjourney – zeigen, wie präzise und flexibel KI-gestützte Bildbearbeitung heute schon sein kann. Transfer von Kleidung, Objektplatzierungen und realistische Anpassungen gelingen oft erstaunlich überzeugend und mit deutlich weniger Aufwand als noch vor wenigen Jahren.

Natürlich gibt es in bestimmten Anwendungsfällen noch Einschränkungen: etwa bei komplexen Posen, ungewöhnlichen Perspektiven oder in der feinen Detailkontrolle. Doch die Entwicklungen schreiten schnell voran. Mit jeder neuen Version wird die Qualität besser und die Ergebnisse verlässlicher.

 

Hinweis: Die gezeigten Bilder dienen ausschließlich der Veranschaulichung von Kreativtechniken. Abgebildete Produkte und Marken werden lediglich beispielhaft gezeigt. Die gezeigten Personen sind mit Midjourney erstellt.

Weiter
Weiter

KI-Video: Midjourneys neuestes Feature