8 Punkte von GN⁺ 2025-06-29 | 1 Kommentare | Auf WhatsApp teilen
  • FLUX.1 Kontext [dev] ist als kostenlose Open-Weights-Version eines bislang proprietären generativen Bildbearbeitungsmodells veröffentlicht worden
  • Mit 12B Parametern kann es auf Hardware für Endverbraucher ausgeführt werden und wird kostenlos für Forschung sowie nichtkommerzielle Nutzung bereitgestellt
  • Es bietet hochwertige Bildbearbeitung auf kommerziellem Niveau mit feingranularen lokalen/globalen Bearbeitungen, konsistenter Beibehaltung von Charakteren und iterativen Korrekturen und lässt sich sofort in populäre Frameworks wie ComfyUI, Hugging Face Diffusers und TensorRT integrieren
  • In Leistungsbewertungen zeigte es bessere Ergebnisse als bestehende offene und geschlossene Modelle, z. B. Google's Gemini-Flash Image
  • Es werden außerdem TensorRT-Varianten bereitgestellt, die für die NVIDIA-Blackwell-Architektur optimiert sind (BF16, FP8, FP4) und auf aktueller Hardware deutlich höhere Geschwindigkeit und Effizienz ermöglichen
  • Über eine kommerzielle Lizenz und ein Self-Service-Portal ist auch eine einfache Integration und Nutzung in Unternehmen möglich

Einführung und Bedeutung

  • FLUX.1 Kontext [dev] ist das von Black Forest Labs veröffentlichte neueste generative Bildbearbeitungsmodell
  • Bislang wurden leistungsfähige Modelle zur Bildgenerierung und -bearbeitung meist proprietär angeboten; nun erfolgt der Wechsel zu Open Weights, sodass sie jeder für Forschung und nichtkommerzielle Zwecke nutzen kann
  • Das Modell besteht aus 12B Parametern und bietet starke Leistung bei zugleich ausreichender Effizienz, um auf normaler Endverbraucher-Hardware zu laufen

Veröffentlichung und Zugänglichkeit

  • FLUX.1 Kontext [dev] wird unter der FLUX.1 Non-Commercial License veröffentlicht und kostenlos für Forschung und nichtkommerzielle Nutzung bereitgestellt
  • Die Model Weights lassen sich einfach über HuggingFace herunterladen und sind mit wichtigen AI-Frameworks wie ComfyUI, HuggingFace Diffusers und TensorRT kompatibel
  • Partner wie FAL, Replicate, Runware, DataCrunch und TogetherAI stellen API-Endpunkte und Code bereit, die sich sofort in Cloud- und lokalen Umgebungen nutzen lassen

Ein neuer Standard in der Bildbearbeitung

  • FLUX.1 Kontext [dev] ist auf Bildbearbeitungsaufgaben spezialisiert
    • starke Charakterkonsistenz bei iterativer Bearbeitung sowie in verschiedenen Szenen und Umgebungen
    • Unterstützung für präzise lokale und globale Bearbeitungen
  • Black Forest Labs verfolgt das Ziel, offene Tools auf Augenhöhe mit proprietären Modellen bereitzustellen
  • In großen Benchmarks wie ContextBench wurde eine überlegene Leistung gegenüber bestehenden offenen Modellen wie ByteDance Bagel und HiDream-E1-Full sowie kommerziellen Modellen wie Google Gemini-Flash Image nachgewiesen
  • Auch unabhängige Bewertungen externer Organisationen wie Artificial Analysis bestätigen diese Ergebnisse

Hardware-Optimierung und verschiedene Optionen

  • In Zusammenarbeit mit NVIDIA werden für die aktuelle Blackwell-Architektur optimierte TensorRT-Weights bereitgestellt (BF16-, FP8- und FP4-Versionen für Energie- und Geschwindigkeitsoptimierung)
  • Entwickler können je nach Bedarf einfach die passende Balance aus Geschwindigkeit, Effizienz und Qualität wählen

Lizenzierung und Portal für den kommerziellen Einsatz

  • Black Forest Labs hat ein Self-Service-Lizenzportal mit transparenten Bedingungen eröffnet, das den kommerziellen und nichtkommerziellen Zugang zu allen Open-Weights-Modellen vereinfacht
  • Unternehmen können dort unkompliziert Lizenzen erwerben und Modelle der FLUX.1-Familie schnell in ihre Geschäftsservices integrieren

Lizenz-Updates

  • Die Definition nichtkommerzieller Zwecke wurde präzisiert und zulässiger Umfang sowie Einschränkungen konkretisiert
  • Durch die Ergänzung einer Content-Filter-Klausel soll die Erzeugung illegaler oder rechtsverletzender Inhalte verhindert und der entsprechende Haftungsausschluss ergänzt werden
  • Verwaltung von Inhaltsherkunft und Generierungsverlauf muss gemäß den einschlägigen gesetzlichen Vorgaben erfolgen
  • Es wurden klare Beispiele und Einschränkungen für nicht zulässige Anwendungsfälle ergänzt

Referenzen und Unterstützung

1 Kommentare

 
GN⁺ 2025-06-29
Hacker-News-Kommentare
  • Es ist wirklich großartig, dass BFL die Gewichte veröffentlicht hat, und angesichts der Realität, dass die finanzielle Nachhaltigkeit von Open Source schwierig ist, denke ich, dass ein Modell, bei dem die Nutzung für die Wissenschaft kostenlos ist und Startups eine angemessene Lizenzgebühr zahlen, BFL und anderen Anbietern ermöglicht, weiterhin Open-Weight-Modelle zu veröffentlichen

    • Wenn BFL für sämtliche von ihnen verwendeten bild- und videobasierten Inhalte im Voraus ausdrücklich Nutzungsgebühren zahlen müsste, wäre das auf diese Weise meiner Meinung nach finanziell nicht tragfähig
  • Wenn Open Weights veröffentlicht werden, ist es ein interessantes Merkmal, dass man solchen Editiermodellen neue Funktionen (Tasks) hinzufügen kann

    • Es sieht so aus, als ob schon mit wenigen Samples (etwa 30) gut generalisiert werden kann, und das wurde im Blog geteilt
      • Dieses Kontext ist die Version, auf die alle gewartet haben, und sie wirkt deutlich praktischer
      • Es ist der erste Fall einer neuen Generation von Bildgenerierungsmodellen, die trainierbar sind, etwas, das bei bestehenden großen Modellen wie Gemini, GPT, MJ usw. nicht möglich war
  • Ich hoffe, dass das distillierte Dev-Modell seine Leistung auch im Vergleich zu den größeren Pro-/Max-Modellen ausreichend beibehält

    • Ich erwarte, dass dieses Modell in vielen Bereichen ältere Inpainting-Verfahren wie Stable Diffusion vollständig ersetzen kann
    • Vorher-Nachher-Experimente zur Bildbearbeitung mit Kontext kann man hier ansehen
  • Ich habe dieses System letzte Woche bei einem Hackathon in San Francisco selbst ausprobiert und war ziemlich beeindruckt

    • Ich bin neugierig, welche Projekte die Leute bei diesem Hackathon gebaut haben
  • Die Absicht der Lizenz wirkt wie eine Art Vorfilter, der schon den Zugang selbst einschränkt

    • Formal ist sie zwar offen, in der Praxis wird der Anwendungsbereich aber enger, und so eine Konstellation formt auch, wer sich überhaupt daran wagen kann
    • Das hat zwar den Vorteil, Missbrauch zu verhindern, kann aber auch nützliche Anwendungsfälle abschneiden und verschiebt letztlich sogar subtil die Maßstäbe für neue Experimente
  • Die neu eingeführte Lizenz für nichtkommerzielle Nutzung enthält ziemlich strenge Regelungen; man kann dazu den vollständigen Lizenztext lesen

    • Wenn man diese Lizenz korrekt auslegt, darf sie in einem kommerziellen Umfeld nicht verwendet werden, selbst wenn der Zweck nicht in der Erstellung von Derivaten, sondern nur in der Erzeugung einfacher Ergebnisse besteht
    • Ich frage mich, worauf genau diese Lizenz eigentlich angewendet werden soll; vermutlich gibt es abgesehen von leicht nachimplementierbarem Python-Code kaum etwas, das urheberrechtlich geschützt wäre
    • Der Standpunkt ist, dass Modellgewichte keine schöpferischen Werke sind, denen sich in dem Maß Urheberrechte zuweisen lassen, wie Unternehmen es gern hätten, und dass sie auch nicht unter die gesetzliche Definition des Urheberrechts fallen
    • Anders als Datenbanken oder Software erfüllen Modellgewichte die urheberrechtlichen Anforderungen nicht; es wird betont, dass unabhängig davon, wie viel Kreativität eingeflossen ist, kein urheberrechtlicher Schutz besteht
  • Ich würde so ein Modell wie Kontext gern auf eine Weise nutzen, bei der man in Echtzeit auf einer Canvas mit einer KI zusammenarbeitet und ein Bild fertigstellt

    • Ich hoffe wirklich auf eine Erfahrung wie ein „Echtzeit-Malpartner“, bei der Innovationen bei Zeitreihenvorhersagen aus dem LLM-Bereich mit Dingen wie dem Google-Quick-Draw-Datensatz kombiniert werden und man durch Konversation mit dem Pinsel ein Bild vollendet
      • Wenn man das Kontext-Modell von Fal.ai ausprobiert, sind der Vorher-Nachher-Transformations-Slider und die Möglichkeit, mit bearbeiteten Bildern fortlaufend weitere Anpassungen vorzunehmen, beeindruckend
      • Da BFL nun sogar das Dev-Modell veröffentlicht hat, hoffe ich sehr, dass auch ein Kontext-Plugin für Krita erscheint, für das es bereits Plugins für Stable Diffusion gibt
      • Referenzlink zum Krita-Plugin
  • Ich frage mich, mit wie viel VRAM dieses System ungefähr läuft

    • Derzeit werden etwa 18–20 GB VRAM benötigt, aber morgen oder in naher Zukunft könnte es mit etwa einer Stunde Spielraum auch auf 4 GB VRAM laufen
  • Schade, dass die Lizenz restriktiv ist