FLUX.2 [klein] 9B is net 2x sneller geworden bij het bewerken van afbeeldingen, vooral wanneer je meerdere referentieafbeeldingen gebruikt. Dezelfde kwaliteit, geen prijsverhoging.
Onder de motorkap: KV-caching laat het model overbodige berekeningen op je referentieafbeeldingen overslaan. Hoe meer referenties je gebruikt, hoe groter de versnelling. Inferentie is tot 2x+ sneller voor multi-referentie bewerking.
We brengen ook FP8-gekwantificeerde gewichten uit, gebouwd met @NVIDIA_AI_PC Voer Klein 9B uit met minder VRAM en snellere inferentie voor lokale en zelf-gehoste implementaties.
174