Das ist verrückt! Mit LTX 2 in ComfyUI konnte ich meine ursprüngliche Kamerabewegung beibehalten + es hat ein vollständiges Lippen-Sync beim Singen gemacht, haha. Alles läuft lokal. Ich habe das ursprüngliche Video 2021 gemacht, als Metahumans gerade herauskamen und wir in Unreal Engine 4 gearbeitet haben. Dieses Musikvideo war eine Art Ergebnis meiner ersten Experimente mit Livelink und Control Rig zu dieser Zeit. Jetzt ist die neue, verbesserte KI-Version nicht perfekt und ich habe noch kein Lora für die Konsistenz der Charaktere trainiert. Ich hatte auch die ursprüngliche Videodatei nicht mehr, also habe ich die Youtube-Version als Eingabe heruntergeladen, haha. Das Kamerergebnis + die Gesichtsausdrücke sind jedoch wirklich vielversprechend! Ich frage mich, wie es mit komplexeren und schnelleren Aufnahmen umgehen würde.