Dit is gek! Met LTX 2 in ComfyUI kon ik mijn originele camerabeweging behouden + het deed een volledige lip-sync op het zingen haha. Alles draait lokaal. Ik maakte de originele video in 2021 toen Metahumans net uitkwamen en we werkten in Unreal Engine 4. Deze muziekvideo was een soort resultaat van mijn eerste experimenten met Livelink en Control Rig in die tijd. Nu is de nieuwe AI verbeterde versie niet perfect en ik heb nog geen lora getraind voor consistentie van de karakters. Ik had ook het originele videobestand niet meer, dus ik heb de Youtube-versie als input gedownload haha. Echter, het camer resultaat + gezichtsuitdrukkingen zijn echt veelbelovend! Ik vraag me af hoe het zou omgaan met complexere en snellere shots.