Runway a dévoilé une avancée majeure dans la génération de vidéos par IA lors de l'événement GTC de NVIDIA, présentant un nouveau modèle capable de générer des vidéos haute définition en temps réel. Le nouveau modèle affiche un "temps jusqu'à la première image" de moins de 100 millisecondes. Cela signifie que la vidéo HD commence à être générée et lue presque instantanément après qu'un commandement soit donné. Cet aperçu de recherche a été co-développé avec NVIDIA et fonctionne sur leur nouvelle architecture Vera Rubin annoncée. Cette capacité en temps réel est une étape fondamentale pour le Modèle Général du Monde de Runway (GWM-1). Elle pousse la technologie au-delà de la simple génération de vidéos et dans le domaine des environnements interactifs en direct.