De tool hing in de lucht en is er dan nu officieel voor gebruik. Google’s nieuwe AI-model voor videogeneratie, Lumiere, maakt gebruik van een nieuw diffusiemodel genaamd Space-Time-U-Net, of STUNet, dat bepaalt waar dingen zich bevinden in een video (ruimte) en hoe ze tegelijkertijd bewegen en veranderen (tijd). Ars Technica meldt dat deze methode Lumiere in staat stelt de video in één proces te maken in plaats van kleinere stilstaande beelden samen te voegen.
Lumiere begint met het maken van een basisframe vanuit de prompt. Vervolgens gebruikt het het STUNet-framework om te beginnen met het benaderen van waar objecten binnen dat frame zich zullen verplaatsen om meer frames te creëren die in elkaar overvloeien, waardoor het lijkt alsof er naadloze beweging is. Lumiere genereert ook 80 frames in vergelijking met 25 frames van Stable Video Diffusion. Tweakers schrijft: