Lumiere 剪辑预告片中的静帧|图片:谷歌
谷歌的新视频生成人工智能模型Lumiere使用一种名为 Space-Time-U-Net 或 STUNet 的新扩散模型,该模型可以计算出事物在视频中的位置(空间)以及它们如何同时移动和变化(时间)。 技术艺术 据报道,这种方法可以让 Lumiere 在一个过程中创建视频,而不是将较小的静止帧放在一起。
Lumiere 首先根据提示创建基础框架。然后,它使用 STUNet 框架开始近似该帧内的对象将移动的位置,以创建更多彼此流动的帧,从而创建无缝运动的外观。 Lumiere 还生成 80 帧,而稳定视频扩散仅生成 25 帧。
诚然,我更像是一名文字记者,而不是视频记者,但是……
原文: https://www.theverge.com/2024/1/27/24052140/google-lumiere-ai-video-generation-runway-pika