POSTECH团队突破视频生成瓶颈:用虚拟数据教AI生成现实中的动作
这项由韩国浦项科技大学POSTECH联合微软亚洲研究院完成的研究发表于2024年4月的计算机视觉顶会论文编号为arXiv:2604.01666v1。该研究解决了一个让视频生成领域头疼已久的问题如何让AI生成那些在现实中极其罕见但又极具视觉冲击力的动态视频。当我们打开抖音或其他短视频平台时最能抓住眼球的往往是那些充满动感的内容——街舞高手的炫酷breakdance、极限运动员的惊险动作或者电影中快速移动的镜头。然而对于目前的AI视频生成技术来说创造这样的动态内容却是一个巨大的挑战。就好比让一个只见过慢走的人去学习跑步一样困难因为AI的老师——那些用来训练的视频数据中这类高动态内容实在太少了。研究团队面临的核心困境可以用一个简单的比喻来理解如果你想学会做一道复杂的菜但食谱书里几乎没有这道菜的做法你该怎么办传统的解决方案是拼命寻找更多食谱但这既费时又费力。而POSTECH的研究团队选择了一条截然不同的道路——他们决定创造一本虚拟食谱但这本食谱只教你如何掌握烹饪的动作技巧而不涉及菜品的具体外观。这个创新思路的核心在于一个重要发现动作和外观其实是可以分开学习的。就像学习舞蹈时你可以先掌握动作要领再考虑服装和妆容一样。研究团队开发的DynaVid系统采用了一种巧妙的两阶段方法。第一个阶段专门学习如何动第二个阶段再学习如何让动作看起来真实。具体来说研究团队首先利用计算机图形学技术在虚拟世界中创造了大量包含极限动作的场景。这就像在模拟器中训练飞行员一样——虽然是虚拟环境但动作原理是完全真实的。他们让虚拟角色在这些场景中表演各种高难度动作但重点不是记录这些虚拟角色的外观因为虚拟角色看起来往往很假而是记录它们的运动轨迹——也就是光流信息。光流可以理解为一种特殊的动作指纹。当你观看一个人做breakdance时虽然你看到的是完整的人物形象但其实你的大脑同时在追踪每个身体部位的运动轨迹。光流就是这种运动轨迹的数字化表示。重要的是光流只包含动作信息不包含外观信息。这意味着即使是从虚拟角色身上提取的光流也能准确反映真实的动作规律。基于这个理念DynaVid系统的第一个组件——动作生成器——专门学习如何从文字描述中生成相应的动作光流。这个过程就像一个专业的动作指导能够根据表演一段激烈的breakdance这样的描述设计出相应的动作序列。由于有了大量虚拟动作数据的支持这个动作生成器能够创造出现实中极其罕见的高动态动作。系统的第二个组件——动作引导视频生成器——则负责将这些抽象的动作信息转化为真实的视频画面。这个组件专门用真实世界的视频进行训练学会了如何让动作看起来自然真实。当它接收到第一个组件生成的动作信息时就能创造出既有极限动作又看起来完全真实的视频。这种分工合作的方式巧妙地解决了一个长期困扰研究者的问题。如果直接用虚拟视频训练AI生成的结果往往带有明显的塑料感就像那些制作粗糙的动画片一样。但如果只用真实视频训练又无法学会那些现实中罕见的极限动作。DynaVid的方案就像是让AI同时拥有了动作大师和视觉艺术家两种能力前者保证动作的丰富性和准确性后者保证画面的真实性和美观性。一、突破静态思维重新定义视频生成的边界要理解这项研究的重要性我们需要先认识当前视频生成技术面临的根本性挑战。目前最先进的AI视频生成模型比如广为人知的Sora、CogVideoX等虽然在生成普通场景的视频方面表现不错但在处理高动态内容时往往力不从心。这个问题的根源在于训练数据的天然偏差。考虑这样一个现实情况在网络上能找到的视频中普通的日常活动比如走路、简单对话、静态拍摄占据了绝大多数而那些充满动感的内容比如专业舞者的高难度动作、极限运动、快速变化的摄像机运动相对稀少。这就导致AI在学习过程中接触到的教材存在严重的不平衡。就好比一个学生如果只看过慢动作的教学视频就很难理解正常速度甚至高速运动的规律一样。更具体地说当AI尝试生成breakdance这样的动作时由于训练数据中这类动作的样本太少它往往只能拼凑出一些看似相关但实际上不合理的动作序列。结果就是生成的人物可能会出现关节扭曲、动作不连贯甚至身体部位消失等问题。这就像让一个从未见过火车的人去画火车他可能会画出一个有轮子、有车厢的东西但细节和比例都会有严重问题。传统解决这个问题的思路主要有两种。第一种是扩大搜索范围——努力收集更多包含高动态内容的真实视频。但这种方法面临几个实际困难首先这类视频本身就稀少其次即使找到了质量往往参差不齐最重要的是要获得足够数量的高质量动态视频来平衡训练数据需要投入巨大的人力和时间成本。第二种思路是直接使用合成视频——通过计算机图形学技术生成大量包含各种动作的虚拟视频。这个方向已经有一些研究者在探索但面临一个关键问题虚拟视频和真实视频之间存在明显的视觉差异。用虚拟视频训练的AI往往会学会虚拟世界的视觉特征导致生成的视频带有明显的人工痕迹。这就像让一个人只看动画片学习现实世界他对真实世界的理解必然会有偏差。POSTECH研究团队提出的第三种思路可以说是革命性的他们意识到动作和外观是两个相对独立的维度可以分别处理。这个洞察的关键在于虚拟世界中的动作规律与真实世界是完全一致的——重力、惯性、关节运动范围等物理法则在虚拟和现实中都是相同的。问题只在于虚拟世界的视觉渲染效果不够真实。因此研究团队决定从虚拟视频中提取纯粹的动作信息即光流而完全抛弃其视觉外观信息。光流是计算机视觉中一个重要概念它描述的是图像中每个像素点在连续帧之间的移动情况。可以把光流想象成运动的指纹——它记录了物体如何移动但不关心物体本身长什么样子。这种方法的巧妙之处在于即使是从看起来很假的虚拟视频中提取的光流也能准确反映真实的运动规律。就好比虽然动画片中的角色看起来不真实但他们的跑步姿势仍然遵循真实的人体运动学原理。通过这种方式研究团队成功地将虚拟数据的优势动作多样性和精确控制与真实数据的优势视觉真实性结合起来。为了验证这个思路研究团队构建了两个专门的合成数据集DynaVid-Human和DynaVid-Camera。DynaVid-Human专注于人体的高动态动作包含了各种极限运动、舞蹈和体操动作DynaVid-Camera则专注于摄像机的快速运动包含了各种复杂的镜头变化和视角切换。这两个数据集的共同特点是包含了大量在真实世界中很难捕捉到的极限场景。二、巧妙的双重学习让AI同时掌握动作与美学DynaVid系统的核心架构可以用一个精巧的比喻来理解就像培养一个全能的电影制作人需要同时掌握动作指导和视觉效果两项技能。在传统的电影制作中动作指导负责设计和编排各种动作场面而视觉效果师则负责让这些动作在屏幕上呈现出最佳的视觉效果。DynaVid系统正是模仿了这种专业分工的模式。系统的第一个核心组件是动作生成器它的工作就像一个经验丰富的动作指导。当接收到文字描述比如一个穿着橙色衣服的人表演激烈的breakdance动作时这个组件需要在脑海中构想出相应的动作序列然后将这些动作转换成光流的形式输出。这个过程听起来简单实际上却需要深度的理解能力。为了让动作生成器掌握丰富的动作词汇研究团队使用了两种类型的训练数据。首先是从真实视频中提取的光流数据这些数据教会了系统什么是正常的、自然的动作模式。可以把这个过程想象成让一个舞蹈学生观看大量的基础舞蹈教学视频掌握基本的身体协调性和动作流畅性。接下来系统开始学习更高级的技能——那些在真实世界中罕见但又极其重要的极限动作。这时候从DynaVid数据集中提取的合成光流数据就发挥了关键作用。这些数据就像是专门的高难度动作教程包含了各种在现实中很难捕捉到的复杂运动模式。通过学习这些数据动作生成器的动作词汇库得到了极大的扩充。训练策略的设计也体现了研究团队的巧思。他们采用了一种先基础后进阶的方法首先让系统在真实光流数据上进行预训练建立对正常动作的基础理解然后在合成光流数据上进行微调学习极限动作。更重要的是在微调阶段每个训练批次都同时包含真实和合成的光流数据确保系统在学习新技能的同时不会忘记已有的能力。这种策略就像让一个舞者在学习高难度动作的同时仍然定期练习基本功一样。对于摄像机控制这个特殊应用动作生成器还配备了一个专门的控制分支。这个分支的工作原理类似于电影摄影师的取景器——它接收精确的摄像机参数比如位置、角度、移动轨迹然后指导动作生成器产生相应的光流模式。这种设计使得系统能够根据用户指定的摄像机路径精确生成相应的视觉运动效果。系统的第二个核心组件是动作引导视频生成器它的角色更像是一个技艺精湛的视觉效果师。这个组件的任务是接收动作生成器输出的光流信息然后创造出看起来完全真实的视频画面。与动作生成器不同这个组件完全使用真实世界的视频数据进行训练确保生成的画面具有真实世界的视觉特征。动作引导视频生成器的工作过程可以用这样的比喻来理解它就像一个能够听懂动作指令的超级演员。当动作指导动作生成器给出具体的动作要求时这个演员能够完美地执行这些动作并且表现得非常自然真实。关键在于这个演员已经通过观看大量真实世界的表演学会了如何让任何动作都看起来真实可信。为了提高这个组件的性能研究团队还开发了一种巧妙的数据清洗技术。他们发现从真实视频中提取的光流数据不可避免地包含一些估计误差就像拍摄时的轻微抖动或者算法的小瑕疵。这些误差如果不加处理会影响系统学习正确的动作-视频对应关系。研究团队采用了光流循环一致性检查来解决这个问题。简单来说就是通过前向和后向光流估计的比较来识别和剔除那些误差较大的数据样本。这个过程就像质量检查员检验产品一样——只有通过了严格质量标准的训练样本才会被用于最终的训练过程。整个系统的训练过程体现了一种精妙的平衡艺术。一方面需要保证动作生成器能够产生丰富多样的动作模式特别是那些极限动作另一方面需要确保动作引导视频生成器能够忠实地执行这些动作指令同时保持视觉真实性。这种平衡就像训练一个电影制作团队——既要有创意和想象力又要有执行能力和技术水准。三、数据炼金术化虚拟为现实的技术魔法DynaVid系统最核心的创新在于它对数据的独特处理方式。如果说传统方法是大海捞针式地寻找稀有的高动态真实视频那么DynaVid的方法更像是点石成金——将看似无用的虚拟数据转化为极其宝贵的训练资源。这个转化过程的关键环节是光流表示技术。光流本身是计算机视觉领域的一个经典概念但在这里被赋予了新的使命。研究团队需要解决一个技术难题如何将光流数据输入到原本为处理RGB视频而设计的神经网络中他们的解决方案颇具创意将光流转换为一种特殊的颜色编码。具体来说光流的每个向量都有方向和大小两个属性就像风既有风向又有风力一样。研究团队将这两个属性分别映射到颜色的色相和亮度维度上。这样每个光流向量都对应一个特定的颜色而整个光流场就变成了一幅彩色图像。这种编码方式的巧妙之处在于它保持了光流信息的完整性同时又让现有的视频处理网络能够直接处理这些数据。就好比发明了一种新的音乐记谱法既能准确记录音乐信息又能被现有的乐器演奏者理解和使用。数据生成流程的设计也体现了研究团队的深思熟虑。在构建DynaVid-Human数据集时他们从Mixamo这个专业动作数据库中获得了各种高质量的人体动作序列。这些动作序列就像是专业舞者的动作教程包含了各种在现实中很难捕捉到的复杂动作。然后他们在Blender这个专业3D软件中创建了各种真实感的场景让虚拟角色在这些场景中表演各种动作。值得注意的是虽然最终的RGB视频可能看起来有些假但通过Blender的物理引擎生成的光流却是完全准确的。这是因为物理法则在虚拟世界中被严格执行——重力加速度、摩擦力、惯性等都与真实世界完全一致。因此虚拟角色的运动轨迹反映了真实的人体动力学原理。对于DynaVid-Camera数据集的构建研究团队采用了更加复杂的摄像机轨迹设计。他们没有简单地让摄像机做直线运动或简单旋转而是设计了包含急速转向、大幅度升降、快速缩放等复杂运动的轨迹。这些轨迹使用NURBS曲线进行平滑处理确保运动的连续性和自然性同时又保持了足够的动态性。数据处理过程中的一个重要细节是对光流幅度的归一化处理。原始的光流数据往往包含极大的数值范围——从几乎静止的微小运动到极快的大幅移动。如果直接使用这些数据神经网络很难有效学习。研究团队设计了一种自适应的归一化方法既保持了运动方向的准确性又让不同幅度的运动都能得到适当的表示。更有趣的是研究团队发现虚拟数据和真实数据之间存在某种互补性。虚拟数据的优势在于动作的极致性和控制的精确性但可能缺少真实世界中的一些微妙细节比如衣物的飘动、头发的摆动等。而真实数据虽然包含这些细节但往往缺乏足够的动态性。通过巧妙的混合训练策略DynaVid系统能够同时利用两种数据的优势。为了验证数据处理策略的有效性研究团队进行了大量的对比实验。他们发现单独使用虚拟数据训练的模型虽然能生成动态的动作但往往带有明显的人工痕迹单独使用真实数据训练的模型虽然视觉真实但动作范围受限。只有采用他们提出的混合策略才能实现动态性和真实性的完美平衡。四、实战验证从理论到实践的华丽转身任何技术创新的真正价值都需要通过实际应用来验证。DynaVid系统在两个极具挑战性的场景中接受了严格的测试极限人体动作生成和复杂摄像机控制。这两个场景的选择并非偶然而是因为它们代表了视频生成技术的两大珠峰——动态物体建模和三维空间理解。在人体动作生成测试中研究团队选择了breakdance作为主要的评测对象。Breakdance之所以成为理想的测试案例是因为它集中体现了高动态视频生成的所有难点快速的身体旋转、复杂的肢体协调、重心的频繁变化以及各种在日常生活中罕见的极限姿态。传统的视频生成模型在面对这类动作时往往会出现身体变形、动作不连贯、物理规律违背等问题。实验结果令人印象深刻。与当前最先进的视频生成模型如CogVideoX-5B和Wan2.2-5B相比DynaVid生成的breakdance视频在动作的流畅性、身体比例的准确性以及整体的视觉真实性方面都有显著提升。特别值得注意的是DynaVid生成的人物在进行快速旋转或倒立等极限动作时身体各部位的关系仍然保持正确这在以往的模型中是很难实现的。摄像机控制测试则展现了DynaVid在三维空间理解方面的能力。研究团队设计了一系列包含180度快速旋转、急剧升降、快速推拉等极限摄像机运动的测试场景。这些运动在专业电影制作中虽然常见但对AI系统来说却是极大的挑战因为它们要求系统准确理解三维空间关系并能够从全新的视角重构场景。在与专业摄像机控制模型如AC3D和GEN3C的对比中DynaVid展现出了明显的优势。AC3D虽然在简单摄像机运动下表现不错但在面对快速的大幅度运动时往往失去控制生成的视频会出现不自然的跳跃或扭曲。GEN3C虽然能够处理复杂运动但由于它需要依赖输入图像来重建三维信息在视角变化过大时会产生明显的视觉伪影特别是在那些原本不可见的区域。DynaVid的优势在于它通过合成数据学习到了丰富的空间变换知识。当摄像机进行复杂运动时系统能够准确预测场景中各个元素的相对运动生成连贯自然的视频序列。更重要的是即使在极限运动场景下生成的视频仍然保持了高度的视觉真实性。量化评估结果进一步证实了DynaVid的优越性。在标准的视频质量指标如FVD、美学质量、图像质量等方面DynaVid在处理高动态场景时显著优于现有方法。特别是在运动平滑性和时间一致性方面DynaVid表现出色这直接反映了其在动作建模方面的优势。为了深入理解系统的工作机制研究团队还进行了详细的消融实验。这些实验就像解剖学研究一样通过逐一移除系统的不同组件来理解每个部分的具体作用。结果显示合成运动数据的引入是性能提升的最关键因素——没有这些数据系统在高动态场景下的表现急剧下降。同时混合训练策略也被证明是必要的——纯粹使用合成数据会导致生成结果带有人工痕迹而纯粹使用真实数据则无法覆盖足够的动作范围。一个令人惊喜的发现是DynaVid的泛化能力。虽然DynaVid-Human数据集只包含人类动作但训练好的系统却能够生成其他类型的动态对象比如动物的运动。这种跨域泛化能力暗示了系统学到的不仅仅是表面的动作模式而是更深层的运动规律和物理原理。五、技术深度解开AI视频生成的神秘面纱要真正理解DynaVid的技术价值我们需要深入了解其背后的核心技术创新。这些创新不仅解决了当前的问题更为未来的视频生成技术发展指明了方向。首先是架构设计的巧思。DynaVid采用的两阶段生成框架并非简单的功能分割而是基于对视频生成本质的深刻理解。研究团队意识到视频的内容和表现是两个相对独立的维度。内容层面涉及什么在动、如何动等语义信息而表现层面则涉及看起来如何的视觉效果。传统的端到端方法试图同时处理这两个维度但往往在复杂场景下力不从心。DynaVid的分阶段设计让每个组件都能专注于自己的核心任务。动作生成器专注于理解和生成运动模式不需要担心视觉渲染的细节动作引导视频生成器专注于视觉质量可以充分利用真实世界的视觉数据。这种设计哲学类似于现代软件工程中的关注点分离原则通过合理的模块化来降低系统复杂度并提高性能。控制机制的设计也体现了深刻的工程智慧。对于摄像机控制这个特殊需求研究团队采用了Plucker嵌入这种数学工具来表示摄像机参数。Plucker嵌入能够将复杂的三维空间关系编码为神经网络容易处理的向量形式同时保持空间变换的几何性质。这种表示方法的选择显示了研究团队在数学理论和实际应用之间找到了恰当的平衡点。训练策略的设计更是体现了对机器学习深层机制的理解。传统的训练方法往往采用单一数据源和固定的训练过程但DynaVid采用了更加复杂但更有效的多阶段、多数据源训练策略。预训练阶段使用真实数据建立基础能力微调阶段引入合成数据扩展能力边界而混合批次训练则确保两种能力的平衡发展。这种策略就像培养一个全面发展的人才既要有扎实的基础又要有特殊的专长还要保持各种能力的协调发展。数据质量控制是另一个值得深入分析的技术亮点。光流循环一致性检查看似简单实际上涉及对视频时序关系的深刻理解。这种方法基于一个重要的物理原理真实世界中的运动是连续和可逆的。通过比较前向和后向光流的一致性系统能够有效识别那些违反物理常识的数据样本。这种质量控制机制不仅提高了训练数据的可靠性也间接提升了最终模型的物理合理性。模型的鲁棒性分析揭示了系统设计的另一个优势。通过对噪声光流的测试研究团队发现DynaVid在面对输入扰动时表现出良好的稳定性。这种鲁棒性来源于动作引导视频生成器的设计——它不仅学会了如何执行精确的动作指令还学会了如何处理不完美的输入。这种能力在实际应用中至关重要因为现实世界的输入往往包含各种噪声和不确定性。从计算效率的角度来看DynaVid的设计也体现了实用性的考量。虽然采用了两阶段生成但每个阶段的计算复杂度都相对可控。更重要的是两个阶段可以独立优化和部署为不同应用场景提供了灵活性。例如在只需要生成动作而不需要完整视频的场景下可以只使用第一阶段在已有动作信息需要生成视频的场景下可以只使用第二阶段。技术创新的另一个重要方面是其可扩展性。DynaVid的框架设计具有良好的模块化特性可以方便地集成新的控制信号或适应新的应用场景。例如除了摄像机控制之外系统还可以扩展支持其他类型的控制信号如物体轨迹、光照变化等。这种可扩展性为未来的技术发展留下了充分的空间。六、应用前景开启视频创作新纪元DynaVid技术的意义远远超出了学术研究的范畴它为多个行业带来了革命性的应用可能。从内容创作到教育培训从娱乐产业到专业设计这项技术正在重新定义我们对视频生成和创作的理解。在影视制作领域DynaVid最直接的应用是动作预演和概念设计。传统的电影制作流程中复杂的动作场面往往需要昂贵的预拍摄或详细的故事板绘制。有了DynaVid导演和动作设计师可以快速生成各种动作方案的视频预览大大降低了创意实验的成本。特别是对于那些涉及高风险动作的场面可以先通过AI生成来验证可行性和视觉效果再决定是否进行实际拍摄。对于独立制作人和小型工作室来说DynaVid更是一个游戏规则改变者。以往只有大制片厂才能负担得起的复杂动作场面制作现在可以通过AI技术以极低的成本实现。一个小团队可以创作出包含复杂武打动作、极限运动或科幻场面的短片这为创意内容的民主化开辟了新的道路。在体育分析和训练领域DynaVid的应用同样具有巨大价值。教练可以使用这项技术生成标准动作的示范视频帮助运动员理解和学习复杂的技术动作。更进一步可以根据运动员的具体问题生成针对性的训练视频展示正确和错误动作的对比。这种个性化的视觉训练材料可以显著提高训练效果。教育行业的应用潜力也不容小觑。在物理教学中可以生成各种运动学和动力学现象的可视化视频在历史教学中可以重现历史事件的场景在艺术教育中可以展示各种舞蹈和表演艺术的动作要领。这些应用不仅让抽象概念变得具体可见也大大丰富了教学资源的来源。游戏和虚拟现实产业是另一个重要的应用领域。游戏开发者可以使用DynaVid快速生成角色动画的原型减少传统动画制作的工作量。在虚拟现实应用中可以根据用户的动作输入实时生成相应的视觉反馈创造更加沉浸式的体验。特别是在健身和运动类VR应用中可以提供精确的动作指导和反馈。社交媒体和内容创作平台也将从这项技术中受益。普通用户可以通过简单的文字描述生成专业水准的动态视频内容大大降低了视频创作的门槛。这可能会催生新的内容形式和创作模式让更多人能够表达自己的创意想法。在广告和营销领域DynaVid可以快速生成产品演示视频特别是那些需要展示产品在极端条件下性能的场景。例如汽车厂商可以生成展示车辆在各种路况下行驶的视频运动用品公司可以生成展示装备在极限运动中表现的视频。医疗康复领域的应用也值得期待。物理治疗师可以为患者生成标准的康复动作演示视频帮助患者在家中进行正确的康复训练。对于一些特殊的康复需求还可以生成定制化的训练视频确保动作的准确性和安全性。然而任何强大的技术都带来相应的责任和挑战。DynaVid的普及可能会引发内容真实性和版权保护的新问题。当AI可以轻松生成逼真的人物动作视频时如何区分真实内容和AI生成内容变得更加重要。这需要技术社区、政策制定者和社会各界共同努力建立适当的规范和标准。此外技术的民主化也可能带来内容质量的分化。虽然更多人能够创作视频内容但如何保证内容的质量和创意水准避免同质化的问题也是需要思考的问题。这可能需要在技术工具之外发展相应的创意指导和质量评估机制。从长远来看DynaVid代表的技术方向可能会催生全新的职业和技能需求。AI动作设计师、虚拟内容策划师、人机协作创作者等新兴职业可能会逐渐出现。这要求教育体系和职业培训机制及时调整为这个变化的世界培养适应性人才。说到底DynaVid不仅仅是一个技术突破更是人类创造力表达方式的一次重要进化。它让更多人能够实现自己的视觉创意让复杂的想法能够以更直观的方式呈现。在这个技术与创意融合的新时代我们有理由期待更多令人惊喜的应用和创新。毕竟当技术的门槛降低了人类的创造力往往会以意想不到的方式绽放。这项由POSTECH联合微软亚洲研究院完成的研究为我们展示了AI技术发展的一个重要方向不是简单地模仿人类的能力而是通过巧妙的设计和创新的思路让AI在某些方面超越人类的局限。有兴趣深入了解技术细节的读者可以通过论文编号arXiv:2604.01666v1查询完整的研究报告。随着这项技术的进一步发展和应用我们有理由相信一个更加丰富多彩的视频创作时代正在到来。QAQ1DynaVid为什么能生成现实中很少见的极限动作视频ADynaVid的核心创新在于使用虚拟世界中的运动数据来训练AI。研究团队发现虽然虚拟角色看起来很假但它们的运动规律与真实世界完全相同。通过提取这些虚拟动作的运动指纹光流信息再结合真实视频的视觉效果系统就能生成既有极限动作又看起来真实的视频。Q2普通人能使用DynaVid技术制作视频吗A目前DynaVid还是研究阶段的技术但它的设计理念是让视频制作更加便民。用户只需要用文字描述想要的动作比如表演breakdance系统就能自动生成相应的动态视频。这大大降低了专业视频制作的门槛让没有专业技能的普通人也能创作出高质量的动态内容。Q3DynaVid生成的视频质量如何会不会看起来很假ADynaVid的一大优势就是在保持动作丰富性的同时确保视觉真实性。系统采用两阶段设计第一阶段负责生成动作第二阶段负责让画面看起来真实。实验结果显示它生成的视频在视觉质量、动作流畅性等方面都明显优于现有的视频生成技术即使是复杂的breakdance动作也能保持身体比例准确和动作自然。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2516581.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!