阿里巴巴万相AI推出的Wan 2.2视频AI模型

万相AI是由通义实验室开发的先进视觉生成模型,能够基于文本、图像和其他控制信号生成视频。Wan 2.2系列模型在Wan 2.1之后已全面开源。

Wan 2.2

433/1200

No Video Generation History

Enter a prompt and click "Generate Video" to start creating! Your videos will appear here.

万相AI概述

SOTA性能表现

Wan-2.2-AI Image to Video Example 1

Wan 2.2在多个基准测试中持续超越现有开源模型和最先进的商业解决方案。

支持消费级GPU

T2V-1.3B模型仅需8.19GB显存,兼容几乎所有消费级GPU。在RTX 4090上(未使用量化等优化技术)约4分钟即可生成一段5秒的480P视频,其性能甚至可与某些闭源模型相媲美。

多任务处理能力

Wan-2.2-AI Image to Video Example 2

Wan 2.2在文生视频、图生视频、视频编辑、文生图和视频转音频等任务中表现卓越,推动了视频生成领域的发展。

视觉文本生成

Wan 2.2是首个能够生成中英文文本的视频模型,具有强大的文本生成能力,增强了其实际应用价值。

万相AI强大的视频VAE

Wan-2.2-AI Image to Video Example 3

Wan-VAE具有卓越的效率和性能,能够编码和解码任意长度的1080P视频并保留时间信息,是视频和图像生成的理想基础。

万相AI特色功能

万相AI 2.2的复杂动作生成

擅长生成包含大幅度肢体动作、复杂旋转、动态场景转换和流畅摄像机运动的逼真视频。

万相AI 2.2的物理模拟

Wan-2.2-AI Video Feature Example 1

生成的视频能够准确模拟现实世界的物理现象和逼真的物体交互。

万相AI 2.2的电影级画质

提供具有丰富纹理和各种风格化效果的电影级视觉效果。

万相AI 2.2的可控编辑

Wan-2.2-AI Video Feature Example 2

配备通用编辑模型,可通过图像或视频参考进行精确编辑。

万相AI 2.2的视觉文本生成

直接根据文本提示在视频中创建文本和动态文本效果。

产品特性

通过我们的产品,您可以凭借友好的用户体验无缝利用我们的模型,获取富有启发性的视频内容。

Wan-2.2-Artany Feature 1

文生视频

图生视频

Wan-2.2-Artany Feature 2

首尾帧生成

万相AI 2.1开源版本

在本仓库中,我们发布了Wan 2.1的代码和权重,这是一个全面开放的视频基础模型套件,旨在突破视频生成的边界。

Wan2.1-I2V-14B

I2V-14B模型超越了领先的闭源模型和所有现有开源模型,实现了SOTA性能。它能够基于输入的文本和图像生成展示复杂视觉场景和运动模式的视频,包括480P和720P分辨率模型。

Wan2.1-T2V-14B

480-720P
Wan-2.2-AI Video Analysis Example

T2V-14B模型在开源和闭源模型中均创造了新的SOTA性能,展示了其生成具有大量运动动态的高质量视觉效果的能力。它也是唯一能够生成中英文文本的视频模型,并支持480P和720P分辨率的视频生成。

Wan2.1-T2V-1.3B

480P
Wan-2.2-AI Video Processing Example

T2V-1.3B模型支持在几乎所有消费级GPU上进行视频生成,仅需8.19GB显存即可生成5秒480P视频,在RTX 4090 GPU上的输出时间仅需4分钟。通过预训练和蒸馏过程,它超越了更大的开源模型,甚至实现了与某些先进闭源模型相媲美的性能。

Wan2.1-FLF2V-14B-720P

Wan 2.1首尾帧生成视频(FLF2V)是一种基于AI的视频生成技术,可在给定的起始帧和结束帧之间合成中间帧以生成流畅视频。它利用14B参数模型,支持多GPU加速推理,并提供预训练检查点和Gradio演示进行交互测试。应用场景包括视频修复、动画制作等。

阿里云Wan2.2 - 现已发布!

新一代升级,突破极限

全新Wan2.2正式推出,带来更强性能、更高效率和更智能的体验!

Wan2.2极速计算

体验Wan2.2优化架构带来的卓越性能

超低延迟

Wan2.2提供无与伦比的网络传输效率

广泛兼容

Wan2.2支持多样化业务场景

AI智能优化

Wan2.2具备智能自动调优能力

立即体验Wan2.2!

探索Wan2.2的最新功能和优势!

常见问题

1

什么是万相AI的Wan 2.2?它是如何工作的?

万相AI的Wan 2.2是阿里云最先进的视频生成模型,可将文本描述转换为令人惊叹的高质量视频。它利用变分自编码器(VAE)和扩散变换器(DiT)等先进技术,确保逼真的视觉效果、流畅的过渡和准确的物理模拟,带来真正沉浸式的体验。

2

使用万相AI的Wan 2.2需要专业技术知识吗?

万相AI的Wan 2.2设计简洁直观。其用户友好的界面让任何人都能轻松创建专业质量的视频,无需高级技术技能。无论您是初学者还是专业人士,都能轻松上手使用该平台。

3

我能用万相AI的Wan 2.2创建哪些类型的视频?

万相AI的Wan 2.2功能多样,能够生成多种视频内容。从舞蹈和体育等动态场景,到教育教程和历史视频修复,它都能帮助您将创意愿景变为现实。

4

生成视频需要多长时间?

视频生成时间取决于项目的复杂程度和长度。专业版提供加速处理速度,适合时间敏感的任务。

5

我可以自定义视频输出吗?

当然可以!万相AI的Wan 2.2提供广泛的自定义选项,允许您调整分辨率、帧率、运动复杂度等参数。根据您的具体需求和偏好定制视频。

6

万相AI的Wan 2.2支持哪些输入格式进行视频生成?

万相AI的Wan 2.2主要支持文本描述作为视频生成的输入。您可以提供详细的文本提示,描述场景、动作和所需的视觉效果。未来更新中可能会支持图像输入以增强上下文。

7

万相AI的Wan 2.2能生成多语言视频吗?

是的,万相AI的Wan 2.2支持多语言文本输入,允许您基于不同语言的描述生成视频。不过输出质量可能因语言和描述复杂度而异。

8

万相AI的Wan 2.2生成的视频长度有限制吗?

生成视频的长度取决于订阅计划。免费版可能对视频时长有限制,而专业版支持更长、更复杂的视频生成。具体限制可在平台文档中找到。

9

万相AI的Wan 2.2如何确保生成视频的质量?

万相AI的Wan 2.2利用变分自编码器(VAE)和扩散变换器(DiT)等先进技术确保高质量输出。这些技术可实现逼真的视觉效果、流畅的过渡和准确的物理模拟。

10

万相AI的Wan 2.2如何处理多角色的复杂场景?

万相AI的Wan 2.2通过分析文本输入中描述的关系和交互来处理多角色的复杂场景。它使用先进算法确保角色之间的定位、移动和交互真实可信。