1. 主页 > AI展台 > AI产品

语音驱动生成视频,SadTalker-Video-Lip-Sync介绍

今天小熊AI网要介绍一款全新的数字人AI项目,叫做SadTalker-Video-Lip-Sync这个项目是在SadTalker的基础上进行升级,通过利用视频文件来驱动语音生成唇形,同时采用了面部增强技术,使得合成的数字人更加流畅、逼真且自然

以下是SadTalker生成的视频,可以看到基本只有嘴在动,很酷:

语音驱动生成视频,SadTalker-Video-Lip-Sync介绍(图1)

以下是SadTalker-Video-Lip-Sync生成的视频,可以看到整个数字人说话的动作就自然流畅多了,用该工具生成的数字人视频效果也会大幅提升:

项目准备工作:

①目前仅支持N卡,且需要至少6G以上显存才可使用;

②使用期间建议使用魔法,可能需要下载部分模型到本地。

手把手教你本地部署

部署SadTalker-Video-Lip-Sync比较复杂,没关系,我来手把手教你本地部署。

将项目克隆到本地:下载git并安装,在你想要部署SadTalker-Video-Lip-Sync的位置,右键点击,选择“Git Bash Here”。

然后输入以下指令,下载项目:

git clone https://github.com/Zz-ww/SadTalker-Video-Lip-Sync#sadtalker-video-lip-sync.git

等待几分钟即可下载成功。

安装Python:推荐下载Anaconda(一个傻瓜式整合Python的软件)

Python安装

创建虚拟环境

打开Anaconda,选择“CMD.exe”。

在打开的命令提示窗口,输入以下代码,以新建一个Python环境:

conda create -n SVLS python==3.8

新建完成后,继续输入以下代码,来激活刚才生成的SVLS环境:

conda activate SVLS

第三方依赖库安装:在刚才的窗口输入以下代码,进入之前下载SadTalker-Video-Lip-Sync根目录:

cd 部署的SadTalker-Video-Lip-Sync本地路径

然后输入以下代码,安装作者注明的第三方依赖库:

pipinstall torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url <https://download.pytorch.org/whl/cu113>condainstall ffmpegpipinstall -r requirements.txt#如需使用DAIN模型进行补帧需安装paddle# CUDA 11.2python-m pip install paddlepaddle-gpu==2.3.2.post112 \\-f <https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html>

安装FFmpeg:FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序,是SadTalker-Video-Lip-Sync运行的必要支持程序。安装和设置可查看往期内容:AI一键让照片说话,无限且免费!

运行SadTalker-Video-Lip-Sync:输入以下代码,就可以运行了。

conda activate SVLScd 部署的SadTalker-Video-Lip-Sync本地路径python inference.py

上手试试

部署完成后,将需要处理的文件,放置在以下文件目录中:

音频文件:

examples/driven_audio/bus_chinese.wav

视频文件:

examples/source_image/input.mp4

需要注意以下几点:

①音频文件名称必须是“bus_chinese.wav”,视频文件名称必须是“input.mp4”;

②原视频素材中的人脸区域尽量保持固定,不要运动区域过大;

③原视频素材最好是保持闭着嘴的状态;

④音频时长和视频时长尽量一致。

运行结束后,结果在“results”文件夹内,打开最近时间的这个文件夹,后缀是“_full.mp4”的文件就是最终结果视频。

本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/product/1084.html