亲爱的粉丝朋友们好啊!今天熊猫又来介绍好玩有趣的Docker项目了,喜欢的记得点个关注哦!
引言
数字人这个概念相信大家不陌生,从前两年开始陆续就有非常多的品牌在各大电商平台用数字人来进行直播,一方面数字人能实现7x24小时的工作,另一方面它节省了人力成本,虽说效果肯定不及真人,但随着AI的越发智能,用一下还是可以的。
除了直播,熊猫也见过很多自媒体达人也有用数字人来做视频,避免了出镜的尴尬。那既然技术已经这么成熟了,有没有办法用NAS自部署实现“数字飞升”呢?还真有,HeyGem项目目前在Github已经获得了10k的Star了。
项目部署
HeyGem能通过AI实现面部和声音的捕捉,通过捕捉的信息生成你的虚拟形象,随后再通过文本或者声音来驱动你生成的虚拟形象,整个过程都在本地进行,不需要联网,同时生成的数字人还支持八种语言,直接化身外交大使。
因为所有内容都在本地进行,所以HeyGem会用到的镜像非常之大,其中涉及到了人物、声音以及文本三种高精度的模型,三个镜像总大小直接来到了接近60GB。
项目部署并不难,作者已经提供了完整的compose文件,开源地址为https://github.com/duixcom/Duix.Heygem。这里我们打开绿联的Docker,将compose代码直接复制到新建的项目中,或者去开源地址下载之后放到绿联NAS中自行导入也行。
♾️ text 代码:
镜像的拉取非常之慢,需要非常耐心的等待,而拉取完成之后还会解压缩释放文件,整个过程至少半小时起步。
所有都准备好之后会看到三个容器启动,如果容器没有报错,那么项目也就部署成功了。
项目预览
因为性能的限制,熊猫这里没办法给你们演示它的最终效果,只能用官方的预览图。该项目的最低要求是13代的处理器以及4070显卡,而这两熊猫都没有,如果有显卡的可以尝试用绿联的PCIE进行扩展试试。
操作界面大概就长这样,至于效果,这里可以看看官方的一些效果图。
能直接根据本地的人像视频定制模型,也提供了公共的模型库,在生成虚拟人之后可用文本和音频来合成视频。
视频还支持长宽比、人物大小、背景等设置,用来作为直播或者口播的数字人完全足够了。
写在最后
因为性能限制,这次熊猫就没有放实际体验的图了,不过如果手头又满足条件的设备,可以尝试一下,用NAS实现个人的赛博飞升。
以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见