科技冬奥,冰雪之约|这届冬奥会,虚拟人含量有点高( 三 )


比如以科技奥运为主题的08年奥运会 , 其中运用并大力推广的如电子商务、人脸识别、指纹识别、场馆数字化系统等等先进技术 , 仅仅是在奥运会之后的一年时间里 , 就已经成为社会经济、和人们生活中随处可见的东西 。
从这个角度来讲 , 这一次在冬奥会中被广泛应用的虚拟人技术很大程度上也会如此 。而这次在冬奥会上应用的技术及其背后的企业 , 也必将在未来虚拟数字人的普及应用上扮演重要的角色 。
就AI手语虚拟主播来说 , 其背后的技术就分别来自百度和腾讯 , 其中百度主要为央视电视直播提供手语翻译服务 , 腾讯的聆语主要为央视频提供手语翻译服务 , 并上线小聪在腾讯体育上进行手语翻译 。
AI手语翻译的主要困难在于 , 手语也有自己的“语法” , 语序也并不一定与汉语相同 , 且手语也存在“方言” , 即便是真人手语翻译师也难以保障百分百的可懂度 。因此AI手语虚拟主播本质上仍是一个即时翻译功能 。
由百度开发的AI手语虚拟主播由其数字人平台曦灵打造 , 主要是通过语音识别、自然语言理解等人工智能技术构建手语翻译引擎 , 再通过专为手语优化的自然动作引擎奖授予实时演绎为数字人的表情动作 。而“聆语”则由腾讯云小微联合PCG AI等技术团队共同打造 , 通过整合多模态交互技术、3D数字人建模、机器翻译、语音识别和自然语言理解等技术优化手语翻译 。
相关报道显示 , 百度通过百度智能云构建手语翻译引擎 , 可懂度达到85%以上 , 聆语词汇和语句覆盖量超过160万 , 手语翻译的可懂度可达90% , 基本可以满足电视直播手语翻译的需要 。
而在手语翻译之外 , 另一位关键虚拟人 , 天气主持人冯小殊背后 , 则是微软小冰在虚拟数字人技术上的积累 。
据了解 , 微软小冰所提供的冯小殊仅用了1周的时间就完成了对冯殊本人的学习 , 这背后是微软小冰通过深度神经网络渲染技术及小样本学习技术 。用少量样本就令冯小殊的面容、表情、肢体动作的整体自然度就达到了与真人相似的程度 , 再经过语音、嘴型、人脸渲染专家模型训练 , 学习了冯殊本人的嘴部动作、眼部及脸部肌肉之间的协同关系 。
科技冬奥,冰雪之约|这届冬奥会,虚拟人含量有点高
文章图片

冯小殊播报天气 来源/中国天气
而作为冬奥会备受瞩目的运动员 , 谷爱凌的数字分身Meet GU则是则应用了3D人脸关键点位置精确修正、眼眶眼球自动适配、任意姿态人脸配准等核心技术 , 让3D人脸拟合精度达亚毫米量级 。
但与微软小冰的冯小殊不同 , Meet GU在冬奥直播间里的做报道并非其主要任务 , 从Meet GU自诞生到现在的主要活动中不难发现 , 代替谷爱凌进行冰雪运动推广才是 。
自Meet GU在“中国移动5G冰雪之队”发布会上首次亮相以来 , Meet GU先后受邀担任首档元宇宙交互冰雪音频节目的DJ , 以及成为热爱REAI的“探秘伙伴”共同为冬奥做宣传 。
Meet GU的出现令谷爱凌可以在不影响日常训练生活的情况下完成上述工作 。而除此之外 , 在更多虚拟主播的应用场景中 , 这种“替代”关系也随处可见 。

推荐阅读