沉浸式指令 Unity为VR打造语音识别脚本与分析工具

交互一直以来都是虚拟现实领域的重头戏,我们一直以来所熟悉的交互形式是手柄或者体感控制器。不过现在,UnityVR交互的关注点投向了另一个终极的沉浸式指令模式——声音——它制作了一些用于实现这个功能的语音识别和分析工具,现在还有一些语音文本转换方案可以将这个理论付诸实践。

VR交互 VR Unity

Unity在 一篇博文中非常详细的讨论了这一技术方向,大量讲述了语音识别可以如何提升VR体验的理论内容。这篇文章对语音识别的基本实现方式进行了深入的讨论,如果 要用一句话总结语音对VR的意义的话,就是“为了让人们感受到真实的VR体验,AI需要非常精确的分析你的话语并给出恰当的回应。” 也就是说,应用不但需要能够识别你的语音,还要能按照你的意思准确行动。

如果要实现语义分析的话,AI必须从用户的语言中找出一些既定的模式,理解它们相应的行为和反应是什么。“如果一个应用是设计被一位用户长时间使用的话,好的AI将可以找出用户的语言模式,不仅能根据用户调整自己的反应,还能预测他们在特定情境下可能会说什么话。”

Unity Labs目前在这方面的研究成果是一个Asset Store的文件包,它将多个语音识别解决方案整合到了Unity C#脚本之中,其中包括一个用于比较文本转换结果的场景,用户可以通过朗读句子来判断它的准确度。

这个由Unity提供的语音文本转换文件包已经在Asset Store中免费提供。“我们的Asset Store文件包目前整合了少量语音文本转换工具,不过你已经可以用市面上最主流的解决方案来跟它比较,了解现有语音识别工具的优势和不足。”

更多VR资讯,请关注好色VR

打赏
分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址