苹果公司正在努力使具有非典型语言模式的用户更喜欢Siri等语音技术。
根据《华尔街日报》的一篇报道,该公司正在研究如何自动检测某人是否在口吃。
为此,该公司已经积累了近28,000集从播客讲话时口吃的人。
这些数据已在本周的Apple研究报告中发布(PDF链接:https://arxiv.org/pdf/2102.12394.pdf)。
尽管苹果发言人拒绝就如何使用数据发表评论,但至少该公司计划至少使用其中一些数据来改善语音识别系统。
同时,2015年推出的Apple HoldtoTalk功能使用户可以控制他们希望Siri收听多长时间。
这有助于防止助手在完全说出命令之前打断用户或使用户超时。
尽管未在文章中提及,但也可以在macOS和iOS上使用TypetoSiri激活和控制Siri。
对非典型语音模式的培训只是Siri改进的一个研究领域。
苹果还在开发一种系统,该系统可以通过锁定用户独特的语音模式来帮助保护设备的安全性。
《华尔街日报》还报道了其他技术公司,例如亚马逊和谷歌,如何训练他们的数字助理,以了解有关语音命令可能有问题的用户的更多信息。
亚马逊去年12月启动了一项新基金,该基金允许具有非典型语音模式的用户训练算法以识别其独特的语音。
Google还将收集非典型语音数据以供Google Assistant使用。
负责编辑AJX