(相关资料图)
根据斯坦福大学的一项新研究,语音识别系统在理解黑人用户的声音方面比白人用户有更多的困难。
研究人员使用了来自苹果、亚马逊、谷歌、IBM和微软的语音识别工具来转录42名白人和73名黑人的访谈,所有这些访谈都发生在美国。在白人和黑人的访谈中,这些工具分别有19%和35%的时间错误识别单词。系统发现2%的白人音频片段是不可读的,相比之下,20%的黑人音频片段是不可读的。黑人男性的错误率尤其高,为41%,而黑人女性的错误率为30%。
此前的研究表明,面部识别技术也存在类似的偏见。麻省理工学院(MIT)的一项研究发现,亚马逊(Amazon)的一项面部识别服务在识别肤色较浅的男性性别时没有出错,但在识别女性性别或肤色较深的男性性别时表现更差。另一篇论文确认了来自微软、IBM和中国公司Megvii的面部识别软件中类似的种族和性别偏见。
在斯坦福大学的研究中,微软的系统获得了最好的结果,而苹果的表现最差。需要注意的是,这些不一定是用于构建Cortana和Siri的工具,尽管它们可能受到类似的公司实践和理念的约束。
“公平是我们的核心人工智能原则之一,我们致力于在这一领域取得进展,”谷歌的一名发言人在向The Verge网站发表的声明中表示。“多年来,我们一直致力于准确识别语音变化的挑战,并将继续这样做。”
IBM发言人表示:“IBM将继续开发、改进和提升我们的自然语言和语音处理能力,通过IBM Watson为业务用户带来更多的功能。”该报提到的其他公司没有立即回复记者的置评请求。
斯坦福大学的论文认为,种族差异很可能是训练系统的数据集存在偏见的结果。识别算法通过分析大量的数据来学习;一个主要使用白人音频剪辑训练的机器人可能很难转录出更多样化的用户声音。
研究人员敦促语音识别系统的制造商收集关于非裔美国人方言英语(AAVE)和包括地方口音在内的其他英语变体的更好的数据。他们表示,这些错误将使美国黑人更难从Siri和Alexa等语音助手中受益。当语音识别被用于专业场合,如工作面试和法庭抄录时,这种差异也会对这些群体造成伤害。
标签: