一枚硬币大小的石墨烯片,贴在颈部靠近喉咙处,就能帮助发音障碍者获得新“声”。近日,清华大学集成电路学院任天令教授及合作团队在智能语音交互方面取得重要进展,其研发的可穿戴人工喉可以感知喉部发声相关信号,并通过人工智能模型将其识别和合成为语音,还原准确率超过90%。
这一研究结果为语音识别与交互系统提供了一条新的技术途径,并于近日在线发表在《自然》人工智能子刊《自然·机器智能》上。
语音是人类交流的重要方式,但说话人的健康状态(例如神经疾病、癌症、外伤等原因导致的声音障碍)和周围环境(噪音干扰、传播介质)往往会影响声音的传输和识别。一直以来,研究人员在致力改进语音识别和交互技术以应对微弱的声源或嘈杂的环境。多通道声学传感器可以显著提高声音识别的精度,但会导致更大的设备体积,而可穿戴设备能够获取高质量的原始语音或其他生理信号。然而,目前尚无充分的证据表明喉部肌肉的运动模式和反映在体表的发声器官振动中隐含着可识别的语音特征,且尚无实验证明其作为语音识别技术的完备性。
为解决这一问题,任天令团队成员开发了一款基于石墨烯的智能可穿戴人工喉,同商业麦克风和压电薄膜相比,人工喉对低频的肌肉运动、中频食管振动和高频声波信息有很高的灵敏度,同时也具有抗噪声的语音感知能力。对声学信号和机械运动的混合模态的感知使人工喉能够获得更低的语音基频信号。此外,该器件还可以通过热声效应实现声音的播放功能。人工喉的制作过程简单、性能稳定、易于集成,为语音识别和交互提供了一种新的硬件平台。
团队还利用人工智能模型对人工喉感知的信号进行语音识别和合成,实现了对基本语音元素(音素、声调和词语)的高精度识别,以及对喉癌患者模糊语音的识别与再现,为声音障碍者的沟通和交互提供了一种创新的解决方案。
实验结果表明,人工喉采集的混合模态语音信号可以识别基本语音元素(音素、音调和单词),平均准确率为99.05%。同时人工喉的抗噪声性能明显优于麦克风,在60分贝以上环境噪声下仍能保持识别能力。任天令研究团队进一步演示了它的语音交互式应用:通过集成AI模型,人工喉能够识别一名喉切除术患者模糊说出的日常词语,准确率超过90%。识别出的内容被合成为语音在人工喉上播放,可以初步恢复患者的语音交流能力。
任天令介绍,该人工喉还有很大的优化和拓展空间,例如提高声音的质量和音量,增加语音的多样性和表情,以及结合其他生理信号和环境信息实现更自然和智能的语音交互。研究团队希望通过进一步的研究和合作,让人工喉造福更多的声音障碍者和语音交互的用户。