语音识别揭秘,它与人工智能是什么关系?
2019年12月12日 由 TGS 发表
273764
0
自1962年IBM推出第一台语音识别机器以来,语音识别科学已经走了很长一段路。这已经不是什么秘密了。
随着技术的发展,语音识别已越来越多地渗透到我们的日常生活中,这些语音驱动应用程序包括Amazon的Alexa, 苹果的Siri,微软的Cortana或Google的许多语音响应功能。
从我们的电话,计算机,手表甚至冰箱,生活中的每一个新的语音交互设备都会加深我们对人工智能(AI)和机器学习的依赖。从语音识别来看,真正的人工智能距离我们还有多远?
简单了解语音识别
在我们的生活中,语言是传递信息最重要的方式,它能够让人们之间互相了解。人和机器之间的交互也是相同的道理,让机器人知道人类要做什么、怎么做。交互的方式有动作、文本或语音等等,其中语音交互越来越被重视,因为随着互联网上智能硬件的普及,产生了各种互联网的入口方式,而语音是最简单、最直接的交互方式,是最通用的输入模式。
在1952年,贝尔研究所研制了世界上第一个能识别10个英文数字发音的系统。1960年英国的Denes等人研制了世界上第一个语音识别(ASR)系统。大规模的语音识别研究始于70年代,并在单个词的识别方面取得了实质性的进展。上世纪80年代以后,语音识别研究的重点逐渐转向更通用的大词汇量、非特定人的连续语音识别。
90年代以来,语音识别的研究一直没有太大进步。但是,在语音识别技术的应用及产品化方面取得了较大的进展。
自2009年以来,得益于深度学习研究的突破以及大量语音数据的积累,语音识别技术得到了突飞猛进的发展。
深度学习研究使用预训练的多层神经网络,提高了声学模型的准确率。微软的研究人员率先取得了突破性进展,他们使用深层神经网络模型后,语音识别错误率降低了三分之一,成为近20年来语音识别技术方面最快的进步。
另外,随着手机等移动终端的普及,多个渠道积累了大量的文本语料或语音语料,这为模型训练提供了基础,使得构建通用的大规模语言模型和声学模型成为可能。在语音识别中,丰富的样本数据是推动系统性能快速提升的重要前提,但是语料的标注需要长期的积累和沉淀,大规模语料资源的积累需要被提高到战略高度。
今天,语音识别在移动端和音箱的应用上最为火热,语音聊天机器人、语音助手等软件层出不穷。许多人初次接触语音识别可能归功于苹果手机的语音助手Siri。
Siri技术来源于美国国防部高级研究规划局(DARPA)的CALO计划:初衷是一个让军方简化处理繁重复杂的事务,并具备认知能力进行学习、组织的数字助理,其民用版即为Siri虚拟个人助理。
语音识别与人工智能
人工智能由约翰·麦卡锡于1956年首次提出,可以定义为“机器展示的人类智能”。 在最初用于分析和快速计算数据的地方,人工智能现在允许计算机执行通常只有人类才能执行的任务。
语音识别作为常见的人工智能应用,它可以将口语单词转换为文本,对文本进行处理以得出其含义。由于人类经常以口语,缩写和首字母缩写讲话,因此需要对自然语言进行大量的计算机分析才能产生准确的转录。语音识别技术面临的挑战众多,但范围正在缩小。
其中包括克服不良的录音设备,背景噪音,难以理解的口音和方言,以及人们各种声音的变化。教机器学习人类读口语的能力尚未达到完美。 聆听和理解一个人说的话远不止是听到一个人说的话。 作为人类,我们还通过人的眼睛,面部表情,肢体语言以及语音中的语调和语调,解读话语的含义。 语音的另一个细微差别是人类倾向于缩短某些短语(例如“我不知道”变成“不知道”)。 这种人为的倾向对语音识别中的机器学习提出了另一个挑战。
机器正在学习“侦听”口音,情绪和曲率,但是还有很长的路要走。 随着技术变得越来越复杂,特定算法使用了更多数据,这些挑战正在迅速被克服。随着人工智能的发展以及可以轻松挖掘用于机器学习目的的大量语音数据,它成为下一个主要交互界面也不足为奇了。