利发国际-业界公认的最权威网站,欢迎光临!

利发国际_利发国际娱乐_利发国际平台

当前位置: 利发国际 > 语音识别原理 >

语语音识别原理 音识别的技术原理是什么?

时间:2018-03-25 09:08来源:江湖侠客吴仲湛 作者:陈一夫 点击:
其中, 前两种概率从声学模型中获取, 最后一种概率从语言模型中获取。 语 言模型是使用大量的文本训练出来的, 可以利用某门语言本身的统计规律来帮助 提升识别正确率。语言模型很

   其中, 前两种概率从声学模型中获取, 最后一种概率从语言模型中获取。 语 言模型是使用大量的文本训练出来的, 可以利用某门语言本身的统计规律来帮助 提升识别正确率。语言模型很重要,如果不使用语言模型,当状态网络较大时, 识别出的结果基本是一团乱麻。

这样基本上语音识别过程就完成了。看看ld3320对比讯飞。

语言概率:根据语言统计规律得到的概率

转移概率:每个状态转移到自身或转移到下个状态的概率

观察概率:每帧和每个状态对应的概率

这里所说的累积概率,由三部分构成,分别是:

这样就把结果限制在预先设定的网络中, 避免了刚才说到的问题, 当然也带 来一个局限,比如你设定的网络里只包含了“今天晴天”和“今天下雨”两个句 子的状态路径,那么不管说些什么,识别出的结果必然是这两个句子中的一句。 那如果想识别任意文本呢 ? 把这个网络搭得足够大,包含任意文本的路径就可以 了。 但这个网络越大, 想要达到比较好的识别准确率就越难。 所以要根据实际任 务的需求, 合理选择网络大小和结构。其实原理。 搭建状态网络, 是由单词级网络展开成音 素网络, 再展开成状态网络。 语音识别过程其实就是在状态网络中搜索一条最佳 路径,语音对应这条路径的概率最大,这称之为“解码”。路径搜索的算法是一 种动态规划剪枝的算法,称之为 Viterbi 算法,用于寻找全局最优路径。

第二步,从状态网络中寻找与声音最匹配的路径。对比一下语音识别技术原理。

第一步,构建一个状态网络。

获取这一大堆参数的方法叫做“训练”,需要使用巨大数量的语音数据,训练的方法比较繁琐,这 里不讲。 但这样做有一个问题:每一帧都会得到一个状态号, 最后整个语音就会 得到一堆乱七八糟的状态号,相邻两帧间的状态号基本都不相同。技术。假设语音有 1000帧,每帧对应 1个状态,每 3个状态组合成一个音素,那么大概会组合成 300个音素, 但这段语音其实根本没有这么多音素。别的。 如果真这么做, 得到的状态 号可能根本无法组合成音素。我不知道python语音识别模块。 实际上, 相邻帧的状态应该大多数都是相同的才合 理,因为每帧很短。解决这个问题的常用方法就是使用隐马尔可夫模型 (Hidden Markov Model, HMM) 。 这东西听起来好像很高深的样子, 实际上用起来很简 单:

那这些用到的概率从哪里读取呢 ? 有个叫“声学模型”的东西,里面存了一 大堆参数, 通过这些参数, 就可以知道帧和状态对应的概率。

图中, 每个小竖条代表一帧, 若干帧语音对应一个状态, 每三个状态组合成 一个音素, 若干个音素组合成一个单词。原理。 也就是说, 只要知道每帧语音对应哪个 状态了,语音识别的结果也就出来了。那每帧音素对应哪个状态呢 ? 有个容易想 到的办法, 看某帧对应哪个状态的概率最大, 那这帧就属于哪个状态。语音。 比如下面 的示意图,这帧在状态 S3上的条件概率最大,因此就猜这帧属于状态 S3。

把帧识别成状态 (难点 ) 。语语音识别原理。第二步,把状态组合成音素。学会科大讯飞语音识别模块。第三步,把音素组合成单 词。如下图所示:

实际上一点都不神秘,无非是:第一步,

Dictionary(u.edu/cgi-bin/cmudict)‎ 。汉语一般 直接用全部声母和韵母作为音素集,另外汉语识别还分有调无调,不详述。 状态:这里理解成比音素更细致的语音单位就行啦。音识别的技术原理是什么。 通常把一个音素划分成 3个状态。其实语音识别算法有哪些。语音识别是怎么工作的呢 ?

音素:单词的发音由音素构成。是什么。 对英语, 一种常用的音素集是卡内基梅隆大 学的一套由 39个音素构成的音素集,参见 The CMU Pronouncing

接下来就要介绍怎样把这个矩阵变成文本了。python语音识别模块。首先要介绍两个概念:

常见的一种变换方法是提取 MFCC 特征,根据人耳的生理特性,把每一帧波形变成一个多维向量,可以 简单地理解为这个向量包含了这帧语音的内容信息。这个过程叫做声学特征提 取。实际应用中,这一步有很多细节,声学特征也不止有 MFCC 这一种,具体 这里不讲。 至此, 声音就成了一个 12行 (假设声学特征是 12维 ) 、 N 列的一个矩 阵,称之为观察序列,这里 N 为总帧数。事实上java语音识别。观察序列如下图所示,图中,每一帧 都用一个 12维的向量表示,色块的颜色深浅表示向量值的大小。语语音识别原理。

图中,每帧的长度为 25毫秒,每两帧之间有 25-10=15毫秒的交叠。我们 称为以帧长 25ms 、帧移 10ms 分帧。分帧后,语音就变成了很多小段。但波形 在时域上几乎没有描述能力, 因此必须将波形作变换。语音识别原理框图。

在开始语音识别之前, 有时需要把首尾端的静音切除, 降低对后续步骤造成 的干扰。这个静音切除的操作一般称为 VAD ,需要用到信号处理的一些技术。 要对声音进行分析, 需要对声音分帧, 也就是把声音切开成一小段一小段, 每小 段称为一帧。其实识别。 分帧操作一般不是简单的切开, 而是使用移动窗函数来实现, 这里 不详述。语音识别芯片价格。帧与帧之间一般是有交叠的,就像下图这样:

首先,我们知道声音实际上是一种波。语音识别技术原理。常见的 mp3等格式都是压缩格式, 必须转成非压缩的纯波形文件来处理,比如 Windows PCM文件,也就是俗称 的 wav 文件。 wav 文件里存储的除了一个文件头以外,就是声音波形的一个个 点了。下图是一个波形的示例。


学习识别
ld3320语音识别模块
音识别的技术原理是什么 (责任编辑:admin)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
最新评论 进入详细评论页>>
推荐内容