深度神经网络建模的最新工业进展和结合语义理解的语音识别技术

Download Report

Transcript 深度神经网络建模的最新工业进展和结合语义理解的语音识别技术

结合语义理解的语音识
别技术和深度学习技术
百度语音技术部
贾磊
2013.8.01
通用语音识别服务简介
个人账号分享信息
个人用户
账号信息
声学训练
数据
语言训练
数据
声学模型
...
无线网络
端点
检测
语音
压缩
手机本
地解析
网络
接口
协议
网络
接口
协议
网络
接口
协议
任
务
调
度
模
块
输出
分布
输出
分布
DNN
语言模型
输出
分布
语言模型自
适应
解码空间组
织和构建
解码器
识别结果返回
...
返回识别结果/命令
语音服务内容
……
百度搜索
好123
手机地图
百度应用 百度音乐 手机浏览器
输入法 语音助手
手机
指令
统一构架交互入口
融合Grammer 和 Ngram信息的解码空间
类语言模型,
Grammer模型,
Ngram模型
一遍解码
深度神经网络
模型
识别文字结果,输入query种类,指令内容解析
1.
网络化的识别构架
2. 海量的来自各种终端的声学语料和声学模型的个性化自适应
3. 海量的来自各种渠道的文本语料和语言信息的快速更新
4.
语义理解和语音识别紧密相关,语音识别和互联网服务紧密相关
5.
语音识别服务计算资源耗费严重
数据增加
算法性能提升
分布式语言模型分块高速训练(1)
CPU Kernel1
语料1
递归的后
缀树排序
语料
+索引
CPU Kernel2
语料2
递归的后
缀树排序
语料
+索引
倒数第
二个词
是W2
的后缀
树的直
接快速
抽取
CPU Kernel3
语料3
递归的后
缀树排序
语料
+索引
。。。
递归的后
缀树排序
语料
+索引
倒数第
二个词
是W2
的后缀
树的直
接快速
抽取
网
络
传
输
基于
树合
并的
归并
排序
融合语义解析的声学空间网络
词典自
跳转
1. 语言模型的中任意单
个词
2.
词典
词条1
词条2
词条3
词条4
……
词典自
跳转
词典定义
一些同义词构成的词
组集合。例如: 想,
要,要求
3. 一些专名集合。例如
人名,地名等
Grammer:
- 打电话给【人名】
- 发短息给【人名】说【短信内容】
- 从【地名】到【地名】怎么走
- 我想订【时间】的去【地名】的机票
- 发短信给【妈妈】说我去贵阳开会了
未来:统计语言模型之后
- 最大墒语言模型
4. 一些助词。例如:吧, - RNN
呢,吗等
- 短语模型
- 层次短语模型
5. 个性化的专名和称谓
词类定义
混合高斯模型和DNN模型
。。。
。。。
更
多
隐
层
。。。
。。。
。。。
图一:混合高斯模型
图二: 深度神经网络
DNN模型在百度的应用
1. 百度在2012年9月份上线了语音搜索引擎的DNN模型, 2012
年10月份和2012年12月份分别上线了百度的语音输入法和
语音助手的DNN模型。平均相对误识别率相对于百度最好
的GMM系统而言降低20%以上
DNN成功的原因
-
深度建模: 深度多层的网络结构
特征融合: 融合当前帧的更多的左右context信息
稀疏化的权重分布:神经元的局部记忆激活
海量数据训练
GPU训练
DNN成功的启示
-
要采用能够使用更多特征的分类器
要选择能够配合大数据使用的分类器
要采用能够随着数据量增加就轻松的scale up的分类器
要选择能够分布式并行化训练的分类器
要选择能够用算法简化结构的模型,分类器要能够压缩在线计算量
不片面追求优化算法的最优,更重视大数据的使用
Down-pure SGD (on-line method)
1. Robust to computer failure
2. Possible sub-set model
parameter sharing
3. Introduce more stochasticity
4. Asynchronous model update
LBFGS Bache mode
1. Much less bandwidth requirement
2. Bache mode learning
Deep learning: 一个拥有千万个未知参数的数学优化问题。
Hassian-Free Deep Learning:
(1) 神经网络的输出损失函数(交互墒,最小二乘,softmax) 是凸函数
(2) 采用高斯牛顿法近似整个神经网络的损失函数
高斯牛顿法的
二阶矩阵G
(3) 由于G是正定的,因此构建下面的二阶辅助目标函数
如何调节?
(4) 共轭梯度法 优化二阶辅助目标函数
(5) 核心Trick1: Gd
核心Trick2: Mini-bache 高斯牛顿估计
核心Trick3: Back-tracing
1. 交互墒准则
2. 关键帧抽样和引入序列信息的序列区分度
VTB结果
Lattice结果
计算平台
(Deep
Brain)
树状和环装连接同时
支持的网络结构
=
。。。
GPU
PC Server
GPU
GPU
GPU
1. 数据分布式存储,模型集中存储
2. 每个计算节点是都采用单机四核的异步SGD算法
3. 跨机多GPU并行DNN训练问题的主要难度:
- 基于mini-bache的SGD算法本质上是个串行算法
- 跨机器异步SGD的机器间通讯时间远大于训练时间
- 提出一种分布式跨机多GPU并行训练新算法:结合平均SGD和异
步SGD。成功解决上述问题。
4. 算法效果:
- 训练速度可以加速10倍以上,识别率较单机训练低于0.5点以内
1. 招聘对语音识别技术、语音合成技术、音乐处理相关技术
自然语言处理技术,和机器学习技术有热情的年轻人。
2. 较好的算法或者产品研发经验,优秀的代码能力
3. [email protected]
结束…
谢谢大家