时间: 2021-10-08 11:41:40 | 作者:Alpha猫 | 来源: 喜蛋文章网 | 编辑: admin | 阅读: 114次
HMM的核心是状态这个概念,状态本身是一个随机变量,通常取离散值。从马尔可夫链延伸至隐马尔可夫模型(HMM),涉及在马尔可夫链的每一个状态上增加不确定性或统计分布。因此,一个HMM是一个马尔可夫链的双随机过程或概率函数。当马尔可夫序列或者HMM的状态被限定为离散的,且HMM状态的各分布间没有重叠时,它便成为一个马尔可夫链。
隐马尔可夫模型是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。
定义:隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测从而产生观测随机序列的过程,隐藏的马尔可夫链随机生成的状态的序列,称为状态序列;每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列。序列的每一个位置又可以看作是一个时刻。
隐马尔可夫模型由初始概率分布、状态转移概率分布以及观测概率分布确定。隐马尔可夫模型的形式定义如下:
设 是所有可能的状态的集合, 是所有可能的观测的集合: 其中, 是可能的状态数, 是可能的观测数。 是长度为 的状态序列, 是对应的观测序列: 是状态转移概率矩阵: 其中, 是在时刻 处于状态 的条件下在时刻 转移到状态 的概率。 是观测概率矩阵: 其中, 是在时刻 处于状态 的条件下生成观测 的概率。 是初始状态概率向量: 其中, 是时刻 处于状态 的概率。隐马尔可夫模型由初始状态概率向量 、状态转移概率矩阵 和观测概率矩阵 决定。 和 决定状态序列。 决定观测序列。因此,隐马尔可夫模型 可以用三元符号表示,即 称为隐马尔可夫模型的三要素。
状态转移概率矩阵 与初始状态概率向量 确定了隐藏的马尔可夫链,生成不可观测的状态序列。观测概率矩阵 确定了如何从状态生成观测,与状态序列综合确定了如何产生观测序列。
根据以下规则从两个盒子中抽球
开始,从4个盒子里以等概率随机选取1个盒子,从这个盒子里随机冲出1个球,记录其颜色后,放回;然后,从当前盒子随机转移到下一个盒子,规则是:如果当前盒子是盒子1,那么下一个盒子一定是盒子2;如果当前是盒子2或3,那么分别以概率0.4和0.6转移到左边或右边的盒子;如果当前是盒子4,那么各以0.5的概率停留在盒子4或转移到盒子3;确定转移的盒子后,再从这个盒子里随机抽出1个球,记录其颜色,放回;如此下去,重复进行5次,得到一个球的颜色的观测序列在这个过程中,观察者只能观测到球的颜色的序列,观测不到球是从哪个盒子取出的,即观测不到盒子的序列。
在这个例子中有两个随机序列,一个是盒子的序列(状态序列),一个是球的颜色的观测序列(观测序列)。前者是隐藏的,只有后者是可观测的。这是一个隐马尔可夫模型的例子。根据所给条件,可以明确状态集合、观测集合、序列长度以及模型的三要素。
根据隐马尔可夫模型定义,可以将一个长度为T 的观测序列 的生成过程描述如下。
输入:隐马尔可夫模型 ,观测序列长度 ;输出:观测序列 。(1)按照初始状态分布 产生状态 ;(2)令 ;(3)按照状态 的观测概率分布 生成 ;(4)按照状态 的状态转移概率分布 产生状态 , (5)令 ;如果 ,转步(3);否则,终止。
采用按照概率公式直接计算的方法计算量大,不可行。故采用计算观测序列概率 的前向与后向算法。
前向概率:给定隐马尔可夫模型 ,定义到时刻 部分观测序列为 且状态为 的概率为前向概率,记作
可以递推地求得前向概率 及观测序列概率 。
输入:隐马尔可夫模型 ,观测序列 ;输出:观测序列概率 。
后向概率:给定隐马尔可夫模型 ,定义在时刻 状态为 的条件下,从 到 的部分观测序列为 的概率为后向概率,记作
可以用递推的方法求得后向概率 及观测序列概率 。
输入:隐马尔可夫模型 ,观测序列 ;输出:观测序列概率 。
假设已给训练数据包含 个长度相同的观测序列和对应的状态序列 ,那么可以利用极大似然估计法来估计隐马尔可夫模型的参数。
假设给定训练数据只包含 个长度为 的观测序列 而没有对应的状态序列,目标是学习隐马尔可夫模型 的参数。我们将观测序列数据看作观测数据 ,状态序列数据看作不可观测的隐数据 ,那么隐马尔可夫模型事实上是一个含有隐变量的概率模型
它的参数学习可以由 算法实现。
维特比算法实际是用动态规划解隐马尔可夫模型预测问题,即用动态规划求概率最大路径(最优路径)。这时一条路径对应着一个状态序列。
根据动态规划原理,最优路径具有这样的特性:如果最优路径在时刻 通过结点 ,那么这一路径从结点 到终点 的部分路径,对于从 到 的所有可能的部分路径来说,必须是最优的。
依据这一原理,我们只需从时刻 开始,递推地计算在时刻 状态为 的各条部分路径的最大概率,直至得到时刻 状态为 的各条路径的最大概率。时刻 的最大概率即为最优路径的概率 ,最优路径的终结点 也同时得到。之后,为了找出最优路径的各个结点,从终结点 开始,由后向前逐步求得结点 ,得到最优路径 。这就是维特比算法。
这个里面多数来源于《统计学习方法》的第十章内容,结合例子能够更好地帮助理解。
【1】《统计学习方法》,李航著.
【2】《解析深度学习:语音识别实践》,俞栋著.
全站搜索