概率图模型之(HMM)隐马模型(隐马尔可夫)

在讲隐马模型之前,首先要了解下,啥是马尔可夫模型。
马尔可夫模型
几个条件

  • 当前状态只与前一个状态相关
  • 一个状态到所有状态的转移概率和为1
  • 概率大于等于0小于等于1
  • 状态起始概率和为1
    举个例子:
    在文本中,假设有三个状态,名词n,动词v,形容词adj,三者之间的转移概率为(瞎编):

    初始化概率为p(adj) = 0.5,p(n)=0.3,p(v)=0.2.
    那么,一个文本词性为 形容词,名词,动词,名词的概率为:

    相当于n-gram语言模型中,n = 2 的情况。
隐马尔可夫模型
在上述例子中,文本的词性是明确的,而隐马模型中,不知道所经历的状态序列,观察到的序列是随机的。所以,状态转换是随机的,观测序列也是随机的,双重随机过程。

概率图模型之(HMM)隐马模型(隐马尔可夫)
文章图片

举个例子:我 吃 饭。这里我们能够观测到的就是,‘我’,‘吃’,‘饭’。
那么‘我’对应的状态有‘动词’,‘名词’,‘形容词’,‘吃’,‘饭’同理。那么他们的背后词性序列,到底是 名动名,还是动动名,还是形动名不得而知。这种未知序列称之为隐状态。
所以:隐马模型三要素,一个是状态转移矩阵(同上),另一个是观测状态到隐藏状态的概率矩阵。还有一个起始状态概率。
隐马模型的三个问题
  • 如何计算 观测序列O 的概率
  • 如和计算 观测序列O 最优的隐状态序列
  • 参数如何学习
问题一:
这样相当于是穷举所有可能。即,O1的状态概率O2的状态概率状态之间的概率转移。这样,状态一多,观测长度一长,计算将会指数增长。
为了优化求解时间,采用动态规划的思想,即O1,到O2,在计算O2,到O3,一次类推,最终计算到Ot.
那么复杂度即,O1有N个状态,O2有N个状态,那么计算O1到O2,就需要计算N*N 次,最终算得N个路径,通往O3,解释有点绕。总共t次。随意复杂度为。具体算法可以查看 前向算法。大概样子就是如下所示:


问题二: 【概率图模型之(HMM)隐马模型(隐马尔可夫)】一般在问题二在NLP的应用中较多,需要找到当前观测序列最优的标注。
如何快速的找到最优的序列。
维特比算法:
算法原理这里不做阐述。这篇博客讲的非常通俗易懂~
https://blog.csdn.net/athemeroy/article/details/79339546
算法实现:
首先需要一个隐马模型:
写了个随机函数,生成隐马模型
def hmmRamdon(): #隐状态个数 yin_num = 5 #观测概率个数 guan_num = 10A = np.zeros((yin_num,yin_num)) for i in range(yin_num): rows_h = np.random.random(yin_num) rows_v = np.random.random(yin_num)for k in range(i): rows_h[k] = A[i][k]rows_h[i:] = rows_h[i:] / rows_h[i:].sum() * (1 - rows_h[:i].sum()) A[i] = rows_hfor k in range(i+1): rows_v[k] = A[k][i] rows_v[i+1:] = rows_v[i+1:] / rows_v[i+1:].sum() * (1 - rows_v[:i+1].sum())for j in range(yin_num): A[j][i] = rows_v[j]B = np.zeros((yin_num,guan_num)) for i in range(yin_num): row = np.random.random(guan_num) B[i] = row / row.sum()init_yin = np.random.random(yin_num) pai = init_yin / init_yin.sum() return A,B,pai

函数没有做大于0校验~,随出负数的话记得多随几次哈~
看过上述讲解维特比算法原理博客的同鞋,应该记得下图:

概率图模型之(HMM)隐马模型(隐马尔可夫)
文章图片

在HMM,中A->B相当于,观测序列的中 第一个序列,B1->B3是隐状态,
所以当前A->B的路径可以初始化为
这里展示方便,假设HMM模型为
A = np.array([[0.5,0.2,0.3], [0.3,0.5,0.2], [0.2,0.3,0.5]]) B = np.array([[0.5,0.5], [0.4,0.6], [0.7,0.3]]) pai = np.array([[0.2,0.4,0.4]])observe = [0,1,0]

a_ex = B[:,observe[0]] * pai a_ex = a_ex.T all_way = np.full((yin_num, 1), -1) print(a_ex) print(all_way) [[0.1 ] [0.16] [0.28]] =========== [[-1] [-1] [-1]]

a_ex记录到达上一个观测状态每个隐状态最优的概率值。
observe[0]观测序列第一个,观测概率各自乘于初始化概率。all_way 用于记录每条路径经过的隐状态节点。0.1 = 0.5 * 0.2,0.16 = 0.4 * 0.4,0.28 = 0.7 * 0.4.
当计算由B->C时,C1,C2,C3 各自有三条路径,,结合A-B的路径,计算出A->C1概率最高的一条路径,同理计算到C2,C3的路径。
a_new = A1 *a_ex* B1[:,observe[1]]#计算图中9个路线 a_ex = np.amax(a_new,axis=0) #获取每个隐状态三个路径中最高的那一个 a_ex = a_ex.reshape(a_ex.shape[0],-1)way = np.argmax(a_new,axis=0)#找出概率最高的三条路线 way = way.reshape(way.shape[0],-1) all_way = np.hstack((all_way,way))#路径更新

a_new: [[0.0250.0120.009 ] [0.0240.0480.0096] [0.0280.0504 0.042 ]] a_ex: [[0.028 ] [0.0504] [0.042 ]] all_way: [[-12] [-12] [-12]]

所以对应图中的三条路径为A-B3-C1,A-B3-C2,A-B3-C3。
即博客中对应的图

概率图模型之(HMM)隐马模型(隐马尔可夫)
文章图片
如此循环直到最后一个。完整算法代码如下:
import numpy as np def viterbi_search(A,B,pai,observe): yin_num = A.shape[0]for j in range(len(observe)): if j == 0: a_ex = B[:,observe[j]] * pai a_ex = a_ex.T all_way = np.full((yin_num, 1), -1) else: a_new = A1 *a_ex* B1[:,observe[j]] a_ex = np.amax(a_new,axis=0) a_ex = a_ex.reshape(a_ex.shape[0],-1)way = np.argmax(a_new,axis=0) way = way.reshape(way.shape[0],-1) all_way = np.hstack((all_way,way)) result = np.append(all_way[a_ex.argmax()],a_ex.argmax())return result, a_ex.max()

实验环境jupyter,实验代码下载链接:
链接:https://pan.baidu.com/s/1W9zckhKG3yssFeZtahl-5g 密码:78y5
问题三:参数估计 最大似然估计:
转移概率:aij = ai 到aj的次数 / ai到所有状态的次数。
观测概率:bi = ai 到 bi 观测的次数 / ai到所有观测的次数。
一般隐状态未知的情况下,可以用最大期望EM,对转移概率进行估计。

    推荐阅读