【问题标题】:What is the difference between markov chains and hidden markov model?马尔可夫链和隐马尔可夫模型有什么区别?
【发布时间】:2012-05-25 04:21:40
【问题描述】:

马尔可夫链模型和隐马尔可夫模型有什么区别?我在 Wikipedia 中阅读过,但无法理解其中的差异。

【问题讨论】:

  • 您应该考虑接受下面得票最多的答案。
  • 我建议在“math.stackexchange.com”中发布此类问题,因为它不是与编程相关的问题。但是,您的问题的一个简单答案是马尔可夫链与 HMM 的隐藏部分相同。主要区别在于 HMM 有一个矩阵将观察与状态联系起来,而在马尔可夫链中,我们不考虑任何观察。
  • @KooroshAslansefat 我建议检查问题的日期
  • 是的,你是对的。我没有检查问题的日期。

标签: hidden-markov-models markov-chains markov


【解决方案1】:

为了举例说明,我将使用自然语言处理中的一个示例。想象一下,你想知道这句话的概率:

我喜欢喝咖啡

在马尔科夫模型中,您可以通过计算来估计其概率:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)

现在,假设我们想知道这个句子的词性标签,也就是说,如果一个词是过去时动词、名词等。

我们没有观察该句子中的任何词性标签,但我们假设它们在那里。因此,我们计算词性标签序列的概率是多少。在我们的例子中,实际的顺序是:

PRP-VBP-NN

(其中 PRP=“人称代词”,VBP=“动词,非第三人称单数现在”,NN=“名词,单数或质量”。请参阅 https://cs.nyu.edu/grishman/jet/guide/PennPOS.html 了解 Penn POS 标记的完整符号)

但是等等!这是一个我们可以应用马尔可夫模型的序列。但我们称之为隐藏,因为词性序列从未被直接观察到。当然,在实践中,我们将计算许多这样的序列,我们希望找到最能解释我们观察的隐藏序列(例如,我们更有可能看到从确定器生成的诸如“the”、“this”之类的词( DET) 标签)

我遇到的最好的解释是在 1989 年 Lawrence R. Rabiner 的一篇论文中:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf

【讨论】:

  • 你好@matt,你能解释一下 PRP-VBP-NN 部分吗?它代表什么?
  • 由于其他人可能也有这个问题,我已经更新了答案。
【解决方案2】:

马尔可夫模型是一个状态机,状态变化是概率。在隐马尔可夫模型中,您不知道概率,但您知道结果。

例如,当您掷硬币时,您可以获得概率,但是,如果您看不到掷硬币并且有人在每次掷硬币时移动了五个手指中的一个,您可以采取手指运动并使用隐藏马尔可夫模型来获得抛硬币的最佳猜测。

【讨论】:

    【解决方案3】:

    据我了解,问题是:马尔可夫过程和隐马尔可夫过程有什么区别?

    马尔可夫过程 (MP) 是一个随机过程:

    1. 有限数量的状态
    2. 这些状态之间的概率转换
    3. 仅由当前状态确定的下一个状态(马尔可夫属性)

    隐马尔可夫过程 (HMM) 也是一个随机过程:

    1. 有限数量的状态
    2. 这些状态之间的概率转换
    3. 下一个状态仅由当前状态(马尔可夫属性)AND 确定
    4. 我们不确定我们处于哪个状态:当前状态发出一个观察结果。

    示例 - (HMM) 股票市场
    在股票市场中,人们以公司的价值进行交易。让我们假设股票的实际价值是 100 美元(这是不可观察的,实际上你永远不知道)。你真正看到的是它的交易价值:让我们假设在这种情况下是 90 美元(这是可观察到的)。

    对于对马尔可夫感兴趣的人:有趣的部分是当您开始对这些模型采取行动时(在前面的示例中,是为了赚钱)。这涉及马尔可夫决策过程(MDP)和部分可观察马尔可夫决策过程(POMDP)。为了评估这些模型的一般分类,我在下图中总结了每个马尔可夫模型的主要特征。

    【讨论】:

    【解决方案4】:

    由于 Matt 使用词性标签作为 HMM 示例,我可以再添加一个示例:语音识别。几乎所有的大词汇量连续语音识别 (LVCSR) 系统都基于 HMM。

    “马特的例子”: 我喜欢喝咖啡

    在马尔科夫模型中,你可以通过计算来估计它的概率:

    P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
    

    在隐马尔可夫模型中,

    假设有 30 个不同的人阅读了 “我喜欢拥抱” 这句话,我们必须识别它。 每个人都会以不同的方式发音这句话。所以我们不知道这个人的意思是“拥抱”还是“霸占”。我们只会得到实际单词的概率分布。

    简而言之,隐马尔可夫模型是一种统计马尔可夫模型,其中被建模的系统被假定为具有未观察(隐藏)状态的马尔可夫过程。

    【讨论】:

      【解决方案5】:

      隐马尔可夫模型是具有两个层次的双嵌入随机过程。

      上层是马尔科夫过程,状态是不可观察的。

      实际上,观察是上层马尔可夫状态的概率函数。

      不同的马尔可夫状态会有不同的观察概率函数。

      【讨论】:

      • 这个答案的全部内容应该用引号引起来,参考 Rabiner 的教程。
      • 这真的一点都不好理解。
      • 这没有回答问题,你只是引用了 HMM 的每个条目文本。
      猜你喜欢
      • 2020-03-11
      • 1970-01-01
      • 2013-12-13
      • 1970-01-01
      • 2012-08-15
      • 2012-06-18
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多