【发布时间】:2014-02-06 13:30:23
【问题描述】:
AFAIK,生成语言模型只不过是某些词汇的概率分布。我想知道如何使用这种概率分布来生成单词流,即语言?
如果我总是选择概率最大的词,它总是同一个词,因为分布是固定的。
我不确定我是否理解正确。谁能提供一个具体的操作示例?
【问题讨论】:
-
FWIW,听起来你的问题是关于从一元语言模型生成单词。高阶语言模型将包括一些历史概念(例如,先前的单词和/或句法上下文)。一般来说,高阶语言模型会生成更连贯的词流。
标签: nlp nltk probability probability-theory