【问题标题】:How to get feature Importance in naive bayes?如何在朴素贝叶斯中获得特征重要性?
【发布时间】:2018-11-04 17:13:08
【问题描述】:

我有一个评论数据集,其类别标签为正面/负面。我将朴素贝叶斯应用于该评论数据集。首先,我正在转换成词袋。这里 sorted_data['Text'] 是评论,final_counts 是稀疏矩阵

count_vect = CountVectorizer() 
final_counts = count_vect.fit_transform(sorted_data['Text'].values)

我将数据拆分为训练和测试数据集。

X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)

我正在应用朴素贝叶斯算法如下

optimal_alpha = 1
NB_optimal = BernoulliNB(alpha=optimal_aplha)

# fitting the model
NB_optimal.fit(X_tr, y_tr)

# predict the response
pred = NB_optimal.predict(X_test)

# evaluate accuracy
acc = accuracy_score(y_test, pred) * 100
print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))

这里 X_test 是测试数据集,其中 pred 变量告诉我们 X_test 中的向量是正类还是负类。

X_test 形状为(54626 行,82343 维)

pred 的长度是 54626

我的问题是我想得到每个向量中概率最高的单词,这样我就可以通过单词了解它为什么预测为正类或负类。那么,如何得到每个向量中概率最高的词呢?

【问题讨论】:

    标签: python python-3.x machine-learning scikit-learn naivebayes


    【解决方案1】:

    您可以使用coefs_feature_log_prob_ 属性从拟合模型中获取每个单词的重要性。例如

    neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]
    pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()[::-1]
    
    print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))
    print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))
    

    为您的每个班级打印前 10 个最具预测性的单词。

    【讨论】:

    • 非常感谢。这很有帮助。你救了我。
    • 我认为np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]) 会返回 10 个最不重要的特征。
    • @piman314 print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10])) 属于哪个类?另外,你能告诉我,连同特征名称,我怎样才能打印出它对应的概率值?
    • argsort 输出需要反转以获得最重要的特征:neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]
    • @dimid 的回答也是正确的。
    【解决方案2】:
    def get_salient_words(nb_clf, vect, class_ind):
        """Return salient words for given class
        Parameters
        ----------
        nb_clf : a Naive Bayes classifier (e.g. MultinomialNB, BernoulliNB)
        vect : CountVectorizer
        class_ind : int
        Returns
        -------
        list
            a sorted list of (word, log prob) sorted by log probability in descending order.
        """
    
        words = vect.get_feature_names()
        zipped = list(zip(words, nb_clf.feature_log_prob_[class_ind]))
        sorted_zip = sorted(zipped, key=lambda t: t[1], reverse=True)
    
        return sorted_zip
    
    neg_salient_top_20 = get_salient_words(NB_optimal, count_vect, 0)[:20]
    pos_salient_top_20 = get_salient_words(NB_optimal, count_vect, 1)[:20]
    

    【讨论】:

      【解决方案3】:

      我也遇到了同样的问题,也许这是数据科学交流论坛,但我想在这里发布,因为我取得了非常好的结果。

      首先: + 代表正类, - 代表负类。 P() 代表概率。

      我们将建立优势比,可以证明它等于 P(word i ,+) / P(word i ,-)(如果您需要演示,请告诉我)。 如果这个比值大于 1 意味着单词 i 更可能出现 在积极的文本中比在消极的文本中。

      这些是朴素贝叶斯模型中的先验:

      prob_pos = df_train['y'].value_counts()[0]/len(df_train)
      prob_neg = df_train['y'].value_counts()[1]/len(df_train)
      

      创建一个数据框来存储单词

      df_nbf = pd.DataFrame()
      df_nbf.index = count_vect.get_feature_names()
      # Convert log probabilities to probabilities. 
      df_nbf['pos'] = np.e**(nb.feature_log_prob_[0, :])
      df_nbf['neg'] = np.e**(nb.feature_log_prob_[1, :])
      
      
      df_nbf['odds_positive'] = (nb.feature_log_prob_[0, :])/(nb.feature_log_prob_[1, :])*(prob_nonneg/prob_neg)
      
      df_nbf['odds_negative'] = (nb.feature_log_prob_[1, :])/(nb.feature_log_prob_[0, :])*(prob_neg/prob_nonneg)
      
      

      最重要的词。这将使您获得> 1的比率。例如一个 odds_ratio_negative =2 对于“damn”这个词意味着这个词 相比之下,当评论或您的班级是否定的时候,发生的可能性是两倍 与你的积极类。

      # Here are the top5 most important words of your positive class:
      odds_pos_top5 = df_nbf.sort_values('odds_positive',ascending=False)['odds_positive'][:5]
      # Here are the top5 most important words of your negative class:
      odds_neg_top5 = df_nbf.sort_values('odds_negative',ascending=False)['odds_negative'][:5]
      
      

      【讨论】:

      • 其他答案并没有给你 var 重要性,因为这是例如 Prob( word / + ) 的日志。例如,单词“the”对于正类和负类的概率非常高。因此,两者在朴素贝叶斯中的权重相同。并且可以被视为一个常量(这意味着它不会改变属于一类或另一类的概率)
      • 谢谢,一个有趣的方法。我们不应该在df_nbf['pos'] 中使用 e 而不是 10 来求幂吗?
      • 您好,您提出的观点非常正确。我已经阅读了 sklearn 文档,但他们没有说明他们正在使用什么日志转换。我使用 10 幂得到了非常有趣的结果,并假设 sklearn 正在使用 log10 转换的概率。如果我错了,请告诉我。为了向读者澄清 var 重要性的顺序不太可能改变,但如果我没有使用正确的转换,我所说的解释会改变。
      • 查看源代码我看到的是np.lop而不是np.log10
      • 晚会很晚,但我想很多人还在寻找这个:这个答案虽然不是那么漂亮,但确实是一个正确的答案。当人们询问二元分类任务中的重要特征时,他们通常想要最能预测该类别的特征。所有其他答案(以及我在其他地方看到的所有其他答案)实际上并没有为您提供那些信息最丰富的功能。例如,根据其他答案,出现在所有文档中的特征应该是无信息的,但具有很高的特征重要性
      【解决方案4】:

      试试这个:

      pred_proba = NB_optimal.predict_proba(X_test)
      words = np.take(count_vect.get_feature_names(), pred_proba.argmax(axis=1))
      

      【讨论】:

      • 目前尚不清楚您的答案将如何根据分类器返回最重要的特征。您的代码选择具有与每个测试输入概率最高的类对应的索引的特征名称,即来自 [0, n_classes-1] 的索引,并且这些索引根本不需要与最重要的特征相关。此外,应该可以在训练后立即确定各种特征的重要性(fit / fit_transform),并且根本不需要测试数据。不应该根据其他答案中提到的 feature_log_prob_ 选择索引吗?
      猜你喜欢
      • 2020-11-06
      • 2019-01-28
      • 2019-06-04
      • 1970-01-01
      • 2015-01-24
      • 2019-04-29
      • 2014-01-03
      • 2020-09-09
      • 2011-09-11
      相关资源
      最近更新 更多