【发布时间】:2019-01-12 02:10:50
【问题描述】:
我想用spacy计算句子中POS的百分比分割,类似于
Count verbs, nouns, and other parts of speech with python's NLTK
目前能够检测和计数 POS。如何找到百分比分割。
from __future__ import unicode_literals
import spacy,en_core_web_sm
from collections import Counter
nlp = en_core_web_sm.load()
print Counter(([token.pos_ for token in nlp('The cat sat on the mat.')]))
当前输出:
Counter({u'NOUN': 2, u'DET': 2, u'VERB': 1, u'ADP': 1, u'PUNCT': 1})
预期输出:
Noun: 28.5%
DET: 28.5%
VERB: 14.28%
ADP: 14.28%
PUNCT: 14.28%
如何将输出写入 pandas 数据框?
【问题讨论】: