【问题标题】:Stanford NLP: Sentence splitting without tokenization?斯坦福 NLP:没有标记化的句子拆分?
【发布时间】:2015-02-13 01:29:58
【问题描述】:

我可以通过斯坦福 NLP 的命令行界面(如 Apache OpenNLP)检测句子吗? https://opennlp.apache.org/documentation/1.5.3/manual/opennlp.html#tools.sentdetect

根据文档,Stanford NLP 需要按照 http://nlp.stanford.edu/software/corenlp.shtml 进行标记化

【问题讨论】:

    标签: stanford-nlp


    【解决方案1】:

    我们的管道要求您先进行标记化;我们在句子分割算法中使用这些标记。如果您的文本已预先标记,您可以使用 DocumentPreproccesor 并请求仅空格标记。

    如果我误解了你的问题,请告诉我。

    【讨论】:

    • 谢谢乔恩。我希望我们可以跳过标记化来进行句子检测。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-11-01
    • 2015-04-30
    • 1970-01-01
    • 2014-04-26
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多