搜索资源列表
CRFPP0[1].53
- 条件随机域,主要用于标记序列,可以进行分词,词性标注,句法分析,以及文本抽取等。-condition random field
ICTCLAS50_Windows_32_JNI
- 中科院开发的中文分词算法,带词性标注等,经典的一个算法-Chinese Academy of Sciences of the Chinese word segmentation algorithm developed, with part of speech tagging, etc., a classic algorithm
nlu_project
- 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
HmmPos
- 本文主要研究在给定的机械词频词典下的基于字符串匹配的中文分词系统,将一整段文字基本正确的切分成词,并标注上词性。在实现分词的过程中,最重要的两个因素就是分词速度和分词精度。因此,我们以分词速度、分词正确率和分词召回率作为中文分词评测标准,力求达到较高的分词速度和分词精度-word Tagging
Wordpos
- 应用vitorbe实现的分词算法和词性标志,里面有word文档的说明,请大家下载使用,-Application vitorbe achieve segmentation algorithms and speech marks, there are instructions word document, please download, thank you
HanLP-1.2.7
- HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
ltp_code
- 哈工大语言云LTP的C++集成代码,能够实现自然语言的处理。能够进行分词、词性标注、 命名实体识别、依存句法分析、语义角色标注 语义依存分析等功能。注:读者需要自己到哈工大官网注册KEYS使用。-Harbin Institute of technology language cloud LTP C integrated code, can realize natural language processing. Segmentation, part of speech tagging,
ICTCLAS_api
- 用于为指定文本进行分词操作。按照不同的词性进行分词。-Used to specify the text for the operation of word segmentation. According to different parts of speech.
NLP-speech-tagging
- 基于隐马尔可夫模型的中文分词、词性标注、命名实体识别-Based on Chinese word hidden Markov model, speech tagging, named entity recognition
ansj_seg-master
- 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)