搜索资源列表
minipar-0.5-Windows
- 基于依赖的英文词法分析器, 能分出词的此性,句子单词的关系-The program is provided "as is" without warranty of any kind, either expressed or implied, including, but not limited to, the implied warranties of merchantability and fitness for a particular purpose. The
Stem
- 实现英文文档的分词,并且对词汇进行波特词干处理,输出文章中词干的出现数量-Achieve the English word document and vocabulary Porter Stemming for processing, the output article appeared in the number of stem
JRKIM
- 自己写的英文无空格的分词代码,只是个小例子,加入了1阶语言模型的分享,仅供参考-English to write their own code word with no spaces, just a small example, adding an order to share language models for reference
WordSegmentation
- 中文分词划分,包含标点符号,也适用于英文-chinese word segmentation
wordpress-seo
- 什么是中文分词众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I ama student,用中文则为:“我是一个学生”。-What is the Chinese word is known, is based on English words separated by spaces between words and word as a unit, and the Chinese as words, sentences
phpanalysis2.0.tar
- PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一、比较重要的成员变量 $resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置。 $notSplitLen =
fenci2
- 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)
情感分析用词语集·知网hownet词典
- 该软件可以实现微博分析、聊天分析、全网分析、网站分析、浏览分析、分词、词频统计、英文词频统计、流量分析、聚类分析等一系列文本分析(The software can realize micro-blog analysis, chat analysis, whole network analysis, website analysis, browse analysis, word segmentation, word frequency statistics, English word freque
ROST CM6
- baiROST CM 是武汉大学沈阳教授研发du编码的国内目前唯一的以辅助zhi人文社会科学研究dao的大型免费社会计算平台。该软件可以实现微博分析、聊天分析、全网分析、网站分析、浏览分析、分词、词频统计、英文词频统计、流量分析、聚类分析等一系列文本分析,用户量超过7,遍布海内外多所大学,包括剑桥大学、日本北海道大学、北京大学、清华大学、香港城市大学、澳门大学众多高校。写论文的一把利器。