搜索资源列表
SR_speechrecognition
- 微软语音识别分两种模式:文本识别模式和命令识别模式.此两种模式的主要区别,主要在于识别过程中使用的匹配字典不同.前者使用的是通用字典,特点是内容多,覆盖的词汇量大,字典由sdk提供.适用于没有预定目标的随机听写之类的应用.同时因为词汇量大直接导致识别的精度降低,识别速度较慢.后者的字典需要 开发者自己编写,就是你们所说的xml文件.通过SR引擎读取xml实现特定词识别-Microsoft speech recognition points two modes: text recognition
LBChSeg
- 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
搜易站内搜索引擎2.1
- 搜易站内搜索引擎(SearchEasy Site Search Engine)是面向互联网网站的站内搜索解决方案,其针对网站使用数据库搜索性能差,体验差等问题,将搜索引擎技术应用于站内搜索;本系统具备中文分词,智能摘要,关键词高亮等技术,可与数据库无缝集成,目前支持MS SQL 2000/2005,My SQL数据库。 软件基于B/S架构技术,前后端设计精美,操作体验佳。 搜易站内搜索引擎 2.1 修正BUG和新增功能列表:2015-3-28 1,修正授权功能和版本功能表所列功能不匹配
znmhss_v1.0
- 功能介绍: 1、利用分词技术,先把关键词拆分为多个词组。如:“搜索炼药师”,拆分为:“搜索”、“索炼”、“炼药”、“药师”等多个词组。 2、如:数据库标题字段完全匹配“搜索炼药师”的排在前面,数据库标题字段模糊匹配“搜索”、“索炼”、“炼药”、“药师”等多个词组的分别在后面展示。 3、如:数据库内容字段完全匹配“搜索炼药师”的展示出来也排在后面。-Function introduction: 1, the use of word segmentation technology,
word
- java 实现简单的分词算法,自动匹配,代码注释详细。-Java to realize automatic word segmentation algorithm is simple, match, code notes in detail.
emotionalPjar
- 利用IKanalyzer进行分词1.可自定义词表,2.读取本地文件3.将词表与本地文件分词后进行中文词匹配- 1. use IKanalyzer be customizable word vocabulary, 2. 3. After reading the local papers and local papers vocabulary word were Chinese words Match
wen_v1.3
- 1.采用独有的分词引擎,完全匹配baidu和google的习惯。 2.内容经过打乱和伪原创处理,收录更多。 3.标题随机自动增加特殊符号,对搜索引擎更友好。 4.内容页全面静态化(伪静态),支持windows下的httpd.ini和linux下的.htaccess,如空间不支持,也可以选择动态模式,但对搜索不是很友好。 5.内容页面经过seo专家处理,对搜索友好,内容页description自动捉取文章内容。 6.自带伪原创同近义词约8000个,自动对文章相关字伪原创处理。
ask-ba_v1.01
- 问答吧(自带伪原创引擎的问问小偷)功能简介: 1.采用独有的分词引擎,完全匹配baidu和google的习惯。 2.内容经过打乱和伪原创处理,收录更多。 3.标题随机自动增加特殊符号,对搜索引擎更友好。-Question and answer it (with false original engine to ask the thief) function introduction: 1 using a unique word segmentation engine, fully
dedesplit
- 软件介绍 采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法 Tags: 织梦分词算法-Software introduction Using a combination of segmentation with the smallest and reverse maximum matching method a compound word segmentation algorithm Tags: a word segmentation algorithm
fenci
- 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
dedesplit
- 本站采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段.-Powered by is a composite word segmentation algorithm with a minimum and maximum matching method combined reverse, the current recognition of ambiguity still in the preliminary research stage.
6_29
- 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
divide
- 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
Divide
- 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
matlab程序
- 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
phpanalysis2.0.tar
- PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一、比较重要的成员变量 $resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置。 $notSplitLen =
9178839
- 汉语分词算法,包含最大匹配和基于概率的分词算法()
znmhss_1.0
- 早在N年前就有网友问过:类似百度的站内模糊搜索怎样才能实现?最近工作需要,做了一个asp站内搜索。要求完全匹配的关键词要排在前面,关键词要模糊匹配。在网上搜了半天没有找到需要的代码,只好自己编写,现在分享给有需要的人。 功能介绍: 1、利用分词技术,先把关键词拆分为多个词组。如:“搜索炼药师”,拆分为:“搜索”、“索炼”、“炼药”、“药师”等多个词组。 2、如:数据库标题字段完全匹配“搜索炼药师”的排在前面,数据库标题字段模糊匹配“搜索”、“索炼”、“炼药”、“药师”等多个词组的分别在
128083
- 汉语分词算法,包含最大匹配和基于概率的分词算法()
合工大自然语言处理报告代码
- 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词