搜索资源列表
-
0下载:
基于 vBulletin 中文的加强版修改而来,不完全插件列表:
1. 在线时常等级插件
2. QQ 插件
3. 首页标题截短修正
4. 中文搜索完美解决(可以在改进的二元分割算法(效率高、负载小)、直接搜索 post 表(更准确、数据库空间占用小)和 MySQL 全文索引(MySQL 版本低于 v4.1.1 不支持中文搜索)三种方式选择)
5. 金钱银行插件
6. 隐藏帖插件
7. 收费附件插件
8. 画廊插件
9. 性别插件
10. 精华插件
11
-
-
0下载:
KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法-KaiToo search by KTDictSeg developed a simple dictionary based on English and Chinese word segmentation algorithm
-
-
0下载:
SphinxV0.9.8.1source.zip VC++ 基于Lucene扩展的支持中文分词的开源搜索引擎 中文用户-Sphinx V0.9.8.1 source.zip VC++ extensions to support Lucene-based Chinese word segmentation in Chinese open source search engine users
-
-
0下载:
淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案-Amoy Special Search Engine (C# Edition) Based on Lucene.Net core, through the effective Chinese word
-
-
0下载:
类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
-
-
0下载:
基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
-
-
0下载:
SCWS是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。
这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。
-SCWS initials Simple Chinese Word Segmentation abbreviations (ie: Simple Chinese
-
-
0下载:
软件定义网络编程,在NOX上根据应用对网络分割-Software-defined network programming, application of network segmentation based on NOX
-
-
0下载:
现有基于机器视觉的智能检测技术是实现其生产质量快速、自动检测与控制的新型重要手段。在此基础上,本文介绍了基于HALCON机器视觉软件的检测系统和针对化妆品瓶底批号的图像处理关键技术,包括灰度值调整、形态学运算、字符分割及识别数字对象-Existing machine vision based intelligent detection technology is to achieve its production quality fast, automatic detection and con
-
-
0下载:
这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。-This is a dictionary-based word frequency mechanical Chinese word segmentation engine, it will be a whole section of the Chinese text of the basic r
-
-
0下载:
阈值分割,Otsu法分割,迭代分割等基础程序。供新手使用。-Segmentation threshold segmentation, Otsu method, iterative segmentation based applications, etc. For the use of beginners.
-
-
0下载:
全文检索,可用于中文分词检索,是基于sphinx的开源。(Full text retrieval, which can be used in Chinese word segmentation, is open source based on sphinx.)
-
-
0下载:
Can realize the two-dimensional data clustering, The true extent of the value of the intermediary measure, measure the true extent of the agency based on the value of image segmentation SNR largest independent component analysis algorithm.
-
-
0下载:
paoding-dic-home.properties是庖丁解牛中文分词的配置文件
庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file
Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
-