搜索资源列表
百度分词词库
- 据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we hope to have a bit of help to Kazakhstan, where fast under fast!
中文分词技术及最新发展.pdf
- 本pdf专门介绍中文领域的分词技术,罗列各种分词算法和理论
dict
- 这是我的中文信息处理的小作业,是一个自动分词系统。- This is my Chinese information processing 灏忎綔 industry, is an automatic participle system.
Codes and Application
- 这是一个中科院中文词法分析器,能对输入的文本进行分词,词性标注,未登陆词识别等功能,正确率相当高,很有用哦-This is an Academia Sinica Chinese morphology analyzer, can carry on the participle to the input text, the lexical category sign note, has not landed function and so
firtex_beta102_src
- FirteX介绍 功能: 支持增量索引,差量索引,多字段索引,提供了3种前向索引方式; 支持纯文本,HTML,PDF等文件格式; 提供快速中文分词; 从底层到高层,提供了多种索引访问接口,灵活自由地使用索引文件; 提供丰富的检索语法,支持多字段检索,日期范围检索,检索结果自定义排序等。 性能: 在Pentium 4 2.8G 2GRAM的机器上超过200Mb每分钟的索引速度 在近7G的索引文件(10
PWSWNRCODE
- 最大概率法分词。这种技术的分词效率极高。大家共享了。-greatest probability method segmentation. This segmentation of the very efficient. Share of.
2006111
- 支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。-support English, figures, Chinese (simplified) mixed at the number of commonly used words and the names of more than 220,000 matching word thesaurus fin
lucenesegment
- lucene中文分词源码,做搜索引擎需要用到的好东西哦-lucene Chinese word source and do search engines need to use the good stuff, oh
cutword
- 用VB与数据库相连接实现中 文分词的程序,采用了正向 最大匹配算法。-using VB and database links, Chinese word segmentation procedures using the largest positive matching algorithm.
SW-I
- 汉语分词算法,包含最大匹配和基于概率的分词算法-Chinese word segmentation algorithm, and contains the largest matching probability- based segmentation algorithm
dedesplit
- 中文切词,非常优秀特此推荐。是目前分词效率较高的算法-Chinese segmentation, hereby commend outstanding. Segmentation is more efficient algorithm
seg
- 调用Shootseg.dll 的C#中文分词源代码,仅供参考,相互学习。-Shootseg.dll call the C# code of Chinese origin, are for reference only learn from each other.
AutoClass
- 自动中文智能分词,一分钟可达2000000詞-Intelligent automatic Chinese word segmentation, up to two million words a minute
WordSeg_Test
- 北大研究的中文分词源代码,基于java语言实现-Beijing University of Chinese etymological study code, based on the java language
k50RVZDojs03
- 基于IKAnalyzer分词算法的准商业化Lucene中文分词器-IKAnalyzer segmentation algorithm based on quasi-commercial Lucene Chinese Word Breaker
ChineseTokenizer
- 中文分词源程序,用java开发的,内容比较详细。-Chinese word segmentation source, using java development, content in more detail.
paoding-analysis-2.0.1(UTF-8)
- 庖丁分词模块,对中文分词效果不错,可以好好学习-庖丁segmentation module, the effect of Chinese word segmentation is true, you can study hard
paoding-analysis-2.0.4-beta
- 又一个中文分词组件,作者自称很牛,企业级的,字库很多。也可直接用于lucene索引和搜索。-Another component of Chinese word segmentation, the authors claim are cattle, enterprise-class, a lot of character. Can also be used directly for Lucene indexing and search.
wordpress-seo
- WordPress SEO 中文插件 就是利用中文分词给日志建议关键字,并利用关键字对你博客进行 SEO。 1.修正了无法访问分词服务器错误信息 2.修正了没有目录出现的错误信息 3.修正了在编写文章时由于自动存储文章而无法在发表文章时根据全文获取中文关键词的bug 4.增加了使用函数用户自定义相关文章的功能输出位置的功能(傻瓜功能保留) 5.增加首页是否显示相关文章的选项(未完成) 6.如果相关文章不存在,则随机输出文章 7.将中文关
Python逆向最大匹配实现-代码-文档-截图等
- 对于文本进行自然语言处理,中文分词。北邮计算机院NLP课的作业。(This is a homework for BUPT student, implementing the word segment of natural language processing.)