搜索资源列表
汉语分词统计
- 分词,针对汉语的分词,根据统计来实现的,可以直接使用目录即可,里面针对联合早报进行的测试,分次统计中可以包括任意目录(系统能承受得了就行),这是帮一个同学做的作业:)用asp。net + xml
多种分词方法
- 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Gr
汉语分词
- 汉语分词系统,对中文语句进行识别,然后分词,是很好的自然语言理解的例子-Chinese word segmentation system, the Chinese phrase for identification, then Word, is a very good natural language understanding examples
小叮咚分词模块
- 小叮呼的分词模块 小叮呼的分词模块-small bite called the Word module called the small bite-term m odule
百度分词词库
- 据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we hope to have a bit of help to Kazakhstan, where fast under fast!
分词模块
- 一个非常有用的分词模块,对研究搜索引擎的人有参考价值-a very useful segmentation module, the study of search engines reference value
词库 zwcksc30
- 分词系统的补充数据库,对于不同的领域有不同的数据库。-Word of the database system and for different areas have different databases.
分词器
- 迷你分词器,解压缩后,在java环境下运行使用。-Mini-sub-word, unzip it, run under the environment in the use of java.
中文分词函数库CipSegSDKV1.03
- 东大做中文分词的源代码,主要是用于搜索引擎的中文文本预处理-Tung Chinese-made version of the source code is mainly for the Chinese search engine Hypertext
Delphi实现的简单中文分词v1.1
- Delphi实现的简单中文分词,Delphi实现的简单中文分词-Delphi simple Chinese word Delphi simple Chinese word
php 中文 分词 直接放在wamp里就可以用
- php 中文 分词 直接放在wamp里就可以用
简单基于词典的分词(带txt语料库)
- 基于词典的分词,用于英文文本对文本进行词典的分词(Based on the word segmentation of the dictionary, used in the English text of the text of the dictionary word segmentation)
51CTO下载-中文分词
- 实现简单的中文分词。并且对中文分词的提升是绝大的,可以非常简单的实现(Implementation of Chinese word segmentation)
20170314140452_ICTCLAS2016分词系统下载包
- 这是调试好的分词系统,下载后可直接运行,不过需要经常更新data包(This is a good word segmentation system, can be downloaded directly run)
分词
- oracle 分词 自带分词,有两种方式(oracle ctx package use to do sth)
自然语言处理NPL-最大概率分词算法
- 自然语言处理NLP,最大概率分词算法,带有详细说明文档(Natural Language Processing NLP, maximum probability segmentation algorithm)
jieba分词
- 分词出差的武器的呼气和对区华东区希望成为(xwijidwdjdowslkmxkszmwksww)
汉语分词20140928
- cltclas中文分词工具包,可以进行分词,词性标注等等(Cltclas Chinese word segmentation kit, can be participle, part of speech tagging, and so on)
基于mmseg算法的一个轻量级中文分词器
- 基于mmseg算法的一个轻量级开源中文分词器(A lightweight open source Chinese word segmentation based on the mmseg algorithm)
完整的站内搜索引擎(Lucene.Net+盘古分词)
- 盘古分词法+全站搜索功能DEMO,仅供参考。(Pangu Word Segmentation + Full Station Search Function DEMO, for reference only)