搜索资源列表
WordPartation2
- 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
YurowAnalyzer_001
- 中文分词软件,.netfr a mework3.5-Chinese word segmentation software,. Netfr a mework3.5
FreeICTCLAS
- ictclas c++版源代码,适用于C++语言的学习和中文分词算法的研究。-ictclas c++ version of the source code for C++ language learning and Chinese word segmentation algorithm.
ICTCLAS2010CSharpDemo
- 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICT
gugeheibanbaoshuxuezhimei
- 分多个系列详细介绍了数学的应用,如统计语言模型,中文分词,隐含马尔科夫模型在语言处理中的应用等等非常经典的例子,让我们更深入学习了解数学的光芒所在-Described in detail in several series of mathematical applications, such as statistical language model, Chinese word segmentation, hidden Markov m
ShuzhenAnalyzer-1.1.8-jdk1.6.0
- 中文分词 ShuzhenAnalyzer 可用于将文档中词进行划分,比较好用-Word cut using java
VC2010
- VC调用中科院分词2010版组件的最新源码! 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级8次,目前已经升级到了ICTCLAS2010!-VC
SharpICTCLAS.net1.1
- 这是用C#编写的简单的中文分词程序,采用的是键树。-This is written in C# using simple Chinese word segmentation procedure is the key tree used.
fenci
- 中文分词,可将文件划分词性,有词库,可添加新词-Use LR analysis of the compiler, may realize the words and grammar, semantics analysi
splitword
- 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
1
- 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information ret
FreeICTCLASLinux
- 中科院ICTCLAS中文分词库,linux开源版-open source ICTCLA
FenCi
- 运用编译原理中的词法分析,实现了中文分词功能。-The use of compiler theory of lexical analysis, achieve the Chinese word function.
ansj_seg-master
- ansj_seg-master中文分词安装包(附带安装说明,详情请点击里面的README.md)(Ansj_seg-master Chinese word segmentation package (attached installation instructions, please click on the details of the README.md))
Desktop
- 可以实现matlab中文分词采用反向最大匹配法可以准确实现分词(Matlab Chinese word segmentation can be achieved, using the reverse maximum matching method, you can accurately achieve word segmentation)
coreseek
- 非常好用的中文分词工具,在网上找了好久才找到的非常好的工具(very good Chinese languag participle tool;I Looking for a very good tool on the Internet for a long time)
ChPreprocess
- 使用jieba包从excel表中读取数据,进行中文分词,预料分析(Using Jieba package for Chinese analysis, expected analysis)
chinese_seg_update
- 中文分词,采用逆向最大匹配方法实现,利用字典作为索引(The Chinese word segmentation is realized by the reverse maximum matching method, and the dictionary is used as the index.)
jieba-jieba3k
- MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with
wordseg
- 运用R语言进行中文分词处理,得到词频统计,并绘制词云图直观表示(Chinese word segmentation and word cloud drawing)