搜索资源列表
GIZA++.2003-09-30.tar
- GIZA++是德国Och提供的针对统计机器翻译模型的训练工具集。这个工具可以生成IBM统计翻译模型的第4和第5种模型,采用两种方向的训练(比如对同一个语料,从中文到英文和从英文到中文的训练),再配以适当的编码,可以提取出适合基于Phrase的统计机器翻译phrase table来,为后续的工作提供数据支持。
wenbenfenlei
- 中文文本分类的语料库,比较全面,可用于进行分类训练时-Chinese text classification of Corpus, more comprehensive, and can be used for classification of training
SogouW.20061127
- 互联网词库来自于对SOGOU搜索引擎所索引到的中文互联网语料的统计分析,统计所进行的时间是2006年10月,涉及到的互联网语料规模在1亿页面以上。统计出的词条数约为15万条高频词,除标出这部分词条的词频信息之外,还标出了常用的词性信息。 语料库统计的意义:反映了互联网中文语言环境中的词频、词性情况。 应用案例:中文词性标注、词频分析等。 词性分类: N 名词 V 动词 ADJ 形容词 ADV 副词 CLAS 量词 ECHO 拟声词
wenbenfenlei
- 中文文本分类的语料库,比较全面,可用于进行分类训练时-Chinese text classification of Corpus, more comprehensive, and can be used for classification of training
SogouW.20061127
- 互联网词库来自于对SOGOU搜索引擎所索引到的中文互联网语料的统计分析,统计所进行的时间是2006年10月,涉及到的互联网语料规模在1亿页面以上。统计出的词条数约为15万条高频词,除标出这部分词条的词频信息之外,还标出了常用的词性信息。 语料库统计的意义:反映了互联网中文语言环境中的词频、词性情况。 应用案例:中文词性标注、词频分析等。 词性分类: N 名词 V 动词 ADJ 形容词 ADV 副词 CLAS 量词 ECHO 拟声词
tf-idf(chinese)
- ti-idf算法,实现对中文文档的检索,把多篇文档中的词,按照权值从小到大进行排列(词语以文本中的词库为准)-ti-idf algorithm, the realization of the Chinese document retrieval, to document more than words, in accordance with the right values from small to large to carry out with (the words to the thesa
chinese
- 中文信息处理基础 第一讲VC环境编程简介 第二讲文件处理 第三讲字符编码 第四讲字频统计 第五讲文本断句 第六讲语料库-Basic information first deal with English-speaking environment for programming VC brief introduction stresses the second file handle character encoding the third stresses the wor
AutoChatting
- 用AIML语言开发的一款中文自动聊天软件,附加有部分AIML中文对话语料库-AIML language developed by a Chinese auto-chat software, additional dialogue, some Chinese Corpus AIML
PFR199801
- PFR人民日报标注语料,它是中文信息处理的重要训练样本-PFR marked the People' s Daily corpus, which is an important Chinese information processing training samples
Yard0.2.0
- 用JAVA实现的中文语料分割。使用时直接点击yard批处理文件在DOS界面操作。 -Implemented with JAVA Chinese corpus segmentation. Click the yard when used directly in the DOS batch file interface operation.
WekaTest
- weka包+eclipse完成中文语料库分词 分类-weka package+ eclipse complete classification of Chinese word segmentation corpus
hownet
- 知网完整版,附带相关的各种论文文档,中文语料库-see chinese descr iption
电脑中的所有汉字
- 所有中文的汉字,可以用于OCR训练等,需要自己写脚本。(all china words set, use for ocr training etc.)
Chinese
- 是做文本预处理时候利用爬虫收集的500个中文文档,包括分词部分、去掉特殊符号部分以及最后的相似度计算等(It is the 500 Chinese document collected by a crawler for text preprocessing, including the part of the participle, the removal of the special part of the symbol, and the final similarity calculatio
chinese_text_classification-master
- 文本分类的一个基本项目,用到的是复旦大学中文语料库(a basic project for text classification,I use the corpus from fudan university as my training and testing corpus)
chnsenticorp
- 中文情感分析语料,包含三类:旅馆、书籍、商品评论(a corpus of chinese emotional)
icwb2-data
- NLP中文语料库,backoff语料库,可以用来训练(A wiki (Listeni/ˈ wɪ ki/ WIK-ee) is a website that provides collaborative modification of its content and structure directly the web browser. In a typical wiki, text is written using a simplified markup language an
HMM-master
- python实验中文词性标注,包括预处理,实验数据为新闻语料。(Chinese word pos-of-speech with python)
BosoNnlp
- 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。(He focuses on Chinese semantic analysis technology and has rich experience. Independently developing tens of millions of Chinese
icwb2-data
- 中文分词数据,含有as、 cityu、msr、pku数据,包括测试集、训练集(Chinese word segmentation data)