搜索资源列表

  1. 多种分词方法

    0下载:
  2. 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Gr
  3. 所属分类:其它资源

    • 发布日期:2008-10-13
    • 文件大小:20833489
    • 提供者:阿瑟多幅
  1. segment

    0下载:
  2. 基于文本文件的分词程序,可以将指定文件名的文本文档按照词典自动划分出单词.-text-based documents, the sub-term process, which would be designated the File Name text documents with automatic divided dictionary word.
  3. 所属分类:C#编程

    • 发布日期:2008-10-13
    • 文件大小:448669
    • 提供者:王重华
  1. mmseg-v0.1

    0下载:
  2. 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:607478
    • 提供者:binger
  1. src

    0下载:
  2. 基于词典的最大分词算法 达到很好的分词准确率
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:15920
    • 提供者:大宝
  1. 无词典分词

    0下载:
  2. 基于后缀数组的无词典分词算法,通过后缀和散列表获取汉字的结合模式,通过置信度筛选词
  3. 所属分类:其他小程序

    • 发布日期:2009-05-28
    • 文件大小:4087
    • 提供者:yidouyi@163.com
  1. 多种分词方法

    0下载:
  2. 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Gr
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2024-06-11
    • 文件大小:20833280
    • 提供者:阿瑟多幅
  1. segment

    0下载:
  2. 基于文本文件的分词程序,可以将指定文件名的文本文档按照词典自动划分出单词.-text-based documents, the sub-term process, which would be designated the File Name text documents with automatic divided dictionary word.
  3. 所属分类:C#编程

    • 发布日期:2024-06-11
    • 文件大小:1563648
    • 提供者:王重华
  1. mmseg-v0.1

    0下载:
  2. 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-11
    • 文件大小:607232
    • 提供者:binger
  1. IKAnalyzer

    1下载:
  2. IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码-IKAnalyzer is the Chinese word segmentation tool lucene2.0 version of API-based development, the realization of a dictionary
  3. 所属分类:.net编程

    • 发布日期:2024-06-11
    • 文件大小:1904640
    • 提供者:Jingtian Jiang
  1. src

    0下载:
  2. 基于词典的最大分词算法 达到很好的分词准确率-Dictionary-based segmentation algorithm to achieve the greatest good segmentation accuracy
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-06-11
    • 文件大小:15360
    • 提供者:大宝
  1. ictclas4j

    0下载:
  2. 基于词典的分词工具,用与对文本文件的分词-word parsing tools based on dictionary
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-11
    • 文件大小:3085312
    • 提供者:ivanwong
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-11
    • 文件大小:3256320
    • 提供者:王同
  1. fenci

    0下载:
  2. 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a
  3. 所属分类:搜索引擎

    • 发布日期:2024-06-11
    • 文件大小:56320
    • 提供者:strayly
  1. maxfenci

    0下载:
  2. 基于词典的最大正向/反向分词,C++的,最简单的学习分词算法的代码-Dictionary-based maximum forward/reverse word, C++, the most simple method of learning the code word
  3. 所属分类:Windows编程

    • 发布日期:2024-06-11
    • 文件大小:1562624
    • 提供者:wang ming
  1. dictionary

    0下载:
  2. 基于四字hash的中文分词词典,将此条放在数据库中,利用memcache提高词典索引速度。实现文本词典到数据库中此条的自动转换。-Hash based on four characters of Chinese word dictionary, the clause on the database, dictionary use memcache to improve indexing speed. Text dictionary to
  3. 所属分类:WEB源码

    • 发布日期:2024-06-11
    • 文件大小:7165952
    • 提供者:徐向阳
  1. mySegment

    0下载:
  2. 类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
  3. 所属分类:搜索引擎

    • 发布日期:2024-06-11
    • 文件大小:656384
    • 提供者:shy
  1. yinghanshuangxiangdianzicidian

    0下载:
  2. 英汉双向电子词典是数字化的辞书,在载体、编纂方式、设计过程、功能、使用者、查询手段、检索方法等各方面具有词典类软件特性。本课题设计英汉双向电子词典是一种基于Java语言开发的跨平台的词典类工具软件。检索方式采用开源的Lucene全文检索并实现中文分词的功能。具有查询、检索方便、快捷,查询种类齐全,可以即时翻译、准确的、详细地查阅英文、中文单词。同时为各种软件、网络、电子邮件等提供后台支持,从而大大提高了用户的工作效率,拓宽了学习途径。-
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-06-11
    • 文件大小:534528
    • 提供者:killersking
  1. fencisuanfa

    0下载:
  2. 用正向最大匹配发实现句子的分词。是基于词典的分词算法。该算法的特点是速度快,准确率高。-Made to achieve a positive match with a maximum sentence segmentation. Dictionary-based segmentation algorithm. The algorithm is characterized by fast and accurately.
  3. 所属分类:数据结构常用算法

    • 发布日期:2024-06-11
    • 文件大小:901120
    • 提供者:张喜
  1. splitword

    0下载:
  2. 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
  3. 所属分类:搜索引擎

    • 发布日期:2024-06-11
    • 文件大小:2136064
    • 提供者:yang
  1. 简单基于词典的分词(带txt语料库)

    0下载:
  2. 基于词典的分词,用于英文文本对文本进行词典的分词(Based on the word segmentation of the dictionary, used in the English text of the text of the dictionary word segmentation)
  3. 所属分类:其他小程序

    • 发布日期:2024-06-11
    • 文件大小:260096
    • 提供者:呵2020
« 12 »

源码中国 www.ymcn.org