搜索资源列表

  1. chentian.fenci

    0下载:
  2. 实现了基于词库的nutch中文分词,这一部分是其中的dll文件-realized based on the thesaurus nutch Chinese word, this part is one of the dll file
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:2403424
    • 提供者:冯凡立
  1. fenci

    0下载:
  2. 支持java的中文分词程序-support the Chinese word segmentation procedures
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:2458040
    • 提供者:张永军
  1. fenci

    0下载:
  2. java版的分词程序,可以灵活生成添加字典。
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:8495
    • 提供者:王文荣
  1. fenci

    0下载:
  2. 海量分词结合lucene的分词部分源代码,不包含海量分词dll,请下载的朋友注意,希望能对大家有帮助。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:2504463
    • 提供者:长亭
  1. fenci

    0下载:
  2. 一个简单的分词程序,里面有代码和词库,编译连接后在命令行里运行
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:210502
    • 提供者:张正
  1. fenCi

    0下载:
  2. 实现中文信息处理中的汉语分词的功能,采用了正向最大和逆向最大的分词算法。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:3199772
    • 提供者:舒晓明
  1. fenci

    0下载:
  2. 分词程序,HMM模型训练,维特比解码,有说明文档。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:10225
    • 提供者:haiba
  1. fenci

    0下载:
  2. 支持java的中文分词程序-support the Chinese word segmentation procedures
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-05-10
    • 文件大小:2457600
    • 提供者:张永军
  1. chentian.fenci

    0下载:
  2. 实现了基于词库的nutch中文分词,这一部分是其中的dll文件-realized based on the thesaurus nutch Chinese word, this part is one of the dll file
  3. 所属分类:搜索引擎

    • 发布日期:2024-05-10
    • 文件大小:2403328
    • 提供者:冯凡立
  1. fencicode

    0下载:
  2. 挺不错的东西,分词库要自己去添加,我没有乱写啊。-quite good things, thesaurus minutes to add to his, ah, I do not write without basis.
  3. 所属分类:文件格式

    • 发布日期:2024-05-10
    • 文件大小:47104
    • 提供者:sharemin
  1. zhongwenfenci

    0下载:
  2. 讲述面向信息检索的中文分词程序的PDF文档,-For information retrieval on Chinese word segmentation process PDF documents,
  3. 所属分类:软件工程

    • 发布日期:2024-05-10
    • 文件大小:117760
    • 提供者:吴代文
  1. webfenci

    0下载:
  2. 分词程序//db.executeUpdate("UPDATE article SET tag= "+server.codestring(tempword)+" WHERE id="+id+"") out.print("原题目:"+title+"<br>"+"分词结果:"+tempword+"<br>") //System.out.println("id:"+id+"---原题目:"+title)
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-05-10
    • 文件大小:1024
    • 提供者:wwwwwww
  1. fenci

    0下载:
  2. java版的分词程序,可以灵活生成添加字典。-java version of the segmentation procedure, you can add flexibility to generate the dictionary.
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-05-10
    • 文件大小:8192
    • 提供者:王文荣
  1. fenci_ICTCLAS

    0下载:
  2. 基于中科院计算所的ICTCLAS系统开发的分词工具,只有一个类,上手最快,功能强大-Based on calculations of the Chinese Academy of Sciences ICTCLAS segmentation system development tools, there is only one category, the fastest to use and powerful
  3. 所属分类:中文信息处理

    • 发布日期:2024-05-10
    • 文件大小:2234368
    • 提供者:xielang
  1. fenci

    0下载:
  2. 海量分词结合lucene的分词部分源代码,不包含海量分词dll,请下载的朋友注意,希望能对大家有帮助。-Massive sub-word combination of the sub-word part of Lucene source code, does not contain a massive segmentation dll, please download the attention of friends, I hope e
  3. 所属分类:搜索引擎

    • 发布日期:2024-05-10
    • 文件大小:2504704
    • 提供者:长亭
  1. fenci

    0下载:
  2. 一个简单的分词程序,里面有代码和词库,编译连接后在命令行里运行-A simple segmentation procedure, which has code and thesaurus, the compiler to connect the command line after the run
  3. 所属分类:搜索引擎

    • 发布日期:2024-05-10
    • 文件大小:209920
    • 提供者:张正
  1. fenCi

    0下载:
  2. 实现中文信息处理中的汉语分词的功能,采用了正向最大和逆向最大的分词算法。-The realization of Chinese information processing in Chinese word segmentation features, the use of the forward and reverse largest largest segmentation algorithm.
  3. 所属分类:中文信息处理

    • 发布日期:2024-05-10
    • 文件大小:3200000
    • 提供者:舒晓明
  1. fenci

    0下载:
  2. 中科院分词,自动分词,java实现,内附说明谢谢使用-zhongkeyuanfenci
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-05-10
    • 文件大小:2477056
    • 提供者:常天舒
  1. fenci

    0下载:
  2. 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a
  3. 所属分类:搜索引擎

    • 发布日期:2024-05-10
    • 文件大小:56320
    • 提供者:strayly
  1. fenci

    0下载:
  2. 将该jar包导入到用户创建的工程中,然后在用户创建的类中调用其中的分词功能。-Import this fenci.jar into user s project, and call it in the .java file to segment Chinese words
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-05-10
    • 文件大小:2236416
    • 提供者:wyatt
« 12 3 4 »

源码中国 www.ymcn.org