搜索资源列表

  1. siuying_segment

    0下载:
  2. 「我是中國人」,ChineseTokenizer會將之分割為五個中文字:「我、是、中、國、人」,CJKTokenizer則會將之分割為「我是、是中、中國、國人」四個二節的詞。前者的問題是沒有考慮中文詞語的問題,如搜尋「國中」一樣搜尋到「我是中國人」。後者的問題則是制做了大量沒意義的詞如「是中」「國人」,讓索引沒必要地增大、降低搜尋效率。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1672077
    • 提供者:李利华
  1. ChineseTokenizer

    0下载:
  2. 中文分词源程序,用java开发的,内容比较详细。
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:1003568
    • 提供者:朱红权
  1. ChineseTokenizer

    0下载:
  2. 用C#写的中文分词程序,还没有编译,有需要的编译一下吧
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1037587
    • 提供者:蔡报忠
  1. ChineseTokenizer20060426

    0下载:
  2. 分词文件,是一个比较简单词库.简单的说就是个强大的搜索-word document is a relatively simple thesaurus. Simply means that the powerful search
  3. 所属分类:其它资源

    • 发布日期:2024-06-17
    • 文件大小:1005568
    • 提供者:杨占成
  1. siuying_segment

    0下载:
  2. 「我是中國人」,ChineseTokenizer會將之分割為五個中文字:「我、是、中、國、人」,CJKTokenizer則會將之分割為「我是、是中、中國、國人」四個二節的詞。前者的問題是沒有考慮中文詞語的問題,如搜尋「國中」一樣搜尋到「我是中國人」。後者的問題則是制做了大量沒意義的詞如「是中」「國人」,讓索引沒必要地增大、降低搜尋效率。
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-17
    • 文件大小:1672192
    • 提供者:李利华
  1. ChineseTokenizer

    0下载:
  2. 中文分词源程序,用java开发的,内容比较详细。-Chinese word segmentation source, using java development, content in more detail.
  3. 所属分类:JSP源码/Java

    • 发布日期:2024-06-17
    • 文件大小:1003520
    • 提供者:朱红权
  1. ChineseTokenizer

    0下载:
  2. 用C#写的中文分词程序,还没有编译,有需要的编译一下吧-With C# Written in Chinese word segmentation process, has not yet compiled, there is a need to compile yourself
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-17
    • 文件大小:1037312
    • 提供者:
  1. ChineseTokenizer

    0下载:
  2. 中文分词演示程序,可以对字符串进行按照词义分词。在搜索技术中有广泛应用。-Chinese Segmentation demo program can be carried out in accordance with the meaning of the string segmentation. In the search technology has wide application.
  3. 所属分类:中文信息处理

    • 发布日期:2024-06-17
    • 文件大小:966656
    • 提供者:老农

源码中国 www.ymcn.org