#

ik

  • 使用ES对中文文章进行分词,并进行词频统计排序

    前言:首先有这样一个需求,需要统计一篇10000字的文章,需要统计里面哪些词出现的频率比较高,这里面比较重要的是如何对文章中的一段话进行分词,例如“北京是×××的首都”,“北京”,“×××”,“中华”

    作者:酱酱酱子啊
    2020-07-14 08:26:33
  • elasticsearch安装中文分词插件

    下载 下载和elaticsearch对应版本的ik分词https://github.com/medcl/elasticsearch-analysis-ik/releases 安装 elasticsea

    作者:会说话的鱼
    2020-07-05 09:16:03
  • IK分词器安装

    简介:当前讲解的 IK分词器  包的 version 为1.8。一、下载zip包。    下面有附件链接【ik-安装包.zip】,下载即可。

    作者:yushiwh
    2020-06-30 23:54:11