【二】ElasticSearch核心概念 与 IK 分词器

导读:本篇文章讲解 【二】ElasticSearch核心概念 与 IK 分词器,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

1、ElasticSearch核心概念

  • 索引

    • 包含多个分片
  • 类型

    • 字段类型映射(字段是整型,还是字符型…)
  • 文档

  • 分片

ElasticSearch是面向文档的。关系型数据库和ElasticSearch客观对比!一切都是JSON!

Relational DB ElasticSearch
数据库(database) 索引(indices)
表(tables) types <8.x已弃用>
行(rows) documents
字段(columns) fields

elasticsearch(集群)中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包含多个文档(行),每个文档中又包含多个字段(列)

物理设计:

elasticsearch 在后台把每个索引划分成多个分片,每个分片可以在集群中的不同服务器间迁移。一个人就是一个集群! ,即启动的ElasticSearch服务,默认就是一个集群,且默认集群名为elasticsearch

逻辑设计:

一个索引类型中,包含多个文档,比如说文档1,文档2。当我们索引一篇文档时,可以通过这样的顺序找到它:索引 => 类型 => 文档ID ,通过这个组合我们就能索引到某个具体的文档。 注意:ID不必是整数,实际上它是个字符串。

  • 文档(”行“)

elasticsearch是面向文档的,那么就意味着索引和搜索数据的最小单位是文档,elasticsearch中,文档有几个重要属性:

  1. 自我包含,一篇文档同时包含字段和对应的值,也就是同时包含key:value !
  2. 可以是层次型的,一个文档中包含自文档,复杂的逻辑实体就是这么来的! {就是一个json对象 ! fastjson进行自动转换 !}
  3. 灵活的结构,文档不依赖预先定义的模式,我们知道关系型数据库中,要提前定义字段才能使用,在elasticsearch中,对于字段是非常灵活的,有时候,我们可以忽略该字段,或者动态的添加一个新的字段。

尽管我们可以随意的新增或者忽略某个字段,但是,每个字段的类型非常重要,比如一个年龄字段类型,可以是字符串也可以是整形。因为elasticsearch会保存字段和类型之间的映射及其他的设置。这种映射具体到每个映射的每种类型,这也是为什么在elasticsearch中,类型有时候也称为映射类型。

  • 类型(“表”)

    • 8.x 起,类型已弃用

    • 类型是文档的逻辑容器,就像关系型数据库一样,表格是行的容器。类型中对于字段的定义称为映射,比如 name 映射为字符串类型。我们说文档是无模式的,它们不需要拥有映射中所定义的所有字段,比如新增一个字段,那么elasticsearch是怎么做的呢?

      • elasticsearch会自动的将新字段加入映射,但是这个字段不确定它是什么类型,elasticsearch就开始猜,如果这个值是18,那么elasticsearch会认为它是整形。但是elasticsearch也可能猜不对,所以最安全的方式就是提前定义好所需要的映射,这点跟关系型数据库殊途同归了,先定义好字段,然后再使用,别整什么幺蛾子。
  • 索引(“库”)

索引是映射类型的容器, elasticsearch中的索引是一个非常大的文档集合。 索引存储了映射类型的字段和其他设置。然后它们被存储到了各个分片上了。

节点和分片如何工作?

一个集群至少有一个节点,而一个节点就是一个elasricsearch进程,节点可以有多个索引。

如果创建索引,那么索引将会有个5个分片(primary shard,又称主分片)构成的,每一个主分片会有一个副本(replica shard,又称复制分片);默认有 5 个分片,1个副本

在这里插入图片描述

在这里插入图片描述

上图是一个有3个节点的集群,可以看到 主分片 和对应的 副本分片 都不会在同一个节点内,这样如果某个节点挂掉了,数据也不至于丢失。实际上,一个分片是一个Lucene索引(一个ElasticSearch索引包含多个Lucene索引),一个包含倒排索引的文件目录,倒排索引的结构使得elasticsearch在不扫描全部文档的情况下,就能知道哪些文档包含特定的关键字。

倒排索引(Lucene索引底层)

按(文章关键字,对应的文档<0个或多个>)形式建立索引,根据关键字就可直接查询对应的文档(含关键字的),无需查询每一个文档

在这里插入图片描述

2、IK分词器

2.1、概述

中文分词器

分词:即把一段中文或者别的划分成一个个的关键字,在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一一个匹配操作,默认的中文分词是将每个字看成一个词(不使用IK分词器的情况下)。

IK提供了两个分词算法:

  • ik_smart : 最少切分

  • ik_max_word : 最细粒度切分

2.2、下载

选择与ES匹配的版本 8.1.0

在这里插入图片描述

在这里插入图片描述

2.3、安装

在 ES 的 plugins 目录下新建 ik 目标,解压至该目录即可

在这里插入图片描述

2.4、重启ES

在这里插入图片描述

2.5、查看IK插件

在 ES 的 bin 目录下,打开新的 cmd 窗口,使用 elasticsearch-plugin.bat list 查看

在这里插入图片描述

2.6、使用kibana测试

  • ik_smart : 最少切分
GET _analyze
{
  "analyzer": "ik_smart",
  "text": "中国人民解放军环岛演习"
}

在这里插入图片描述

  • ik_max_word : 最细粒度切分
GET _analyze
{
  "analyzer": "ik_max_word",
  "text": "中国人民解放军环岛演习"
}

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

中国人民解放军环岛演习 共分解为:中国人民解放军中国人民中国人中国国人人民解放军人民解放军解放环岛演习

2.7、自定义词典

  • 在 IK 插件的 config 目录下新建自已的词典 tuwer.dic

    在这里插入图片描述

    在这里插入图片描述

  • 注入配置文件中

在这里插入图片描述

  • 重启ES测试

在这里插入图片描述

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由半码博客整理,本文链接:https://www.bmabk.com/index.php/post/70381.html

(0)
小半的头像小半

相关推荐

半码博客——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!