初学者都能学会的ElasticSearch入门实战

少年击剑更吹箫,剑气箫心一例消。这篇文章主要讲述初学者都能学会的ElasticSearch入门实战相关的知识,希望能为你提供帮助。
大家好,我是咔咔 ??不期速成,日拱一卒??
项目中准备使用ElasticSearch,之前只是对ElasticSearch有过简单的了解没有系统的学习,本系列文章将从基础的学习再到深入的使用。
咔咔之前写了一份死磕mysql文章,如今再入一个系列玩转ElasticSearch。
本期文章会带给大家学习ElasticSearch的基础入门,先把基础学会再深入学习更多的知识点。

一、基本概念文档(Document)
ElasticSearch是面向文档的,文档是所有可搜索数据的最小单位,例如MySQL的一条数据记录
文档会被序列化成为json格式,保存在ElasticSearch中
每个文档都有一个唯一ID,例如MySQL中的主键ID
JSON文档
一篇文档包括了一系列的字段,例如数据中的一条记录
json文档,格式灵活,不需要预先定义格式
在上期文章中把csv文件格式文件通过Logstash转化为json存储到ElasticSearch中
文档的元数据
index :文档所属的索引名
type:文档所属类型名
id:文档唯一ID
source:文档的原始JSON数据
version:文档的版本信息
score:相关性分数

索引
索引是文档的容器,是一类文档的结合,每个索引都有自己的mapping定义,用于定义包含的文档的字段和类型
每个索引都可以定义mapping,setting,mapping是定义字段类型,setting定义不同的数据分布


"movies" :
"aliases" :,
"mappings" :
"properties" :
"@version" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",
"ignore_above" : 256


,
"genre" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",
"ignore_above" : 256


,
"id" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",
"ignore_above" : 256


,
"title" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",
"ignore_above" : 256


,
"year" :
"type" : "long"


,
"settings" :
"index" :
"creation_date" : "1641637408626",
"number_of_shards" : "1",
"number_of_replicas" : "1",
"uuid" : "gf0M2BgnStGZZHsIJD6otQ",
"version" :
"created" : "7010099"
,
"provided_name" : "movies"




Type
7.0之前,一个Index可以设置多个type,所以当时大多数资料显示的都是type类型与数据库的表
7.0之后,一个索引只能创建一个type“_doc”
若不好理解,可以对比MySQL类比一下


Databases
ElasticSearch
Table
Index(Type)
Row
Document
Column
Filed
Schema
Mapping
Sql
Dsl


节点
节点是一个ElasticSearch的实例,本质上就是java的一个进程,一台机器可以运行多个ElasticSearch进程,但生产环境下还是建议一台服务器运行一个ElasticSearch实例
每个节点都有名字,通过配置文件配置,或者启动时 -E node.name=node1
每个节点在启动后,会分配一个UID,保存在data目录下
主节点:master
默认情况下任何一个集群中的节点都有可能被选为主节点,职责是创建索引、删除索引、跟踪集群中的节点、决定分片分配给相应的节点。索引数据和搜索查询操作会占用大量的内存、cpu、io资源。因此,为了保证一个集群的稳定性,应该主动分离主节点跟数据节点。
数据节点:data
看名字就知道是存储索引数据的节点,主要用来增删改查、聚合操作等。数据节点对内存、cpu、io要求比较高,在优化的时候需要注意监控数据节点的状态,当资源不够的时候,需要在集群中添加新的节点。
负载均衡节点:client
该节点只能处理路由请求,处理搜索,分发索引等操作,该节点类似于nginx的负载均衡处理,独立的客户端节点在一个比较大的集群中是非常有用的,它会协调主节点、数据节点、客户端节点加入集群的状态,根据集群的状态可以直接路由请求。
预处理节点:ingest
在索引数据之前可以先对数据做预处理操作,所有节点其实默认都是支持ingest操作的,也可以专门将某个节点配置为ingest节点。
分片
分片分为主分片,副本分片
主分片:用以解决数据水平扩展的问题,将数据分布到集群内的所有节点上,一个分片是一个运行的Lucene(搜索引擎)实例,主分片数在创建时指定,后续不允许修改,除非Reindex
副本:用以解决数据高可用的问题,可以理解为主分片的拷贝,增加副本数,还可以在一定程度上提高服务的可用性。
在生产环境中分片的设置有何影响
分片数设置过小会导致无法增加节点实现水平扩展,单个分片数据量太大,导致数据重新分配耗时。假设你给索引设置了三个主分片 ,这时你给集群加了几个实例,索引也只能在三台服务器上
分片数设置过大导致搜索结果相关性打分,影响统计结果的准确性,单个节点上过多的分片,会导致资源浪费,同时也会影响性能
从ElasticSearch7.0开始,默认的主分片设置为1,解决了over-sharding的问题
查看集群健康状态
执行接口
get _cluster/health


green:主分片与副本都正常分配
yellow:主分片全部正常分配,有副本分片未能正常分配
red:有主分片未能分配,当服务器的磁盘容量超过85%时创建了一个索引
二、Result Api

接口
作用
get movies
查看索引相关信息
get movies/_count
查看索引的文档总数
post movies/_search
查看前10条文档
get /_cat/indices/movies?v& s=index
获取索引状态
get /_cat/indices?v& health=green
查看状态为绿色的索引
get /_cat/indices?v& s=docs.count:desc
根据文档数据倒序
get /_cat/indices/kibana*?pri& v& h=health,index,pri,rep,docs,count,mt
查看索引具体字段
get /_cat/indices?v& h=i,tm& s=tm:desc
查看索引所占的内存
get _cluster/health
查看集群健康状态


三、文档的基本CRUD操作create 一个文档
支持自动生成文档ID和指定文档ID两种方式
通过调用post /movies/_doc 系统会自动生成文档ID
使用http put movies/_create/1 创建时,url中显示指定_create ,如果该id的文档已经存在,操作失败

Index 文档
Index和Create区别在于,如果文档不存在,就索引新的文档。否则现有文档会被删除,新的文档被索引并且版本信息+1
可以看到之前的文档已经被更新为最新的niuniu,是因为之前就存在文档id=1,并且能看到版本信息也加了1

update 文档
update方法不会删除原有文档,而是实现真正的数据更新

get 一个文档
检索文档找到,返回状态码200,文档元信息,这里需要注意一下版本信息,同一个id的文档,即被删除版本号也会不断增加
找不到文档,返回状态码404

Bulk Api
支持在一次Api调用中,对不同的索引进行操作,支持index、create、update、delete
可以在url中指定index,也可以在请求的payload中进行
操作中单条操作失败,不会影响其它继续操作,并且返回结果包括了每一条操作执行的结果
多索引bulk批量操作案例:
post _bulk
"index":"_index" : "test1","_id" : "1"
"name":"kaka_bulk"
"delete":"_index":"test1","_id":"2"
"create":"_index":"test2","_id":"3"
"name":"kaka_create"
"update":"_id":"1","_index":"test1"
"doc":"name":"kaka_bulk"

返回结果

"took" : 165,
"errors" : false,
"items" : [

"index" :
"_index" : "test1",
"_type" : "_doc",
"_id" : "1",
"_version" : 1,
"result" : "created",
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"_seq_no" : 0,
"_primary_term" : 1,
"status" : 201

,

"delete" :
"_index" : "test1",
"_type" : "_doc",
"_id" : "2",
"_version" : 1,
"result" : "not_found",
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"_seq_no" : 1,
"_primary_term" : 1,
"status" : 404

,

"create" :
"_index" : "test2",
"_type" : "_doc",
"_id" : "3",
"_version" : 1,
"result" : "created",
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"_seq_no" : 0,
"_primary_term" : 1,
"status" : 201

,

"update" :
"_index" : "test1",
"_type" : "_doc",
"_id" : "1",
"_version" : 1,
"result" : "noop",
"_shards" :
"total" : 2,
"successful" : 1,
"failed" : 0
,
"status" : 200


]

这里需要大家注意:bulk api 对json语法有严格的要求,每个json串不能换行,只能放一行,同时一个json和另一个json串之间必须有一个换行。
单索引bulk批量操作
如果操作的是同一个索引时,bulk语句还可以变化为以下方式
post test1/_bulk
"index":"_id" : "1"
"name":"kaka_bulk"
"delete":"_id":"2"
"create":"_id":"3"
"name":"kaka_create"
"update":"_id":"1"
"doc":"name":"kaka_bulk"

单条的返回结果可以自己尝试一下,可以看到单索引bulk跟多索引bulk之间的区别显而易见。
bulk size的最佳大小
bulk request 会加载到内存里,如果太大的话,性能反而会下降,因此需要不断尝试最佳的bulk size,大小最好控制在5~15MB即可,至于条数需要根据当下数据量再调整。
批量读取_mget
道理跟MySQL都一样,只要是批量在一定合理的范围内都会减少网络连接所产生的开销,从而提高性能
需要注意批量获取每个json之间是需要逗号隔开的,否则会报json解析异常
get /_mget

"docs": [
"_index":"test","_id":"1",
"_index":"movies","_id":"2"
]

批量搜索_msearch
post kibana_sample_data_ecommerce/_msearch

"query":"match_all":,"size":1
"index":"kibana_smaple_sample_data_flights"
"query":"match_all":,"size":1

常见的错误状态


问题
原因
无法连接
网络故障、集群异常
连接无法关闭
网络故障、节点出错
429
集群过于繁忙
4xx
请求体格式错误
500
集群内部错误


四、倒排索引倒排索引是由单词词典、倒排列表两部分组成,单词词典记录的所有文档的单词,记录单词倒排列表的关联关系
倒排列表记录了单词对应的文档结合,由倒排索引项组成,分别为文档ID、词频TF、位置、偏移
案例:


文档ID
文档内容
1
kaka ElasticSearch
2
ElasticSearch kaka
3
ElasticSearch niuniu


倒排列表就为:


文档ID
词频
位置
偏移量
1
1
1
< 10,23>
2
1
0
< 0,13>
3
1
0
< 0,13>


ElasticSearch可以为json文档中的每个字段设置自己的倒排索引,也可以指定某些字段不做倒排索引
若不做倒排索引,虽可以节省存储空间,但字段无法被搜索
五、使用Analyzer进行分词首先你得知道什么是分词:Analysis把全文本转换为一系列单词的过程叫做分词
Analysis通过Analyzer实现的,可以通过ElasticSearch内置的分析器、或使用定制分析器
分词器除了写入时转换此条,查询query时也需要用相同的分析器对查询语句进行分析
案例:ElasticSearch kaka
通过分词就转化为 elasticSearch和kaka,这里需要注意的是通过分词转化后把单词的首字母变为小写
Analyzer的组成
Character Fiters :针对原始文本处理,例如去除html
Tokenizer : 按照规则切分单词
Token Filter : 将切分的单词进行加工,转为小写,删除stopwords并增加同义词
ElasticSearch的内置分词器
# Standard Analyzer - 默认分词器,按词切分,小写处理
# 只做单词分割、并且把单词转为小写
get _analyze

"analyzer":"standard",
"text":"If you dont expect quick success, youll get a pawn every day"


# Simple Analyzer - 按照非字母切分(符号被过滤),小写处理
# 按照非字母切分例如字母与字母之间的——,非字母的都被去除例如下边的 2
get _analyze

"analyzer" :"simple",
"text":"3 If you dont expect quick success, youll get a pawn every day kaka-niuniu"


# Whitespace Analyzer - 按照空格切分,不转小写
# 仅仅是根据空格切分,再无其它
get _analyze

"analyzer":"whitespace",
"text":"3 If you dont expect quick success, youll get a pawn every day"


# Stop Analyzer - 小写处理,停用词过滤(the,a, is)
# 按照非字母切分例如字母与字母之间的——,非字母的都被去除例如下边的 2
# 相比Simple Analyze,会把the,a,is等修饰性词语去除
get _analyze

"analyzer":"stop",
"text":"4 If you dont expect quick success, youll get a pawn every day"


# Keyword Analyzer- 不分词,直接将输入当作输出
# 不做任何分词,直接把输入的输出,假如你不想使用任何分词时就可以使用这个
get _analyze

"analyzer":"keyword",
"text":"5 If you dont expect quick success, youll get a pawn every day"


# Patter Analyzer- 正则表达式,默认\\W+(非字符分隔)
# 通过正则表达式进行分词,默认是\\W+,非字符的符号进行分割
get _analyze

"analyzer":"pattern",
"text":"6 If you dont expect quick success, youll get a pawn every day"


# Language 一提供了30多种常见语言的分词器
# 通过不同语言进行分词
# 会把复数转为单数,会把单词的ing去除
get _analyze

"analyzer":"english",
"text":"7 If you dont expect quick success, youll get a pawn every day kakaing kakas"


# 中文分词器
# 这个需要安装
# 执行: ./bin/elasticsearch-plugin install analysis-icu
# 重启:nohup ./bin/elasticsearch > /dev/null 2> & 1 &
get _analyze

"analyzer":"icu_analyzer",
"text":"你好,我是咔咔"

其它中文分词
用的最多的IK分词,只是自定义词库,支持热更新分词字典
清华大学自然语言一套分词器Thulac
六、Search Api通过Url query 实现搜索
例如:
get /movies/_search?q=2012& df=title& sort=year:desc

q:指定查询语句,使用Query String Syntax
df:查询字段,不指定时,会对所有字段进行查询
sort:排序、from和size用于分页
Profile:可以查看查询是如果被执行的
指定字段查询、泛查询
指定字段查询就是加上df即可、泛查询什么都不加,看案例
通过下图右侧信息可得知,指定字段查询的是title中存在2012的数据

同样也可以这样来写指定字段查询
get /movies/_search?q=2012& df=title

"profile":true

通过下图右侧可得知,泛查询则是在所有字段中查找存在2012的数

分组与引号查询
若你查询值为Beautiful Mind 则等效于Beautiful OR Mind,类似于MySQL中的or语句,意思为查询的字段中包含 Beautiful或者Mind 都会被查询出来
若你查询值为"Beautiful Mind" 则等效于Beautiful AND Mind ,类似于MySQL中的and语句,意思为查询的字段中不仅要包含Beautiful而且还需要包含 Mind ,跟MySQL中不同的是顺序也不能变
注意:这里你乍一眼看过去没啥区别, 其实区别就在于有无引号
# PhraseQuery

# 需要字段title中存在beautiful 和 mind,并且两者的顺序不能乱

# "description" : """title:"beautiful mind""""

get /movies/_search?q=title:"Beautiful Mind"

"profile":"true"



# TermQuery

# 需要字段title中出现beautiful 或 mind 都可以

# "type" : "BooleanQuery",
# "description" : "title:beautiful title:mind",

get /movies/_search?q=title:(Beautiful Mind)

"profile":"true"

布尔操作
可以使用AND / OR / NOT 或者 & & / || / !这里你会发现使用的都是大写,+表示must(必须存在),-表示not mast(必须不存在)接下来看案例
# title 里边必须有beautiful 和 mind
# "description" : "+title:beautiful +title:mind"
get /movies/_search?q=title:(Beautiful AND Mind)

"profile":"true"



# title里边包含beautiful必须没有mind
# "description" : "title:beautiful -title:mind"
get /movies/_search?q=title:(Beautiful NOT Mind)

"profile":"true"



# title里包含beautiful ,必须也包含mind
# "description" : "title:beautiful +title:mind"
get /movies/_search?q=title:(Beautiful%2BMind)

"profile":"true"

范围查询、通配符查询、模糊匹配
# year年份大于1996的电影
# 注意一下[] 为闭区间为开区间
# "description" : "year:[1997 TO 9223372036854775807]"
get /movies/_search?q=year:> 1996

"profile":"true"


# title 中存在b的数据
# "description" : "title:b*"
get /movies/_search?q=title:b*

"profile":"true"


# 对于模糊匹配还是非常有必要的,因为会存在一起用户会输错单词,我们就可以给做近似度匹配
# "description" : "(title:beautiful)^0.875"
get /movies/_search?q=title:beautifl~1

"profile":"true"

七、Request Body Search在日常开发过程中,最经常用的还是在Request Body中做,接下来跟着咔咔的实例一点点走
正常查询
sort :需要排序的字段
source:查那些字段
from:页数
size:每页数量
post movies/_search

"profile":"true",
"sort":["year":"desc"],
"_source":["year"],
"from":0,
"size":2,
"query":
"match_all":


脚本字段
这个应用场景跟咔咔近期做的外币功能是非吻合,每笔合同都有自己不同的汇率,要算出这笔合同金额是多少
post /movies/_search

"script_fields":
"new_field":
"script":
"lang":"painless",
"source":"doc[year].value+年"


,
"query":
"match_all":


这个案例就是把当前数据的year 拼上 “年” 组成的新字段然后返回,返回结果如下

"_index" : "movies",
"_type" : "_doc",
"_id" : "3844",
"_score" : 1.0,
"fields" :
"new_field" : [
"1989年"
]


从上面的结果可以看到只返回了脚本字段,没有返回原始字段,那如何让原始字段也跟着一起返回呢?
只需要在request body中加上??_source??即可,当然也可以查询指定字段??"_source":["id","title"]??
post /movies/_search

"_source":"*",
"script_fields":
"new_field":
"script":
"lang":"painless",
"source":"doc[year].value+年"


,
"query":
"match_all":


查看返回结果

"_index" : "movies",
"_type" : "_doc",
"_id" : "3843",
"_score" : 1.0,
"_source" :
"year" : 1983,
"@version" : "1",
"genre" : [
"Horror"
],
"id" : "3843",
"title" : "Sleepaway Camp"
,
"fields" :
"new_field" : [
"1983年"
]


查询表达式Match
# title中包含sleepaway 或者 camp 即可
# 可以看到跟 url 的get /movies/_search?q=title:(Beautiful Mind) 分组查询返回结果是一致的
# "description" : "title:sleepaway title:camp"
get /movies/_doc/_search

"query":
"match":
"title":"Sleepaway Camp"

,
"profile":"true"


# title中必须包含sleepaway 和 camp并且顺序不能乱
# 可以看到跟 url 的get /movies/_search?q=title:(Beautiful AND Mind)是一致的
# "description" : "+title:sleepaway +title:camp"
get /movies/_doc/_search

"query":
"match":
"title":
"query":"Sleepaway Camp",
"operator":"AND"


,
"profile":"true"


# title 中查询Sleepaway 和 Camp中间可以有一个任意值插入
# get /movies/_search?q=title:beautifl~1
# "description" : """title:"sleepaway camp"~1"""
get /movies/_doc/_search

"query":
"match_phrase":
"title":
"query":"Sleepaway Camp",
"slop":1


,
"profile":"true"

八、 Query String 和 Simple Query String
# Query String 中可以使用and跟url 的query string一样
# title 中必须存在sleepaway 和 camp 即可
# 跟url的 get /movies/_search?q=title:(Beautiful Mind) 一致
# "description" : "+title:sleepaway +title:camp"
post /movies/_search

"query":
"query_string":
"default_field":"title",
"query":"Sleepaway AND Camp"

,
"profile":"true"


# simple_query_string 不支持and的使用,可以看到是把and当做一个词来进行查询
# title 中存在sleepaway 或 camp 即可
# "description" : "title:sleepaway title:and title:camp"
post /movies/_search

"query":
"simple_query_string":
"query": "Sleepaway AND Camp",
"fields": ["title"]

,
"profile":"true"


# 如果想让simple_query_string 执行布尔操作,则需要给加上default_operator
# title中必须存在sleepaway 和 camp 即可
# "description" : "+title:sleepaway +title:camp"
post /movies/_search

"query":
"simple_query_string":
"query": "Sleepaway Camp",
"fields": ["title"],
"default_operator": "AND"

,
"profile":"true"

九、Mapping和常见字段类型什么是Mapping
Mapping类似于数据库中的schema,主要包括定义索引的字段名称,定义字段的数据类型,配置倒排索引设置
什么是Dynamic Mapping
Mapping有一个属性为dynamic,其定义了如何处理新增文档中包含的新增字段,其有三个值可选默认为true
true:一旦有新增字段的文档写入,Mapping也同时被更新
false:Mapping不会被更新并且新增的字段也不会被索引,但是信息会出现在_source中
strict:文档写入失败
常见类型


Json类型
ElasticSearch类型
字符串
日期格式为data、浮点数为float、整数为long、设置为text并且增加keyword子字段
布尔值
boolean
浮点数
float
整数
long
对象
object
数组
取第一个非空数值的类型所定
控制
忽略
put kaka/_doc/1

"text":"kaka",
"int":10,
"boole_text":"false",
"boole":true,
"float_text":"1.234",
"float":1.234,
"loginData":"2005-11-24T22:20"


# 获取索引kaka的mapping
get kaka/_mapping

【初学者都能学会的ElasticSearch入门实战】返回结果,从结果中可得知如果是false或者true在引号里边就是text类型需要注意这一点就行

"kaka" :
"mappings" :
"properties" :
"boole" :
"type" : "boolean"
,
"boole_text" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",
"ignore_above" : 256


,
"float" :
"type" : "float"
,
"float_text" :
"type" : "text",
"fields" :
"keyword" :
"type" : "keyword",

    推荐阅读