网站的引导页怎么做的,酒店为什么做网站,Ul设计网站,菜单设计制作公司一、初识 elasticsearch
1. 了解 ES ① elasticsearch 是一款非常强大的开源 搜索引擎#xff0c;可以帮助我们从海量数据中 快速找到需要的内容 ② elasticsearch 结合 kibana、Logstash、 Beats#xff0c;也就是 elastic stack (ELK)#xff0c;被 广泛应用在日志数据分…一、初识 elasticsearch
1. 了解 ES ① elasticsearch 是一款非常强大的开源 搜索引擎可以帮助我们从海量数据中 快速找到需要的内容 ② elasticsearch 结合 kibana、Logstash、 Beats也就是 elastic stack (ELK)被 广泛应用在日志数据分析、实时监控等 领域 ③ elasticsearch 是elastic stack的核心 负责存储、搜索、分析数据 (2) Lucene 与 elasticsearch 的区别
Lucene 是一个Java语言的搜索引擎类库
Lucene的优势 ① 易扩展 ② 高性能 (基于倒排索引) Lucene的缺点 ① 只限于 Java 语言开发 ② 学习曲线陡峭 ③ 不支持水平扩展 相比于 luceneelasticsearch 具备下列
优势 ① 支持分布式可水平扩展 ② 提供 Restful 接口可被任何语言 调用 2. 倒排索引 传统数据库 (如MySQL) 采用正向索引 局部搜索会在表上逐条数据进行扫描 非常的繁琐 elasticsearch 采用倒排索引 会形成一个新的表由两部分构成进 行两次搜索先搜词条再搜文档 文档 (document)每条数据就是一个文档 词条 (term)文档按照语义分成的词语 倒排索引中包含两部分内容 词条词典 (Term Dictionary)记录所有词条 以及词条与倒排列表 (Posting List) 之间的关 系会给词条创建索引提高查询和插入效 率 倒排列表 (Posting List)记录词条所在的文 档 id、词条出现频率 、词条在文档中的位置 等信息 文档 id用于快速获取文档 词条频率 (TF)文档在词条出现的次数 用于评分 3. es 的一些概念
(1) es 与 mysql 对比 (2) 架构 Mysql擅长事务类型操作可以确保 数据的安全和一致性 Elasticsearch擅长海量数据的搜索、 分析、计算 4. 安装 es、kibana
(1) 部署单点 es
(2) 部署 kibana kibana 可以提供一个 elasticsearch 的可 视化界面 (3) 安装 IK 分词器 1) 分词器的作用 ① 创建倒排索引时对文档分词 ② 用户搜索时对输入的内容分词 2) 默认的分词语法说明
在 kibana 的 DevTools 中测试
POST /_analyze
{analyzer: standard,text: 床前明月光疑是地上霜
}① POST请求方式 ② /_analyze请求路径这里省略了 有 kibana 帮我们补充 ③ 请求参数json风格 analyzer分词器类型这里是默 认的 standard 分词器 text要分词的内容 默认将文字拆除一个字一个字的对中 文分词很不友好所以用 IK 分词器 3) ik 分词器包含两种模式 ik_smart最少切分粗粒度 ik_max_word最细切分细粒度 一般情况下为了提高搜索的效果 需要这两种分词器配合使用既建 索引时用 ik_max_word 尽可能多的 分词而搜索时用 ik_smart 尽可能 提高匹配准度让用户的搜索尽可 能的准确 4) ik 分词器扩展词条
要拓展ik分词器的词库只需要修改一
个 ik 分词器目录中的 config 目录中的
IkAnalyzer.cfg.xml 文件
?xml version1.0 encodingUTF-8?
!DOCTYPE properties SYSTEM http://java.sun.com/dtd/properties.dtd
propertiescommentIK Analyzer 扩展配置/comment!--用户可以在这里配置自己的扩展字典 *** 添加扩展词典--entry keyext_dictext.dic/entry
/properties然后在名为 ext.dic 的文件中添加想要
拓展的词语即可 5) 停用词条
在 stopword.dic 文件中添加想要拓展的
词语即可
?xml version1.0 encodingUTF-8?
!DOCTYPE properties SYSTEM http://java.sun.com/dtd/properties.dtd
propertiescommentIK Analyzer 扩展配置/comment!--用户可以在这里配置自己的扩展字典--entry keyext_dictext.dic/entry!--用户可以在这里配置自己的扩展停止词字典 *** 添加停用词词典--entry keyext_stopwordsstopword.dic/entry
/properties(4) 部署 es 集群
直接使用 docker-compose 来完成 二、索引库操作
1. mapping 映射属性
(1) mapping 是对索引库中文档的约束常 见的 mapping 属性包括
① type字段数据类型常见的简单类型有 字符串text (可分词的文本)、keyword (精确值例如品牌、国家、ip 地址) 数值long、integer、short、byte、 double、float 布尔boolean 日期date 对象object ② index是否创建索引默认为 true
③ analyzer使用哪种分词器
④ properties该字段的子字段 2. 索引库的 CRUD
(1) 创建索引库 ES 中通过 Restful 请求操作索引库、 文档请求内容用 DSL 语句来表示 创建索引库和 mapping 的 DSL 语法如下
PUT /索引库名称
PUT /索引库名称
{mappings: {properties: {字段名:{type: text,analyzer: ik_smart},字段名2:{type: keyword,index: false},字段名3:{properties: {子字段: {type: keyword}}},// ...略}}
}(2) 查看索引库
GET /索引库名
(3) 修改索引库
索引库和 mapping 一旦创建无法修改
但是可以添加新的字段语法如下
PUT /索引库名/_mapping
PUT /索引库名/_mapping
{properties: {新字段名:{type: integer}}
}(4) 删除索引库
DELETE /索引库名 三、文档操作
1. 新增文档
POST /索引库名/_doc/文档id
POST /索引库名/_doc/文档id
{字段1: 值1,字段2: 值2,字段3: {子属性1: 值3,子属性2: 值4},// ...
}2. 查询文档
GET /索引库名/_doc/文档id
3. 删除文档
DELETE /索引库名/_doc/文档id
4. 修改文档
(1) 全量修改
删除旧文档添加新文档
本质是根据指定的 id 删除文档新增 一个相同 id 的文档
PUT /{索引库名}/_doc/文档id
{字段1: 值1,字段2: 值2,// ... 略
}(2) 增量修改
修改指定字段值
POST /{索引库名}/_update/文档id
{doc: {字段名: 新的值,}
}5. Dynamic Mapping 我们向 ES 中插入文档时如果文档中 字段没有对应的 mappingES 会帮助 我们字段设置 mapping JSON类型Elasticsearch类型字符串 ① 日期格式字符串mapping 为 date 类型 ② 普通字符串mapping 为 text 类型并添加 keyword 类型子字段 布尔值boolean浮点数float整数long对象嵌套object并添加 properties数组由数组中的第一个非空类型决定空值忽略 四、RestClient 操作索引库 RESTClient 是一款用于测试各种 Web 服务的插件它可以向服务器发送各种 HTTP请求(用户也可以自定义请求方式) 并显示服务器响应 本质就是组装 DSL 语句通过 http请求 发送给 ES 1. 创建索引库
(1) 导入数据库
(2) 分析数据结构
mapping 要考虑的问题 字段名、数据类型、是否参与搜索、是 否分词如果分词分词器是什么 (3) 初始化 JavaRestClient
① 引入依赖
dependencygroupIdorg.elasticsearch.client/groupIdartifactIdelasticsearch-rest-high-level-client/artifactId
/dependencypropertiesjava.version1.8/java.versionelasticsearch.version7.12.1/elasticsearch.version
/properties② 初始化
RestHighLevelClient client new RestHighLevelClient(RestClient.builder(HttpHost.create(http://192.168.150.101:9200)
));(4) 创建索引库代码
Testvoid testCreateHotelIndex() throws IOException {// 1.创建Request对象CreateIndexRequest request new CreateIndexRequest(hotel);// 2.请求参数MAPPING_TEMPLATE是静态常量字符串内容是创建索引库的DSL语句 request.source(MAPPING_TEMPLATE, XContentType.JSON);// 3.发起请求, indices 返回的对象中包含索引库操作的所有方法client.indices().create(request, RequestOptions.DEFAULT);
}2. 删除索引库代码
Test
void testDeleteHotelIndex() throws IOException {// 1.创建Request对象DeleteIndexRequest request new DeleteIndexRequest(hotel);// 2.发起请求client.indices().delete(request, RequestOptions.DEFAULT);
}3. 判断索引库是否存在
Test
void testExistsHotelIndex() throws IOException {// 1.创建Request对象GetIndexRequest request new GetIndexRequest(hotel);// 2.发起请求 boolean exists client.indices().exists(request, RequestOptions.DEFAULT);// 3.输出System.out.println(exists);
}五、RestClient 操作文档
1. 初始化
public class ElasticsearchDocumentTest { // 客户端private RestHighLevelClient client;BeforeEachvoid setUp() {client new RestHighLevelClient(RestClient.builder( HttpHost.create(http://192.168.150.101:9200)));}AfterEachvoid tearDown() throws IOException {client.close();}
}2. 新增文档
Test
void testIndexDocument() throws IOException {// 1.创建request对象IndexRequest request new IndexRequest(indexName).id(1);// 2.准备JSON文档request.source({\name\: \Jack\, \age\: 21}, XContentType.JSON);// 3.发送请求client.index(request, RequestOptions.DEFAULT);
}3. 查询文档
Test
void testGetDocumentById() throws IOException {// 1.创建request对象GetRequest request new GetRequest(indexName, 1);// 2.发送请求得到结果GetResponse response client.get(request, RequestOptions.DEFAULT);// 3.解析结果String json response.getSourceAsString();System.out.println(json);
}4. 修改文档
Test
void testUpdateDocumentById() throws IOException {// 1.创建request对象UpdateRequest request new UpdateRequest(indexName, 1);// 2.准备参数每2个参数为一对 key valuerequest.doc(age, 18,name, Rose);// 3.更新文档client.update(request, RequestOptions.DEFAULT);
}5. 删除文档
Test
void testDeleteDocumentById() throws IOException {// 1.创建request对象DeleteRequest request new DeleteRequest(indexName, 1);// 2.删除文档 client.delete(request, RequestOptions.DEFAULT);
}6. 批量导入文档
Test
void testBulk() throws IOException {// 1.创建Bulk请求BulkRequest request new BulkRequest();// 2.添加要批量提交的请求这里添加了两个新增文档的请求request.add(new IndexRequest(hotel).id(101).source(json source, XContentType.JSON));request.add(new IndexRequest(hotel).id(102).source(json source2, XContentType.JSON));// 3.发起bulk请求client.bulk(request, RequestOptions.DEFAULT);
}