cms网站开发价格,wordpress与saas,郑州58同城,怎样做网络推广教学设计ElasticSearch安装与启动
【服务端安装】
1.1、下载ES压缩包
目前ElasticSearch最新的版本是7.6.2#xff08;截止2020.4.1#xff09;#xff0c;我们选择6.8.1版本#xff0c;建议使用JDK1.8及以上。 ElasticSearch分为Linux和Window版本#xff0c;基于我们主要学习…ElasticSearch安装与启动
【服务端安装】
1.1、下载ES压缩包
目前ElasticSearch最新的版本是7.6.2截止2020.4.1我们选择6.8.1版本建议使用JDK1.8及以上。 ElasticSearch分为Linux和Window版本基于我们主要学习的是ElasticSearch的Java客户端的使用所以我们课程中使用的是安装较为简便的Window版本项目上线后公司的运维人员会安装Linux版的ES供我们连接使用。 ElasticSearch的官方地址https://www.elastic.co/cn/ 下载6.8.1https://www.elastic.co/cn/downloads/past-releases#elasticsearch 1.2、安装ES服务Window版
Window版的ElasticSearch的安装很简单解压开即安装完毕解压后的ElasticSearch的目录结构如下
1.3、启动ES服务
点击ElasticSearch下的bin目录下的elasticsearch.bat启动控制台显示的日志信息如下
注意9300是TCP通讯端口集群间和TCP Client都执行该端口9200是http协议的RESTful接口 。 通过浏览器访问ElasticSearch服务器看到如下返回的json信息代表服务启动成功
注意事项一 ElasticSearch是使用java开发的且本版本的ES需要JDK版本要是1.8以上所以安装ElasticSearch之前保证JDK1.8安装完毕并正确的配置好JDK环境变量否则启动ElasticSearch失败。
注意事项二 出现闪退通过路径访问发现“空间不足” 修改jvm.options文件的22行23行把2改成1让Elasticsearch启动的时候占用1个G的内存。 -Xmx512m设置JVM最大可用内存为512M。 -Xms512m设置JVM初始内存为512m。此值可以设置与-Xmx相同以避免每次垃圾回收完成后JVM重新分配内存。
【客户端安装】
2.1、安装Kibana
1. 什么是Kibana
https://www.elastic.co/cn/products/kibana Kibana是ElasticSearch的数据可视化和实时分析的工具利用ElasticSearch的聚合功能生成各种图表如柱形图线状图饼图等。
2. 下载地址 https://www.elastic.co/cn/downloads/past-releases#kibana
3. 安装配置 kibana-6.8.1-windows-x86_64.zip解压即安装成功
进入安装目录下的config目录的kibana.yml文件 Kibana默认端口5601
Kibana连接elasticsearch服务器的地址elasticsearch.url: [“http://localhost:9200”]
修改kibana配置支持中文i18n.locale: “zh-CN”
4. 运行访问 执行kibana-6.8.1-windows-x86_64\bin\kibana.bat
5. 发现kibana的监听端口是5601 我们访问http://127.0.0.1:5601
2.2、安装Postman
Postman中文版是Postman这款强大网页调试工具的windows客户端提供功能强大的Web API 和 HTTP 请求调试。软件功能强大界面简洁明晰、操作方便快捷设计得很人性化。Postman中文版能够发送任何类型的HTTP 请求 (GET, HEAD, POST, PUT…)不仅能够表单提交且可以附带任意类型请求体。 Postman官网https://www.getpostman.com 安装6.6.1版本
2.3、IK 分词器和ElasticSearch集成使用
1. IK分词器简介
IKAnalyzer是一个开源的基于Java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始IKAnalyzer已经推出 了3个大版本。最初它是以开源项目Lucene为应用主体的结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件独立于Lucene项目同时提供了对Lucene的默认优化实现。 IK分词器3.0的特性如下 1采用了特有的“正向迭代最细粒度切分算法“具有60万字/秒的高速处理能力。 2采用了多子处理器分析模式支持英文字母IP地址、Email、URL、数字日期常用中文数量词罗马数字科学计数法中文词汇姓名、地名处理等分词处理。 3对中英联合支持不是很好,在这方面的处理比较麻烦.需再做一次查询同时是支持个人词条的优化的词典存储更小的内存占用。 4支持用户词典扩展定义。 5针对Lucene全文检索优化的查询分析器IKQueryParser采用歧义分析算法优化查询关键字的搜索排列组合能极大的提高Lucene检索的命中率。
2. IK分词器的安装 1) 下载 GitHub仓库地址https://github.com/medcl/elasticsearch-analysis-ik
2) 解压安装IK插件 直接解压到plugins\ik\目录下注意目录结构解压后的zip不要放在plugins目录下删除掉
3) 重新启动ElasticSearch之后看到如下日志代表安装成功
4) 测试 在kibana中测试 IK分词器有两种分词模式ik_max_word和ik_smart模式。 ik_max_word会将文本做最细粒度的拆分 ik_smart会做最粗粒度的拆分智能拆分
GET _analyze
{analyzer: ik_max_word,text: [我是中国人]
} 请求方式GET 请求urlhttp://127.0.0.1:9200/_analyze 请求体
{analyzer: ik_max_word,text: [我是中国人]
}最细粒度的拆分结果
5) 在postman中测试