当前位置: 首页 > news >正文

中国各大网站排名主流网站模板

中国各大网站排名,主流网站模板,灯饰网站源码,网站建设几大类型一、安装JDK8 【温馨提示】对应后面安装的hadoop和hive版本#xff0c;这里使用jdk8#xff0c;这里不要用其他jdk了#xff0c;可能会出现一些其他问题。 1#xff09;JDK下载地址 Java Downloads | Oracle 按正常下载是需要先登录的#xff0c;这里提供一个不用登录下载… 一、安装JDK8 【温馨提示】对应后面安装的hadoop和hive版本这里使用jdk8这里不要用其他jdk了可能会出现一些其他问题。 1JDK下载地址 Java Downloads | Oracle 按正常下载是需要先登录的这里提供一个不用登录下载的方法 复制的连接如下https://www.oracle.com/webapps/redirect/signon?nexturlhttps://download.oracle.com/otn/java/jdk/8u321-b07/df5ad55fdd604472a86a45a217032c7d/jdk-8u321-windows-x64.exe 获取下载地址使用复制的连接后半部分将otn换成otn-pub就可以直接下载了 https://download.oracle.com/otn-pub/java/jdk/8u321-b07/df5ad55fdd604472a86a45a217032c7d/jdk-8u321-windows-x64.exe 下载完后就是傻瓜式安装了 2设置环境变量 3验证 $ java -version 二、Hadoop安装window10环境 1下载Hadoop3.1.3 官网下载https://hadoop.apache.org/release/3.1.3.html 下载各种版本地址入口Apache Hadoop 下载地址https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz 下载后安装到哪里解压到哪里安装路径不要有空格和中文 2Hadoop配置环境变量 HADOOP_HOME 注意 如果 jdk 默认安装C:\Program Files\Java\则需要修改 %HADOOP_HOME%/etc/hadoop/hadoop-env.cmd 文件 例如     将    set JAVA_HOMEC:\Program Files\Java\jdk1.8.0_191     改为 set JAVA_HOMEC:\PROGRA~1\Java\jdk1.8.0_191 或者直接改环境变量JAVA_HOME 从C:\Program Files\Java\ 改成C:\PROGRA~1\Java\ 验证 $ hadoop --version 3在hadoop解压目录下创建相关目录 创建data和tmp目录 在data文件夹下面再创建namenode和datanode目录 4修改Hadoop配置文件 配置文件目录$HADOOP_HOME\etc\hadoop 1、core-site.xml文件添加以下配置 configurationpropertynamefs.defaultFS/namevaluehdfs://localhost:9000/value/property   /configuration 2、hdfs-site.xml文件添加以下配置路径改成自己的安装路径 configurationpropertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/name value/D:/bigdata/hadoop/hadoop-3.1.3/data/namenode/value /propertypropertynamedfs.datanode.data.dir/name value/D:/bigdata/hadoop/hadoop-3.1.3/data/datanode/value /property /configuration3、mapred-site.xml文件添加以下配置 configurationpropertynamemapreduce.framework.name/namevalueyarn/value/property /configuration 4、yarn-site.xml文件添加以下配置 configuration !-- Site specific YARN configuration properties --propertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.aux-services.mapreduce.shuffle.class/namevalueorg.apache.hadoop.mapred.ShuffleHandler/value/propertypropertynameyarn.nodemanager.resource.memory-mb/namevalue1024/value/propertypropertynameyarn.nodemanager.resource.cpu-vcores/namevalue1/value/property/configuration 5替换文件 1、替换bin目录下文件winutils 打开winutils文件把里面的bin文件复制到hadoop的安装路径替换掉原来的bin文件替换过程如下 下载apache-hadoop-3.1.0-winutils 也可以去GitHub上下载其它对应版本 2、按照路径找到图中该文件 把它复制到上一级目录即 6格式化节点 $ hdfs namenode -format 7运行 【温馨提示】回到hadoop安装bin目录下右击以管理员的身份运行start-all.cmd文件要不然会报权限问题 出现下面四个窗口就是 成功了注意每个窗口标题的后面的名称比如yarn nodemanager,如果没有出现则是失败 8验证 hdfs web 地址http://localhost:9870/ yarn web 地址http://localhost:8088/ 到此为止window版本的hadoop就安装成功了   三、Hive安装window10环境 1下载Hive 各版本下载地址Index of /dist/hive 这选择最新版本 hive 3.1.2版本下载地址http://archive.apache.org/dist/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz 2Hive配置环境变量 3新建本地目录后面配置文件会用到 4在hadoop上创建hdfs目录后面配置文件会用到 $ hadoop fs -mkdir /tmp $ hadoop fs -mkdir /user/ $ hadoop fs -mkdir /user/hive/ $ hadoop fs -mkdir /user/hive/warehouse $ hadoop fs -chmod gw /tmp $ hadoop fs -chmod gw /user/hive/warehouse5修改Hive 配置文件 配置文件目录hive\apache-hive-3.1.2-bin\conf中4个默认的配置文件模板拷贝成新的文件名 hive-default.xml.template ----- hive-site.xml hive-env.sh.template ----- hive-env.sh hive-exec-log4j.properties.template ----- hive-exec-log4j2.properties hive-log4j.properties.template ----- hive-log4j2.properties 1、hive-site.xml 文件配置文件内容如下 ?xml version1.0 encodingUTF-8 standaloneno? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl?configuration!--hive的临时数据目录指定的位置在hdfs上的目录--propertynamehive.metastore.warehouse.dir/namevalue/user/hive/warehouse/valuedescriptionlocation of default database for the warehouse/description/property!--hive的临时数据目录指定的位置在hdfs上的目录--propertynamehive.exec.scratchdir/namevalue/tmp/hive/valuedescriptionHDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/lt;usernamegt; is created, with ${hive.scratch.dir.permission}./description/property!-- scratchdir 本地目录 --propertynamehive.exec.local.scratchdir/namevalueF:/bigdata/apache-hive/my_hive/scratch_dir/valuedescriptionLocal scratch space for Hive jobs/description/property!-- resources_dir 本地目录 --propertynamehive.downloaded.resources.dir/namevalueF:/bigdata/apache-hive/my_hive/resources_dir/${hive.session.id}_resources/valuedescriptionTemporary local directory for added resources in the remote file system./description/property!-- querylog 本地目录 --propertynamehive.querylog.location/namevalueF:/bigdata/apache-hive/my_hive/querylog_dir/valuedescriptionLocation of Hive run time structured log file/description/property!-- operation_logs 本地目录 --propertynamehive.server2.logging.operation.log.location/namevalueF:/bigdata/apache-hive/my_hive/operation_logs_dir/valuedescriptionTop level directory where operation logs are stored if logging functionality is enabled/description/property!-- 数据库连接地址配置 --propertynamejavax.jdo.option.ConnectionURL/namevaluejdbc:mysql://localhost:3306/hive?serverTimezoneUTCamp;useSSLfalseamp;allowPublicKeyRetrievaltrue/valuedescriptionJDBC connect string for a JDBC metastore./description/property!-- 数据库驱动配置 --propertynamejavax.jdo.option.ConnectionDriverName/namevaluecom.mysql.cj.jdbc.Driver/valuedescriptionDriver class name for a JDBC metastore/description/property!-- 数据库用户名 --propertynamejavax.jdo.option.ConnectionUserName/namevalueroot/valuedescriptionUsername to use against metastore database/description/property!-- 数据库访问密码 --propertynamejavax.jdo.option.ConnectionPassword/namevalueroot/valuedescriptionpassword to use against metastore database/description/property!-- 解决 Caused by: MetaException(message:Version information not found in metastore. ) --propertynamehive.metastore.schema.verification/namevaluefalse/valuedescriptionEnforce metastore schema version consistency.True: Verify that version information stored in is compatible with one from Hive jars. Also disable automaticschema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensuresproper metastore schema migration. (Default)False: Warn if the version information stored in metastore doesnt match with one from in Hive jars./description/property!-- 自动创建全部 -- !-- hive Required table missing : DBS in CatalogSchema 错误 --propertynamedatanucleus.schema.autoCreateAll/namevaluetrue/valuedescriptionAuto creates necessary schema on a startup if one doesnt exist. Set this to false, after creating it once.To enable auto create also set hive.metastore.schema.verificationfalse. Auto creation is not recommended for production use cases, run schematool command instead./description/property!-- 指定hiveserver2连接的hosthive用户要绑定的网络接口 -- propertynamehive.server2.thrift.bind.host/namevaluelocalhost/valuedescriptionBind host on which to run the HiveServer2 Thrift service./description /property!-- 指定hiveserver2连接的端口号,hs2端口 默认是10000为了区别我这里不使用默认端口-- propertynamehive.server2.thrift.port/namevalue10002/value /propertypropertynamehive.server2.active.passive.ha.enable/namevaluetrue/valuedescriptionWhether HiveServer2 Active/Passive High Availability be enabled when Hive Interactive sessions are enabled.This will also require hive.server2.support.dynamic.service.discovery to be enabled./description /property/configuration2、hive-env.sh 文件配置文件内容如下 # Set HADOOP_HOME to point to a specific hadoop install directory export HADOOP_HOMED:\software\window-hadoop-hive\hadoop\hadoop-3.1.3# Hive Configuration Directory can be controlled by: export HIVE_CONF_DIRD:\software\window-hadoop-hive\hive\apache-hive-3.1.2-bin\conf# Folder containing extra libraries required for hive compilation/execution can be controlled by: export HIVE_AUX_JARS_PATHD:\software\window-hadoop-hive\hive\apache-hive-3.1.2-bin\lib 6替换hvie中的bin目录 【温馨提示】2.2.0版本之后就不提供cmd相关文件了所以得去下载apache-hive-2.2.0-src.tar.gz把这个版本里的bin目录文件替换到hive安装bin目录下。 下载apache-hive-2.2.0-src.tar.gz 7下载mysql-connector-java-*.jar 这里将mysql-connector-java-*.jar拷贝到hvie安装目录lib下 下载地址https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.28/mysql-connector-java-8.0.28.jar 8创建Hive 初始化依赖的数据库hive,注意编码格式latin1 在  mysql 数据库中创建 hive 数据库名称就是 hive编码 latin1 9Hive 初始化数据 默认已经安装mysql8.0见下面mysql安装 # 在hive的bin目录下执行 $ hive --service schematool -dbType mysql -initSchema 10启动Hive 服务 1、首先启动Hadoop 在hyadoop安装目录 sbin 下执行指令stall-all.cmd上面其实已经验证过了启动是没问题的。 2、再启动Hive 服务 默认已经安装mysql8.0见下面mysql安装 $ hive --service metastore 3、验证 另起一个cmd窗口验证 $ hive create databases test; show databases; 11配置beeline 1、添加beeline配置 【温馨提示】hive命令会慢慢不再使用了以后就用beeline 在Hive服务安装目录的%HIVE_HOME%\conf\hive-site.xml配置文件中添加以下配置 关于 beeline配置 前面已经配置下面主要是为了让大家更清楚。 注意HiveServer2端口 默认是10000为了区别和不冲突我这里不使用默认端口使用10013 不要使用 10002这端口是HiveServer2的web UI的端口否则会报如下端口冲突问题。 !-- host -- propertynamehive.server2.thrift.bind.host/namevaluelocalhost/valuedescriptionBind host on which to run the HiveServer2 Thrift service./description /property!-- hs2端口 默认是10000为了区别和不冲突我这里不使用默认端口使用10013不要使用 10002这端口是HiveServer2的web UI的端口 -- propertynamehive.server2.thrift.port/namevalue10013/value /property 在Hadoop服务安装目录的%HADOOP_HOME%\etc\hadoop\core-site.xml配置文件中添加以下配置 propertynamehadoop.proxyuser.29209.hosts/namevalue*/value /property propertynamehadoop.proxyuser.29209.groups/namevalue*/value /property 【注意】hadoop.proxyuser.29209.hosts和hadoop.proxyuser.29209.hosts其中29209是连接beeline的用户将29209替换成自己的用户名即可其实这里的用户就是我本机的用户也是上面创建文件夹的用户这个用户是什么不重要它就是个超级代理。 2、启动hiveserver2 启动hiveserver2 之前必须重启hive服务 $ hive --service metastore $ hive --service hiveserver2 【问题】java.lang.NoClassDefFoundError: org/apache/tez/dag/api/SessionNotRunning 【解决】在hive 配置文件hive-site.xml添加如下配置 propertynamehive.server2.active.passive.ha.enable/namevaluetrue/valuedescriptionWhether HiveServer2 Active/Passive High Availability be enabled when Hive Interactive sessions are enabled.This will also require hive.server2.support.dynamic.service.discovery to be enabled./description /property 重启hiveserver2 $ hive --service metastore $ hive --service hiveserver2 HiveServer2 webhttp://localhost:10002/ 3、beeline客户端登录 $ beeline 【问题一】Exception in thread main java.lang.NoClassDefFoundError: org/apache/hive/jdbc/JdbcUriParseException 【解决】Hadoop缺少hive-jdbc-***.jar,将Hive安装目录下的lib文件夹中的hive-jdbc-3.1.2.jar包复制到Hadoop安装目录\share\hadoop\common\lib下 【问题二】Exception in thread main java.lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf 【解决】Hive安装目录下将hive-common-3.1.2.jar复制到Hadoop安装目录的\share\hadoop\common\lib下 $ beeline !connect jdbc:hive2://localhost:10001 29209 # 下面这句跟上面等价都可以登录 $ %HIVE_HOME%\bin\beeline.cmd -u jdbc:hive2://localhost:10001 -n 29209【问题三】Exception in thread main java.lang.NoClassDefFoundError: org/apache/hive/service/cli/HiveSQLException。 【解决】把Hive安装目录下将hive-service-3.1.2.jar复制到Hadoop安装目录的\share\hadoop\common\lib下。 再重启登录 $ hive --service metastore $ hive --service hiveserver2 # %HIVE_HOME%\bin\beeline.cmd -u jdbc:hive2://localhost:10001 -n hadoop超级用户名 # hadoop超级用户名: hdfs中core-site.xml配置的 29209 如下图 $ %HIVE_HOME%\bin\beeline.cmd -u jdbc:hive2://localhost:10001 -n 29209正常登录一切OK。 安装mysql8.x 上述的 hive初始化是在 mysql安装完成后实现的。 1、下载mysql 官网下载MySQL :: Download MySQL Community Server 2、配置mysql环境变量 3、初始化mysql 【温馨提示】右键以管理员身份运行cmd否则在安装时会报权限的错会导致安装失败的情况。 # 切换到mysql bin目录下执行 # cd D:\software\window-hadoop-hive\mysql\mysql-8.0.28-winx64\bin # d: $ mysqld --initialize --console4、安装mysql服务 $ mysqld --install mysql 5、通过命令启动服务 $ net start mysql 6、通过mysql客户端登录验证并修改root密码 $ mysql -uroot -p #输入上面初始化的密码 8、重置mysql root密码命令行都要以管理员运行 停止mysql服务 $ net stop mysql 启动MySQL服务的时候跳过权限表认证 $ mysqld --console --skip-grant-tables --shared-memory 在新开的命令行中执行mysql 【温馨提示】由于上面的命令行被mysql的服务给占用我们得重新开启一个新的命令行 $ mysql 将root用户的密码清空 $ update user set authentication_string  where userroot ;     quit 退出然后在之前的命令行将我们开启的mysql服务停止掉CtrlC或者关闭命令行然后执行net start mysql 重新启动mysql服务 $ net  start mysql 在我们之后开启的命令行中输入mysql -uroot -p 然后按enter键输入密码继续按enter键这里密码已经被清空 $ mysql -uroot -p 修改密码 ALTER USER rootlocalhost IDENTIFIED BY 123456; FLUSH PRIVILEGES; 【问题】如果mysql工具出现错误 Authentication plugin caching_sha2_password cannot be loaded 【原因】 很多用户在使用Navicat Premium 12连接MySQL数据库时会出现Authentication plugin ‘caching_sha2_password’ cannot be loaded的错误。 出现这个原因是mysql8 之前的版本中加密规则是mysql_native_password,而在mysql8之后,加密规则是caching_sha2_password, 解决问题方法有两种,一种是升级navicat驱动,一种是把mysql用户登录密码加密规则还原成mysql_native_password. 【解决】 # 管理员权限运行命令 ALTER USER rootlocalhost IDENTIFIED BY 123456; ALTER USER rootlocalhost IDENTIFIED WITH mysql_native_password BY 123456; FLUSH PRIVILEGES; 退出后使用新密码登录 $ mysql -uroot -p
http://www.w-s-a.com/news/165946/

相关文章:

  • 市级部门网站建设自评报告网站优化文章怎么做
  • 可不可以异地建设网站学做网站培训班要多少钱
  • 茌平网站建设公司免费的云服务器有哪些
  • 手机网站单页面铜陵网站制作公司
  • 网站logo怎么做才清晰千库网官网首页登录
  • 山西省建设银行网站首页长沙网站建设制作
  • 襄阳市做网站 优帮云百度搜索次数统计
  • 自己做视频直播网站盐城做网站多少钱
  • 买个网站服务器多少钱重庆做的好的房产网站
  • 深圳定制建站网站建设推广关键词怎么设置
  • 宝山网站建设 网站外包修改wordpress版权
  • 建立网站的基本步骤新网站多久会被百度收录
  • 软件设计开发流程图廊坊关键词seo排名方案
  • 南山住房和建设局网站网站被k 多久恢复
  • 阿里买域名 电脑做网站做简历哪个网站好
  • 个人网站免费服务器单页网站的域名
  • 网站设计简单讲解小店怎么做网站
  • 校园网站的意义wordpress去除更新
  • 网站开发用python吗常用的网页开发工具有哪些
  • 北京市住房建设投资建设网站做商城网站要哪些流程
  • seo网站改版杭州建设局官网
  • 物流网站建设策划书泰然建设网站
  • 百度做网站的费用采集发布wordpress
  • 网站运维公司有哪些防录屏网站怎么做
  • 昆明做网站seo的网站制作专业
  • 聊城制作手机网站公司wordpress 头条
  • 商城微网站模板一般电商网站做集群
  • winserver2008上用iis发布网站嵊州网站制作
  • 网站内页权重怎么查辽宁建设工程信息网怎么上传业绩
  • 丰都网站建设价格镇江网站制作费用