当前位置: 首页 > news >正文

招投标网站的建设制作贵阳做网站哪家好

招投标网站的建设制作,贵阳做网站哪家好,wordpress导航栏怎么设置,网站优秀设计方案SparkSQL与Hive交互一、内嵌Hive应用二、外部Hive应用三、运行Spark SQL CLI四、IDEA操作外部HiveSparkSQL可以采用内嵌Hive#xff0c;也可以采用外部Hive。企业开发中#xff0c;通常采用外部Hive。 一、内嵌Hive应用 内嵌Hive#xff0c;元数据存储在Derby数据库。 也可以采用外部Hive。企业开发中通常采用外部Hive。 一、内嵌Hive应用 内嵌Hive元数据存储在Derby数据库。 1如果使用Spark内嵌的Hive则什么都不用做直接使用即可。 [rootbigdata111 spark-local]$ bin/spark-shellscala spark.sql(show tables).show注意执行完后发现多了$SPARK_HOME/metastore_db和derby.log用于存储元数据 2创建一个表 scala spark.sql(create table user(id int, name string))注意执行完后发现多了$SPARK_HOME/spark-warehouse/user用于存储数据库数据 3查看数据库 scala spark.sql(show tables).show4向表中插入数据 scala spark.sql(insert into user values(1,wgh))5查询数据 scala spark.sql(select * from user).show注意然而在实际使用中几乎没有任何人会使用内置的Hive因为元数据存储在derby数据库不支持多客户端访问。 二、外部Hive应用 如果Spark要接管Hive外部已经部署好的Hive需要通过以下几个步骤 0为了说明内嵌Hive和外部Hive区别删除内嵌Hive的metastore_db和spark-warehouse [rootbigdata111 spark-local]$ rm -rf metastore_db/ spark-warehouse/1确定原有Hive是正常工作的 [rootbigdata111 hadoop-3.1.3]$ sbin/start-dfs.sh [rootbigdata111 hadoop-3.1.3]$ sbin/start-yarn.sh[rootbigdata111 hive]$ bin/hive2需要把hive-site.xml拷贝到spark的conf/目录下 [rootbigdata111 conf]$ cp hive-site.xml /opt/module/spark-local/conf/3如果以前hive-site.xml文件中配置过Tez相关信息注释掉不是必须 4把MySQL的驱动copy到Spark的jars/目录下 [rootbigdata111 software]$ cp mysql-connector-java-5.1.48.jar /opt/module/spark-local/jars/5需要提前启动hive服务/opt/module/hive/bin/hiveservices.sh start不是必须 6如果访问不到HDFS则需把core-site.xml和hdfs-site.xml拷贝到conf/目录不是必须 7启动 spark-shell [rootbigdata111 spark-local]$ bin/spark-shell8查询表 scala spark.sql(show tables).show9创建一个表 scala spark.sql(create table student(id int, name string))10向表中插入数据 scala spark.sql(insert into student values(1,wgh))11查询数据 scala spark.sql(select * from student).show三、运行Spark SQL CLI Spark SQL CLI可以很方便的在本地运行Hive元数据服务以及从命令行执行查询任务。在Spark目录下执行如下命令启动Spark SQL CLI直接执行SQL语句类似Hive窗口。 [rootbigdata111 spark-local]$ bin/spark-sqlspark-sql (default) show tables;四、IDEA操作外部Hive 1在pom中添加依赖 dependenciesdependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.12/artifactIdversion3.0.0/version/dependencydependencygroupIdmysql/groupIdartifactIdmysql-connector-java/artifactIdversion5.1.27/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-hive_2.12/artifactIdversion3.0.0/version/dependency /dependencies2拷贝hive-site.xml到resources目录如果需要操作Hadoop需要拷贝hdfs-site.xml、core-site.xml、yarn-site.xml 3代码实现 package com.wghu.sparksqlimport org.apache.spark.SparkConf import org.apache.spark.sql.SparkSession/*** User: WGH* Date:2023-03-08** idea写代码连接外部hive* 1.导入pom依赖spark-sql mysql连接驱动spark-hive* 2.将hive-site.xml放入到项目的类路径下* 3.代码里面获取外部hive的支持在创建sparkSession对象是加入.enableHiveSupport()*/object SparkSQL12_Hive {def main(args: Array[String]): Unit {System.setProperty(HADOOP_USER_NAME,root)//1.创建配置对象val conf : SparkConf new SparkConf().setAppName(SparkSQLTest).setMaster(local[*])//2.创建sparkSession对象val spark: SparkSession SparkSession.builder().config(conf).enableHiveSupport().getOrCreate()//3.编写代码//连接hivespark.sql(show tables).show()spark.sql(create table bbb(id int,name string)).show()spark.sql(insert into bbb values(1,wgh)).show()spark.sql(select * from bbb).show()//4.关闭scspark.stop()}}
http://www.w-s-a.com/news/594683/

相关文章:

  • 鹿泉专业网站建设做网站为什么要建站点
  • 加强网站建设和维护工作新闻大全
  • 红鱼洞水库建设管理局网站左右左布局网站建设
  • 手机网站建设地址做网站公
  • 贵州建设厅网站首页网络公司除了做网站
  • 运动鞋建设网站前的市场分析wordpress 搜索框代码
  • app开发网站开发教程平台网站开发的税率
  • 百度网站优化排名加强服务保障满足群众急需i
  • 宁夏建设职业技术学院网站安徽网站优化建设
  • 四川关于工程建设网站硬盘做网站空间
  • 桂林网站制作培训学校外包seo公司
  • 莱州网站建设方案北京装修公司口碑
  • 大型网站建设济南兴田德润团队怎么样韩国女足出线了吗
  • 南通做网站找谁重庆网络推广网站推广
  • ps网站主页按钮怎么做怎样做网站的用户分析
  • 哪个网站做黑色星期五订酒店活动公司网络营销推广软件
  • 岳阳新网网站建设有限公司网页设计基础考试题目
  • 辽宁响应式网站费用海外平台有哪些
  • 杨凌规划建设局网站网站后台建设怎么进入
  • 有赞商城网站建设企业管理咨询是做什么的
  • 提供衡水网站建设中国石化工程建设有限公司邮政编码
  • 大芬地铁站附近做网站工业设计公司报价
  • 建设网站最强永年网站建设
  • 网站分站代理加盟wordpress国内工作室主题
  • 东营远见网站建设公司服装网站建设内容
  • 互助平台网站建设费用百度seo优化怎么做
  • lol英雄介绍网站模板工商局网上注册
  • 电商网站运营策划什么样的网站容易做seo
  • 网站备案需要什么流程怎么创建小程序卖东西
  • 陇西网站建设 室内设计持啊传媒企业推广