当前位置: 首页 > news >正文

骆诗网站建设郑州低价网站制作

骆诗网站建设,郑州低价网站制作,宁波模板做网站,企业外部网站建设接上次分享的Hive调优技巧系列一#xff1a; 数据倾斜、HiveJob优化 第1章 数据倾斜#xff08;重点#xff09; 绝大部分任务都很快完成#xff0c;只有一个或者少数几个任务执行的很慢甚至最终执行失败#xff0c;这样的现象为数据倾斜现象。 一定要和数据过量导致的… 接上次分享的Hive调优技巧系列一 数据倾斜、HiveJob优化 第1章 数据倾斜重点 绝大部分任务都很快完成只有一个或者少数几个任务执行的很慢甚至最终执行失败这样的现象为数据倾斜现象。 一定要和数据过量导致的现象区分开数据过量的表现为所有任务都执行的很慢这个时候只有提高执行资源才可以优化HQL的执行效率。 综合来看导致数据倾斜的原因在于按照Key分组以后少量的任务负责绝大部分数据的计算也就是说产生数据倾斜的HQL中一定存在分组操作那么从HQL的角度我们可以将数据倾斜分为单表携带了GroupBy字段的查询和两表或者多表Join的查询。 1.1 Map倾斜 Map 端是 MR 任务的起始阶段 Map 端的主要功能是从磁盘中将数据读人内存Map 端读数据时由于读人数据的文件大小分布不均匀因此会导致有些 Map Instance 读取并且处理的数据特别 多而有些 MapInstance 处理的数据特别少造成 Map 端长尾。以下两种情况可能会导Map 端长尾 1.上游表文件的大小特别不均匀并且小文件特别多导致当前表Map 端读取的数据分布不均匀引起长尾。 2.Map 端做聚合时由于某些 Map Instance 读取文件的某个值特别多而引起长尾主要是指 Count Distinct 操作。  第一种情况导致的 Map 端长尾可通过对上游合并小文件同时调节本节点的小文件的参数来进行优化即通过设置“ set odps.sql. mapper.merge.limit.size 64 ”和“ set odps .s ql.mapper.s plit.size256个参数来调节其中第一个参数用于调节 Map 任务的 Map Instance个数第二个参数用于调节单个 Map Instance 读取的小文件个数防止由于小文件过多导致 Map Instance 读取的数据量很不均匀两个参数配合调整 第二种情况的处理方式通过“distribute by rand ”会将 Map 端分发后的数据重新按照随机值再进行一次分发。原先不加随机分发函数时 Map 阶段需要与使用MapJoin 的小表进行笛卡儿积操作 Map 端完成了大小表的分发和笛卡儿积操作。使用随机分布函数后 Map 端只负责数据的分发不再有复杂的聚合或者笛卡儿积操作因此不会导致 Map 端长尾。 1.2 Join倾斜 Join 操作需要参与 Map Reduce 的整个阶段。SQL Join 执行阶会将 Join Key 相同的数据分发到同一个执行 Instance 上处理 。如果某个Key 上的数据量比较大则会导致该 Instance 执行时间较长。其表现为在执行日志中该 Join Task 的大部分 Instance 都已执行完成但少数几Instance 一直处于执行中这种现象称之为长尾。 1.Join 的某路输入比较小可以采用 MapJoin 避免分发引起长尾 2.Join 的每路输入都较大且长尾是空值导致的可以将空值处理成随机值避免聚集 3.Join 的每路输入都较大且长尾是热点值导致的可以对热点值和非热点值分别进行处理再合并数据。 1.3 Reduce倾斜 Reduce 端负责的是对 Map 端梳理后的有 key-value 键值对进行聚合即进行 Count Sum Avg 等聚合操作得到最终聚合的结果。Reduce 端产生长尾的主要原因就是 key 的数据分布不均匀。比如有些 Reduce 任务 Instance 处理的数据记录多有些处理的数据记录少造成 Reduce 端长尾 。如下几种情况会造成 Reduce 端长尾 1.对同个表按照维度对不同的列进行 Count Distinct 操作造成Map 端数据膨胀从而使得下游的 Join Reduce 出现链路上的长尾; 2.Map 端直接做聚合时出现 key 值分布不均匀造成 Reduce 端长尾; 3.动态分区数过多时可能造成小文件过多从而引起 Reduce 端长尾; 4.多个 Distinct 同时出现在 SQL 代码中时数据会被分发多次不仅会造成数据膨胀 n倍还会把长尾现象放大n倍。 对于上面提到的第2种情况可以对热点 key 进行单独处理然后通过“ union All ”合并。这种解决方案已经在“Join 倾斜”一节中介绍过。对于上面提到的第3种情况可以把符合不同条件的数据放到不同的分区避免通过多次“Insert Overwrite 写人表中特别是分区数比较多时能够很好地简化代码。对于第4种情况我们可以先多粒度聚合然后在子查询外进行口径粒度聚合。 第2章 Hive Job优化 2.1 Hive Map优化 2.1.1 复杂文件增加Map数 当input的文件都很大任务逻辑复杂map执行非常慢的时候可以考虑增加Map数来使得每个map处理的数据量减少从而提高任务的执行效率。增加map的方法为根据computeSliteSize(Math.max(minSize,Math.min(maxSize,blocksize)))blocksize128M公式调整maxSize最大值。让maxSize最大值低于blocksize就可以增加map的个数。 2.1.2 小文件进行合并 1在map执行前合并小文件减少map数CombineHiveInputFormat具有对小文件进行合并的功能系统默认的格式。HiveInputFormat没有对小文件合并功能。 set hive.input.format org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; 2在Map-Reduce的任务结束时合并小文件的设置 #在map-only任务结束时合并小文件默认trueset hive.merge.mapfiles true;#在map-reduce任务结束时合并小文件默认falseset hive.merge.mapredfiles true;#合并文件的大小默认256Mset hive.merge.size.per.task 268435456;#当输出文件的平均大小小于该值时启动一个独立的map-reduce任务进行文件mergeset hive.merge.smallfiles.avgsize 16777216;2.1.3 Map端聚合 set hive.map.aggrtrue;#相当于map端执行combiner 2.1.4 推测执行 set mapred.map.tasks.speculative.execution true #默认是true 2.2 Hive Reduce优化 2.2.1 合理设置Reduce数 1调整reduce个数方法一 1每个Reduce处理的数据量默认是256MB。 set hive.exec.reducers.bytes.per.reducer 256000000 2每个任务最大的reduce数默认为1009 set hive.exec.reducers.max 1009 3计算reducer数的公式 Nmin(参数2总输入数据量/参数1)(参数2 指的是上面的1009参数1值得是256M) 2调整reduce个数方法二 在hadoop的mapred-default.xml文件中修改,设置每个job的Reduce个数 set mapreduce.job.reduces  15; 3reduce个数并不是越多越好 1过多的启动和初始化reduce也会消耗时间和资源 2另外有多少个reduce就会有多少个输出文件如果生成了很多个小文件那么如果这些小文件作为下一个任务的输入则也会出现小文件过多的问题 Tips---在设置reduce个数的时候也需要考虑这两个原则处理大数据量利用合适的reduce数使单个reduce任务处理数据量大小要合适 2.3 Hive 任务整体优化 2.3.1 Fetch抓取 Fetch抓取是指Hive中对某些情况的查询可以不必使用MapReduce计算。例如SELECT * FROM emp;在这种情况下Hive可以简单地读取emp对应的存储目录下的文件然后输出查询结果到控制台。 在hive-default.xml.template文件中hive.fetch.task.conversion默认是more老版本hive默认是minimal该属性修改为more以后在全局查找、字段查找、limit查找等都不走mapreduce。 propertynamehive.fetch.task.conversion/namevaluemore/valuedescriptionExpects one of [none, minimal, more].Some select queries can be converted to single FETCH task minimizing latency.Currently the query should be single sourced not having any subquery and should not have any aggregations or distincts (which incurs RS), lateral views and joins.0. none : disable hive.fetch.task.conversion1. minimal : SELECT STAR, FILTER on partition columns, LIMIT only2. more : SELECT, FILTER, LIMIT only (support TABLESAMPLE and virtual columns)/description /property 1案例实操 1把hive.fetch.task.conversion设置成none然后执行查询语句都会执行mapreduce程序 hive (default) set hive.fetch.task.conversionnone; hive (default) select * from emp; hive (default) select ename from emp; hive (default) select ename from emp limit 3; 2把hive.fetch.task.conversion设置成more然后执行查询语句如下查询方式都不会执行mapreduce程序 hive (default) set hive.fetch.task.conversionmore; hive (default) select * from emp; hive (default) select ename from emp; hive (default) select ename from emp limit 3; 2.3.2 本地模式 大多数的Hadoop Job是需要Hadoop提供的完整的可扩展性来处理大数据集的。不过有时Hive的输入数据量是非常小的。在这种情况下为查询触发执行任务消耗的时间可能会比实际job的执行时间要多的多。对于大多数这种情况Hive可以通过本地模式在单台机器上处理所有的任务。对于小数据集执行时间可以明显被缩短。 用户可以通过设置hive.exec.mode.local.auto的值为true来让Hive在适当的时候自动启动这个优化。 set hive.exec.mode.local.autotrue; //开启本地mr //设置local mr的最大输入数据量当输入数据量小于这个值时采用local mr的方式默认为134217728即128M set hive.exec.mode.local.auto.inputbytes.max50000000; //设置local mr的最大输入文件个数当输入文件个数小于这个值时采用local mr的方式默认为4 set hive.exec.mode.local.auto.input.files.max10; 案例实操 1开启本地模式并执行查询语句 hive (default) set hive.exec.mode.local.autotrue; hive (default) select * from emp cluster by deptno; Time taken: 1.328 seconds, Fetched: 14 row(s) 2关闭本地模式并执行查询语句注意执行时间 hive (default) set hive.exec.mode.local.autofalse; hive (default) select * from emp cluster by deptno; Time taken: 20.09 seconds, Fetched: 14 row(s) 2.3.3 并行执行 Hive会将一个查询转化成一个或者多个阶段。这样的阶段可以是MapReduce阶段、抽样阶段、合并阶段、limit阶段。或者Hive执行过程中可能需要的其他阶段。默认情况下Hive一次只会执行一个阶段。不过某个特定的job可能包含众多的阶段而这些阶段可能并非完全互相依赖的也就是说有些阶段是可以并行执行的这样可能使得整个job的执行时间缩短。不过如果有更多的阶段可以并行执行那么job可能就越快完成。 通过设置参数hive.exec.parallel值为true就可以开启并发执行。不过在共享集群中需要注意下如果job中并行阶段增多那么集群利用率就会增加。 set hive.exec.paralleltrue; //打开任务并行执行默认为false set hive.exec.parallel.thread.number16; //同一个sql允许最大并行度默认为8 (建议在数据量大,sql很长的时候使用,数据量小,sql比较的小开启有可能还不如之前快)。 2.3.4 严格模式 Hive可以通过设置防止一些危险操作、 1分区表不使用分区过滤 将hive.strict.checks.no.partition.filter设置为true时对于分区表除非where语句中含有分区字段过滤条件来限制范围否则不允许执行。换句话说就是用户不允许扫描所有分区。进行这个限制的原因是通常分区表都拥有非常大的数据集而且数据增加迅速。没有进行分区限制的查询可能会消耗令人不可接受的巨大资源来处理这个表。 2使用order by没有limit过滤 将hive.strict.checks.orderby.no.limit设置为true时对于使用了order by语句的查询要求必须使用limit语句。因为order by为了执行排序过程会将所有的结果数据分发到同一个Reducer中进行处理强制要求用户增加这个LIMIT语句可以防止Reducer额外执行很长一段时间(开启了limit可以在数据进入到reduce之前就减少一部分数据)。 3笛卡尔积 将hive.strict.checks.cartesian.product设置为true时会限制笛卡尔积的查询。对关系型数据库非常了解的用户可能期望在 执行JOIN查询的时候不使用ON语句而是使用where语句这样关系数据库的执行优化器就可以高效地将WHERE语句转化成那个ON语句。不幸的是Hive并不会执行这种优化因此如果表足够大那么这个查询就会出现不可控的情况。 2.3.5 JVM重用 小文件过多的时候使用。
http://www.w-s-a.com/news/949839/

相关文章:

  • 网站建设管理人员济宁网站建设top
  • 桂林网站建设桂林网站的元素有哪些
  • 广东网站开发推荐网页制作个人简历模板教程
  • e建网保定百度seo公司
  • 网站建设中html代码网络培训课堂app
  • 无锡做网站seo自己做的网站如何上传网上
  • 园林景观网站模板小白怎么做跨境电商
  • 找第三方做网站 需要注意企业网站带数据库
  • 北京南站到北京站flash网站制作单选框和复选框ui组件
  • 网站建设核电集团网站设计案例
  • 宝塔做的网站能不能访问上海的广告公司网站建设
  • 网站会员系统方案新能源网站建设哪家好
  • 全球网站域名域名被墙查询
  • 做期货看资讯什么网站好哈尔滨网站设计联系方式
  • 建站宝盒免费下载上海网论坛网址
  • 国内最有趣的25个网站推广流程
  • 红河做网站抖音小程序怎么挂到抖音上
  • 高度重视机关门户网站建设外包
  • 网站里面送礼物要钱怎么做代码网站开发怎么对接客户
  • 泰州网站制作策划如何做网站需求
  • 门户网站优化报价软件技术公司
  • 怎样换网站logo公司名字大全集免费
  • 为网站网站做推广各类最牛网站建设
  • 网站用自己的电脑做服务器佛山做网站制作公司
  • 一个网站如何做cdn加速器如何上传网站数据库
  • 汝州住房和城乡建设局新网站营销网站定位
  • yy直播官网seo引擎优化是什
  • 做影视网站违法莫品牌营销是什么
  • 全网最稳最低价自助下单网站wordpress电影网站主题
  • 域名更换网站温州建设工程网站