Hive 中 Order by, Sort by ,Dristribute by,Cluster By 的作用和用法
1. order by
set hive.mapred.mode=nonstrict; (default value / 默认值)
set hive.mapred.mode=strict;
order by 和数据库中的Order by 功能一致,按照某一项 & 几项 排序输出。
与数据库中 order by 的区别在于在hive.mapred.mode = strict 模式下 必须指定 limit 否则执行会报错。
hive> select * from test order by id;
FAILED: Error in semantic analysis: 1:28 In strict mode, if ORDER BY is specified, LIMIT must also be specified. Error encountered near token 'id'
原因: 在order by 状态下所有数据会到一台服务器进行reduce操作也即只有一个reduce,如果在数据量大的情况下会出现无法输出结果的情况,如果进行 limit n ,那只有 n * map number 条记录而已。只有一个reduce也可以处理过来。
2. sort by
sort by 不受 hive.mapred.mode 是否为strict ,nostrict 的影响
sort by 的数据只能保证在同一reduce中的数据可以按指定字段排序。
使用sort by 你可以指定执行的reduce 个数 (set mapred.reduce.tasks=<number>) 这样可以输出更多的数据。
对输出的数据再执行归并排序,即可以得到全部结果。
3. distribute by
按照指定的字段对数据进行划分到不同的输出reduce / 文件中。
insert overwrite local directory '/home/hadoop/out' select * from test order by name distribute by length(name);
此方法会根据name的长度划分到不同的reduce中,最终输出到不同的文件中。
length 是内建函数,也可以指定其他的函数或这使用自定义函数。
4. Cluster By
cluster by 除了具有 distribute by 的功能外还兼具 sort by 的功能。
倒序排序,且不能指定排序规则。 asc 或者 desc。
分享到:
相关推荐
基于Hadoop Hive健身馆可视化分析平台项目源码+数据库文件.zip启动方式 环境启动 hadoop hive2元数据库 sql导入 导入hivesql脚本,修改application.yml 启动主程序 HadoopApplication 基于Hadoop Hive健身馆可视化...
hadoop hive可用的数据连接jar包,hadoop hive可用的数据连接jar包
Hadoop Hive HBase Spark Storm概念解释
Hadoop Hive与Hbase整合配置
Hadoop Hive入门学习笔记.pdf
Hive支持两个层面的排序: 全局排序 部分排序 全局排序用 order by col [ASC | DESC] 实现,效果和传统的RDMS一样,...鉴于此,Hive有一些自己特定,比如order by的实现需要把所有数据汇集到一个reducer中处理,如果数
VM虚拟机上,安装ubantu搭建hadoop+Hive集群,步骤详细。
最近在研究Hadoop Hive,在度娘找了几百几千份文档,拼凑起来才勉强部署好,太耗时,太耗时,太耗时 现在我整理好我过程中的每一个步骤,供大家一起学习共勉。
hadoop hive hbase安装过程
Facebook Hive by Ashish Thusoo.ppt Yahoo Hadoop by Hairong Kuang.ppt
小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者.txt
win10下搭建Hadoop(jdk+mysql+hadoop+scala+hive+spark),包括jdk的安装、mysql安装和配置,hadoop安装和配置,scala安装和配置,hive安装和配置,spark安装和配置。
Hadoop hbase hive sqoop集群环境安装配置及使用文档
hadoop&hive安装配置。3台机器,master做为namenonde,将slave1和slave2做为datanode。
大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK...... 大数据笔记,包含Hadoop、Spark、Flink、Hive、Kafka、Flume、ZK.......
淘宝技术嘉年华\HadoopHive.
包含了大量的hadoop hive hbase学习资料
hadoop+hive+spark部署文档
《开发和优化高效的Hadoop & Hive 程序》,详细介绍了淘宝在应用大数据技术的思路,以及针对MAPREDUCE和HIVE的调优过程。
使用kettle连接hive需要jar包,网上很多都不好找,特此提供jdbc连接hadoop hive2所需要的jar包