前言:网上大数据开发工程师的面试题相对较少,且比较杂乱分散,有的甚至没有答案。为了广大数据人着想,本人总结了大数据面试题,希望能有所帮助。
为什么要使用 Hive? hive 的优缺点?Hive的作用是什么?
这几个问题比较类似,实际上就是要你回答 hive 的特点:
•提供类SQL查询,容易上手,开发方便;•封装了很多方法,尽量避免了开发MapReduce程序,减少成本;•适用于处理大规模数据,小数据的处理没有优势;•执行延迟较高,适合用于数据分析,不适合对时效性要求较高的场景。
说下Hive是什么? 跟数据库区别?
hive 是用于大数据分析处理的工具,存储基于 HDFS,计算基于 MapReduce 或 Spark,提供类 SQL 查询。
hive 除了可以通过类 SQL 查询这一点和数据库有点关系外,其它基本没啥关联。
•数据库支持事务,可读可写;而hive一般不支持事务(高版本除外),一般用于读多写少的情况,不建议改动数据,因为数据存储在HDFS中,而HDFS的文件不支持修改;•hive延迟比较大,因其底层是MapReduce,执行效率较慢。但当数据规模较大的情况下,hive的并行计算优势就体现出来了,数据库的效率就不如hive了;•hive不支持索引,查询的时候是全表扫描,这也是其延迟大的原因之一。
Hive内部表和外部表的区别?
•内部表在建表的时候需要加关键字 EXTERNAL;•创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径, 不对数据的位置做任何改变;•删除内部表会直接删除元数据【metadata】及存储数据,删除外部表仅仅删除元数据,HDFS上的文件不会被删除;•内部表数据存储在hive.metastore.warehouse.dir【默认:/user/hive/warehouse】,外部表数据存储位置由用户自己决定。
Hive建表语句
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name[(col_name data_type [COMMENT col_comment], ...)][COMMENT table_comment][PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)][CLUSTERED BY (col_name, col_name, ...)[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS][ROW FORMAT row_format][STORED AS file_format][LOCATION hdfs_path][TBLPROPERTIES (property_name=property_value, ...)][AS select_statement | like⑩ table_name]
Hive数据倾斜以及解决方案
Hive的三种自定义函数是什么?它们之间的区别是什么?
•UDF:用户自定义函数,user defined function。一对一的输入输出。•UDTF:用户自定义表生成函数。user defined table-generate function.一对多的输入输出。•UDAF:用户自定义聚合函数。user defined aggregate function,多对一的输入输出比如count sum等。
Hive的cluster by、sort by、distribute by、order by区别?
•order by:全局排序,一个reducer;•sort by:分区内排序;•distribute by:控制map结果的分发,相同值会被分发到同一个map;•cluster by:当distribute by和sort by用的同一个字段,可以用这个关键字,不能指定排序顺序。
Hive分区和分桶的区别
分区针对的是数据的存储路径;分桶针对的是数据文件。
Hive的执行流程
1.(执行查询操作)Execute Query命令行或Web UI之类的Hive接口将查询发送给Driver(任何数据库驱动程序,如JDBC、ODBC等)以执行。2.(获取计划任务)Get PlanDriver借助查询编译器解析查询,检查语法和查询计划或查询需求3.(获取元数据信息)Get Metadata编译器将元数据请求发送到Metastore(任何数据库)。4.(发送元数据)Send MetadataMetastore将元数据作为对编译器的响应发送出去。5.(发送计划任务)Send Plan编译器检查需求并将计划重新发送给Driver。到目前为止,查询的解析和编译已经完成6.(执行计划任务)Execute PlanDriver将执行计划发送到执行引擎。7.(执行Job任务)Execute Job在内部,执行任务的过程是MapReduce Job。执行引擎将Job发送到ResourceManager,ResourceManager位于Name节点中,并将job分配给datanode中的NodeManager。在这里,查询执行MapReduce任务.7.1.(元数据操作)Metadata Ops在执行的同时,执行引擎可以使用Metastore执行元数据操作。8.(拉取结果集)Fetch Result执行引擎将从datanode上获取结果集;9.(发送结果集至driver)Send Results执行引擎将这些结果值发送给Driver。10.(driver将result发送至interface)Send ResultsDriver将结果发送到Hive接口
Hive SQL优化处理
•优先过滤,过滤后的结果集再进行处理;•count(distinct) 改成 sum + group by 的组合;•大小表注意 MapJoin;•使用分区;•注意数据倾斜相关的问题,可参考:
Hive的存储引擎和计算引擎
存储:HDFS;计算引擎:MR 或 Spark
Hive的文件存储格式都有哪些?
介绍下知道的Hive窗口函数,举一些例子
Hive的union和union all的区别?
•Union:将多个结果合并为一个,且结果去重且排序•Union all:将多个结果合并为一个,且结果不去重不排序
Hive的join操作原理?
在 Map 阶段将 on 的字段设为 key,然后将选择的字段集作为 value;在 Reduce 阶段将相同 key 值的数据分发到同一个 Reducer。
Hive如何优化join操作
•若有大量 null key,则过滤掉或者赋随机值;•若大小表 join,可使用 MapJoin;•若两张大表 join ,可将倾斜的 key 过滤出来单独 join,则会分散到多个 task 进行 join 操作,最后再进行 union
Hive的mapjoin
mapjoin 会将小表数据加载到内存中,在 Map 阶段完成 join 操作。
Hive有哪些保存元数据的方式,都有什么特点?
•内嵌模式:将元数据保存在本地内嵌的derby数据库中,内嵌的derby数据库每次只能访问一个数据文件,也就意味着它不支持多会话连接。•本地模式:将元数据保存在本地独立的数据库中(一般是mysql),这可以支持多会话连接。•远程模式:把元数据保存在远程独立的mysql数据库中,避免每个客户端都去安装mysql数据库。
内存数据库derby,占用空间小,但是数据存于内存,不稳定;
mysql数据库,数据存储模式可自己设置,持久化好,查看方便。
Hive SOL实现查询用户连续登录,讲讲思路
参考:面试官:“如何用 SQL 查询每个用户最大连续登录日期?”
row_number,rank,dense_rank的区别
•row_number 表示行数,每行都是前面基础加1;•rank 是跳跃排序,有两个第二名时接下来就是第四名(同样是在各个分组内)•dense_rank 是连续排序,有两个第二名时仍接下来既是第三名。
Hive count(distinct)有几个reducer,海量数据会有什么问题
如果没有 group by 就是一个 Reducer,海量数据用一个reducer执行效率过慢,甚至造成内存溢出。
开窗函数中加Order By和不加Order By的区别?
当为排序函数,如row_number(),rank()等时,over中的order by只起到窗口内排序作用。
当为聚合函数,如max,min,count等时,over中的order by不仅起到窗口内排序,还起到窗口内从当前行到之前所有行的聚合,不加则整个分区聚合。
parquet文件优势
Hive里metastore是干嘛的?
客户端连接 metastore,metastore 再去连接 MySQL 存取元数据。
使得多个客户端可以同时连接,且这些客户端无需知道 MySQL 数据库的用户名密码,只需连接 metastore 服务即可。
以上的 hive 篇先总结到这,如果觉得文章对你有帮助,可以点个小赞加收藏。如果有误,欢迎大家指正,谢谢!
后续如果有新的问题,我会继续更新。同时后续有空会继续更新其它篇章的内容,欢迎大家关注【大数据的奇妙冒险】




