暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Spark SQL中实现Hive MapJoin

DLab数据实验室 2020-09-20
421


点击上方蓝字关注我们



        在Hive中,如果一个很大的表和一个小表做join,Hive可以自动或者手动使用MapJoin,将小表的数据加载到DistributeCache中,从而在使用Map Task扫描大表的同时,完成join,这对join的性能提升非常多。

       在SparkSQL中,目前还不支持自动或者手动使用MapJoin。变通的方法是,将小表进行cache,然后再和大表做join。SparkSQL中cache的作用就是将小表数据广播到每一个Worker的内存中,和加载到DistributeCache中是一个道理。

具体实现如下:

  1. create table t_lxw1234 as

  2. SELECT a.cookieid,

  3. b.brand,

  4. a.orderid AS ad_activity_id,

  5. a.orderitemid AS ad_id,

  6. a.siteid AS media_id,

  7. a.inventoryid AS ad_area_id,

  8. SUM(1) AS pv

  9. FROM lxw1234.t_log a

  10. join lxw1234.t_config b

  11. ON (a.orderid = b.ad_activity_id)

  12. WHERE a.pt = '2015-06-15'

  13. GROUP BY a.cookieid,

  14. b.brand,

  15. a.orderid,

  16. a.orderitemid,

  17. a.siteid,

  18. a.inventoryid

上面SQL中,大表 lxw1234.t_log 有3亿多条记录,而小表 lxw1234.t_config 中只有1000多条,一般情况下,SparkSQL的执行计划如下图所示:

可以看出,先分别扫描两张表,之后在做ShuffledHashJoin,而在这一步,由于小表数据量非常小,也就是能关联上的键值很少,因此这里发生了数据倾斜,导致最后的几个task处理的数据量非常大,直到内存溢出而报错,如图:

SparkSQL中提供了CACHE TABLE的命令,可以将一个表或者查询进行广播,命令如下:

  1. CACHE TABLE t_config AS SELECT ad_activity_id,brand FROM lxw1234.t_config

这样,等于是将t_config这张table加载到DistributeCache中,接下来再用这张内存表和大表做join:

  1. create table t_lxw1234 as

  2. SELECT a.cookieid,

  3. b.brand,

  4. a.orderid AS ad_activity_id,

  5. a.orderitemid AS ad_id,

  6. a.siteid AS media_id,

  7. a.inventoryid AS ad_area_id,

  8. SUM(1) AS pv

  9. FROM lxw1234.t_log a

  10. join t_config b

  11. ON (a.orderid = b.ad_activity_id)

  12. WHERE a.pt = '2015-06-15'

  13. GROUP BY a.cookieid,

  14. b.brand,

  15. a.orderid,

  16. a.orderitemid,

  17. a.siteid,

  18. a.inventoryid

再看执行计划:

这次,在一个Stage中,便完成了大表的扫描和与小表的BroadcastHashJoin,性能上自然不用说了,很快就跑完了。

在Hive中试了下同样的语句,Hive中走MapJoin,使用的时间比SparkSQL中多近50%,但需要注意的是,Hive中MapReduce消耗的资源,

却是SparkSQL消耗资源的好几倍,这也证实,尽管是从HDFS中读数据,Spark仍然要优于MapReduce。

另外,SparkSQL从Hive表(HDFS)中读数据,全部用的NODE_LOCAL task,如果是ANY,那就要慢一些了,而且会消耗很大的网络资源。

转载请注明:lxw的大数据田地 » Spark SQL中实现Hive MapJoin

     


长按二维码识别关注






文章转载自DLab数据实验室,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论