经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 数据库/运维 » Spark » 查看文章
SparkSql 整合 Hive
来源:cnblogs  作者:强行快乐~  时间:2019/7/26 8:47:02  对本文有异议

    SparkSql整合Hive

需要Hive的元数据,hive的元数据存储在Mysql里,sparkSql替换了yarn,不需要启动yarn,需要启动hdfs

首先你得有hive,然后你得有spark,如果是高可用hadoop还得有zookeeper,还得有dfs(hadoop中的)

我这里有3台节点node01,node02,node03

ps:DATEDIFF(A,B)做差集

 

node01

先copy hive的hive-site.xml到spark 的config

  1. cp hive-site.xml /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /export/servers/spark-2.0.2/conf/

然后在spark config目录scp到其它节点

  1. scp hive-site.xml node02:$PWD
  2. scp hive-site.xml node03:$PWD

 

拷贝mysql驱动包到spark jars目录(之前装hive因为Hive要把元数据存在mysql中,所以我之前将Mysql驱动包copy至hive/lib下)

  1. cp /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /export/servers/spark-2.0.2/jars/

 

将mysql驱动拷贝至其他节点spark目录下

首先进入到spark/jars目录

  1. cd /export/servers/spark-2.0.2/jars/

拷贝(我配了免密登录,并且有主机名映射ip)

  1. scp mysql-connector-java-5.1.38.jar node02:$PWD
  1. scp mysql-connector-java-5.1.38.jar node03:$PWD

因为待会要在hdfs的文件中测试,所以需要启动dfs,不启动yarn

进入hadoop/sbin目录后,启动

  1. ./start-dfs.sh

 

启动spark集群(我把他们封装到了一个脚本里=>如果需要,请点击我下载待定)

脚本启动

 

  1. ./spark-start.sh 2

测试

  1. spark-sql --master spark://node01:7077 \
  2. --executor-memory 1g --total-executor-cores 2 --conf spark.sql.warehouse.dir=hdfs://node01:8020/user/hive/warehouse/myhive.db

失败了

 

 

 

这行代码错误的原因是,因为之前我和impala整合过,但是我未启动impala。

 

解决方案

进入node01

hive/conf下打开hive-site.xml

注释

 

 重新启动

  1. spark-sql --master spark://node01:7077 \
  2. --executor-memory 1g --total-executor-cores 2 --conf spark.sql.warehouse.dir=hdfs://node01:8020/user/hive/warehouse/myhive.db

成功

 

原文链接:http://www.cnblogs.com/BigDataBugKing/p/11243613.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号