spark-shell启动出现的Error creating transactional connection factory解决办法
版本信息:
Spark:2.2.0-bin-2.6.0-cdh5.7.0
Hive:1.1.0-cdh5.7.0
MySQL:5.7.22
问题:
在使用Spark连接HIve,启动spark-shell的时候,报错:
此时输入命令为:
bin/spark-shell --master lcoal[2]
此时已经将$HIVE_HOME/conf/hive-site.xml拷贝到$SPARK_HOME/conf下,但是依然报错。
解决办法如下:
因为使用的是MySQL作为元数据数据库,在启动的时候,需要使用MySQL驱动jar包进行连接,键入spark-shell --hellp获得解决办法为:--driver-class-path命令或者--jars命令,则最终命令为:
bin/spark-shell --master local[2] --driver-class-path /Users/hiwes/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar
或者:
bin/spark-shell --master local[2] --jars /Users/hiwes/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java-5.1.27-bin.jar
成功连接: