spark-shell引用不了hive数据表的问题 sqlContext hiveContext

从上面两篇开始 一直进入一个错误中 关于 jack包引用的问题

cdh下载文件安装的

环境 centos 7.0


hadoop-2.6.0-cdh5.7.0

hive-1.1.0-cdh5.7.0

scala-2.11.0

spark-1.6.0-cdh5.7.0


spark-shell引用不了hive数据表的问题 sqlContext hiveContext



从hadoop伪分布试安装  mysql hive scala的安装都没问题

直到spark安装 启动

spark-shell --master yarn --jars /home/hadoop/hive/lib/mysql-connector-java-5.1.44.jar


一直都在报jackson包相关的问题 原因是 hadoop版本用的是1.8的 而spark 用的是1.9或更高的版本

结果坑了将近2周时间  整了各种配置 结果spark可以运行了 却不支持hive表查询了 蒙了



com/fasterxml/jackson/databind/Module



然后尝试从spark官网下载 对应hadoop版本的 tar 结果一下就行了 终于都可以继续下一步 了



spark-shell引用不了hive数据表的问题 sqlContext hiveContext

hive引用日志


spark-shell引用不了hive数据表的问题 sqlContext hiveContext




spark-shell引用不了hive数据表的问题 sqlContext hiveContext