故障解决:spark 访问hive 库、表报错 org.apache.spark.sql.AnalysisException: Table or view not found
目录
1、spark项目 + 外部配置文件【最优:配置改变,无需重新编译、打包】
2、spark项目(resources目录下存放hive-site.xml)【次之:如果配置变动需要更新配置文件,重新编译打包】
3、spark项目(在代码中写死配置选项)【最差:涉及配置修改后,需要对代码修改,然后重新编译打包】
一、问题背景
- 通过hive -f 完成建表 ods_data 操作
- 然后通过spark sql 操作 hive 中的库、表
二、问题描述
报错信息:org.apache.spark.sql.AnalysisException: Table or view not found
三、问题解决
1、spark项目 + 外部配置文件【最优:配置改变,无需重新编译、打包】
2、spark项目(resources目录下存放hive-site.xml)【次之:如果配置变动需要更新配置文件,重新编译打包】

3、spark项目(在代码中写死配置选项)【最差:涉及配置修改后,需要对代码修改,然后重新编译打包】
如果上述三种方式都不能解决,可以尝试检查一下:hive-site.xml 配置文件
划重点,如果上述还不能解决问题,需要检查一下hive版本是否过低过高问题。
如果还未能解决你的问题,请在博客后面留言~我会协助解决问题啦啦啦!
文章最后,给大家推荐一些受欢迎的技术博客链接:
- JAVA相关的深度技术博客链接
- Flink 相关技术博客链接
- Spark 核心技术链接
- 设计模式 —— 深度技术博客链接
- 机器学习 —— 深度技术博客链接
- Hadoop相关技术博客链接
- 超全干货--Flink思维导图,花了3周左右编写、校对
- 深入JAVA 的JVM核心原理解决线上各种故障【附案例】
- 请谈谈你对volatile的理解?--最近小李子与面试官的一场“硬核较量”
- 聊聊RPC通信,经常被问到的一道面试题。源码+笔记,包懂
- 深入聊聊Java 垃圾回收机制【附原理图及调优方法】
欢迎扫描下方的二维码或 搜索 公众号“大数据高级架构师”,我们会有更多、且及时的资料推送给您,欢迎多多交流!