Caused by:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException):
Permission denied: user=swimer, access=EXECUTE,
inode="/tmp/hive":zhengkw:supergroup:drwxrwx—
windows环境下,idea编写spark-sql访问hive权限问题
hive是在HDFS上的,一般作为数据仓库,管理数据的生命周期!如果是windows条件下提交job,默认会将windows的用户名给提交上去,但是如果HDFS创建的用户名和当前用户名不一致时会报错!Permission denied!所以,为了解决这个问题,有以下解决方案
解决方案
1.将windows的用户名添加到hdfs的超级组里,赋予权限。
2.将hdfs的写权限改为所有都可写!(慎用)
3.在idea中将hdfs的所属用户传过去!
System.setProperty("HADOOP_USER_NAME", "zhengkw")
这个用户名必须和访问的hdfs所属用户一致!