我在提交乙個乙個spark任務是,遇到乙個無權訪問hbase的異常,如下:
org.apache.hadoop.hbase.ipc.remotewithextra***ception(org.apache.hadoop.hbase.security.accessdeniedexception): org.apache.hadoop.hbase.security.accessdeniedexception: insufficient permissions ([email protected], scope=hbase:meta, params=[table=hbase:meta],action=exec)
解決:
設定spark.security.credentials.hbase.enabled=false
就可以解決。
這個可以在spark服務配置中設定,也可以在spark-submit
的--conf
中設定。
如果使用cloudera manager管理服務,找到spark服務的spark-conf/spark-defaults.conf 的 spark 客戶端高階配置**段(安全閥)進行設定即可。
參考:
spark 程式 windows 執行報錯
1 環境變數導致 新建環境變數 hadoop home 參考 2錯誤 執行模式錯誤 解決 參考 從提示中可以看出找不到程式執行的master,此時需要配置環境變數。傳遞給spark的master url可以有如下幾種 local 本地單執行緒 local k 本地多執行緒 指定k個核心 local ...
linux新增使用者到附屬組無權訪問
目標 首先在root 超級使用者許可權下建立admin 和test倆個賬號,然後用test使用者訪問admin使用者的檔案。linux建立新使用者admin useradd admin passwd admin 為admin使用者配置密碼 root管理員模式下必須指定給那個使用者建立密碼 同理在建立...
在使用ADI時報無權訪問該功能錯誤
description 在使用adi分配好對應帳套後,使用adi只能訪問總賬日記賬匯入,在使用 固定資產 增加 時,報您無權訪問該功能錯誤。cause web adi 使用整合器對應的功能選單來判斷是否有許可權訪問指定功能的。solution 在使用adi對應的職責找到對應的選單,如 webadi ...