1、使用hbase shell中delete命令刪除表中特定的單元格資料,命令格式如下:
delete
'tablename','row','column name','time stramp'
刪除emp表中第二行personal data:name列、時間節點為1502182102866的記錄:
delete
'emp','2','personal data:name',1502182102866
刪除表中的所有單元格,命令格式如下:
deleteall 'tablename','row'
刪除emp表中第二行資料:
deleteall 'emp','2'
2、使用python thrift api刪除表資料,**如下:
首先在empbypy表中新增一行資料,作為測試
# coding=utf-8
from thrift.transport.tsocket import tsocket
from thrift.transport.ttransport import tbufferedtransport
from thrift.protocol import tbinaryprotocol
from hbase import hbase
from hbase.ttypes import *
# 主機位址及埠號,埠號預設為9090
host = '192.168.83.135'
port = 9090
# 初始化鏈結
transport = tbufferedtransport(tsocket(host, port))
transport.open()
protocol = tbinaryprotocol.tbinaryprotocol(transport)
# 建立客戶端
client = hbase.client(protocol)
print client.getrow('empbypy','2')
client.deleteall('empbypy','2','personal data:city')
print client.getrow('empbypy','2')
client.deleteallrow('empbypy','2')
print client.getrow('empbypy','2')
transport.close()
執行結果如下:
hbase中強制刪除表
因為集群硬碟緊俏,絕對對原來的表加上compression lzo屬性。但是建立表,長時間沒有反饋。決定drop掉這張表,但是始終drop失敗。重啟集群,hbase 60010介面顯示有region transaction。為建立失敗的表region,在pending open和closed之間跳。...
hbase中刪除表中的行鍵 HBase 開始執行
執行hbase 保證hdfs第一次執行,你需要通過在hadoop home目錄中執行bin start hdfs.sh來啟動和停止hadoop hdfs守護程序。你確保它正確啟動的方法是通過在 hadoop 檔案系統中測試檔案的put和get。hbase通常不使用mapreduce或yarn守護程序...
關於刪除hbase表內容
hbase這個功能很是鬱悶,使用它給定的api刪除某個表的一些內容 public class testdelete extends testcase catch exception e public void delete throws exception public resultscanner ...