HBase导出表和备份表操作

芒果1年前技术文章833

HBase提供了几种导出数据的方式,包括使用HBase自带的工具和使用HBase的API。
本文主要是讲的使用HBase自带的工具进行导出
首先我们创建一个表 插入一些数据
hbase shell
list
create 'hbase_check3', 'data'
put 'hbase_check','row1','data:1','value1'
put 'hbase_check','row2','data:2','value2'
scan 'hbase_check'
get 'hbase_check','row1'
list

1C150528-C7A5-4E4A-A74D-1D1F7A9522C9.png
使用HBase自带的工具
使用该工具的命令如下
hbase org.apache.hadoop.hbase.mapreduce.Export hbase_check /opt/hbase_check
其中,<tablename>是要导出数据的表名,<outputdir>是导出数据的目录(hdfs的)。
走的是mr的逻辑
42352DAE-F9F2-4EF9-AC62-B562BD292806.png
这样就可以直接get下来了
73469196-CCC4-452E-8774-1DDCB5A62B02.png
备份表操作
0F4FDB1F-A1CC-4BB7-B4F2-F9797F62D9BC.png
我们要备份的是hbase_check表 
HBase提供了内置的备份功能,可以通过HBase Shell或HBase Java API进行操作。下面是一个使用HBase Shell进行备份的示例:
基于Hbase snapshot数据快速备份方法:
# 备份表数据
disable 'hbase_check'
snapshot 'hbase_check', 'hbase_check1'
enable 'hbase_check'
# 恢复表数据
disable 'hbase_check'
restore_snapshot 'hbase_check1'
enable 'hbase_check'
#查看快照
list_snapshots
基于hbase提供的类对hbase中某张表进行备份
hbase org.apache.hadoop.hbase.mapreduce.Export hbase_check /opt/hbase_check1
B78B286E-42CC-4E2E-B2B0-522C9A837E78.png
创建备份表
create 'hbase_check3', 'data'
将hdfs上的数据导入到备份目标表中
hbase org.apache.hadoop.hbase.mapreduce.Driver import hbase_check3 /opt/hbase_check/*
走的同样是mr
7D9E534F-3703-418B-B32C-7FB43831B296.png
最后我们查看下数据
scan 'hbase_check3'
B4DB2097-A8BB-4914-B1F8-08B80746B7D5.png
ps
手动flushflush ‘hbase_check'


相关文章

正式发布 | 《云运维服务白皮书》开放下载!

正式发布 | 《云运维服务白皮书》开放下载!

在全球数字化变革的背景下,为适应数字经济环境下企业生存发展和市场变化的需要,企业进行主动的、系统性、整体性的数字化转型升级。大数据、云计算、人工智能、区块链等新一代信息通信技术为企业的数字化转型提供了...

trino组件对接alluxio(三)

trino组件对接alluxio(三)

本文是基于已经部署了trino和alluxio的基础上,进行的trino与alluxio的组件对接,alluxio已经开启了高可用模式。安装部署1、增加alluxio配置在core-site.xml和...

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

此文章禁止转载概述Hive基准测试工具工具,可用来造数测试Hive基本性能。TPC-DS:提供一个公平和诚实的业务和数据模型,99个案例TPC-H:面向商品零售业的决策支持系统测试基准,定义了8张表,...

hadoop集群集成Iceberg操作指导

hadoop集群集成Iceberg操作指导

hadoop集群集成Iceberg操作指导书一、    准备工作1.       大数据集群运行正常,完成hi...

CDP实操--集群扩容

CDP实操--集群扩容

一、前提准备工作1.确保OS的yum源可以正常使用,通过yum repolist命令可以查看到匹配的OS的所有包2.确保Cloudera Manager的yum源运行正常3.hosts文件配置,需要将...

Mac安装Hadoop文档-保姆级操作(一)

Mac安装Hadoop文档-保姆级操作(一)

首先配置ssh环境在Mac下如果想使用Hadoop,必须要配置ssh环境, 如果不执行这一步,后面启动hadoop时会出现Connection refused连接被拒绝的错误。首先终端命令框输入:ss...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。