harbor数据迁移-SOP

琉璃2年前技术文章1613

背景

线下自建harbor需要迁移至云上自建harbor

迁移方案

harbor私有仓库的主从复制实现数据迁移

前置条件

harbor目标仓库已部署好,并且版本和源仓库版本最好保持一致

迁移步骤

1、配置slave仓库连接信息

harbor master仓库配置,将slave仓库连接信息按要求填入

image.png


📌注意:如果远程实例使用的是自签或者非信任证书,不要勾选“验证远程证书”

2、配置复制规则

配置过滤规则,选择目标slave仓库。触发模式支持:自动、手动以及定时三种方式,按需配置即可。其中,如果slave仓库不存在源库信息,会自动创建。

image.png


3、验证

通过历史复制任务执行详情,可以看到任务复制内容

image.png


image.png


登陆slave节点harbor,查看目标镜像复制成功。

image.png


相关文章

Debezium抽取SQL Server同步kafka

Debezium抽取SQL Server同步kafka

ebezium SQL Server连接器捕获SQL Server数据库模式中发生的行级更改。官方2.0文档:https://debezium.io/documentation/reference/2...

SpringBootWeb 篇-深入了解 SpringBoot + Vue 的前后端分离项目部署上线与 Nginx 配置文件结构(4)

SpringBootWeb 篇-深入了解 SpringBoot + Vue 的前后端分离项目部署上线与 Nginx 配置文件结构(4)

 6.0 nginx 配置文件结构        6.1 先了解以下配置文件的结构Nginx 文件结构:      &n...

ElasticSearch开启xpack

ElasticSearch开启xpack

ES开启xpack1、生成ca证书(用户名和密码不用设置,一路回车,生成证书文件elastic-stack-ca.p12,生成kibana证书的时候也需要该ca证书)/opt/dtstack/es-6...

HBase使用snappy压缩

HBase使用snappy压缩

安装编译环境依赖yum install -y automake autoconf gcc-c++ cmake libedit libtool openssl-devel ncurses-devel安装...

Greenplum数据库建立外部表加载HDFS文件实践指导

Greenplum数据库建立外部表加载HDFS文件实践指导

环境概述(1)     Greenplum数据库版本号Greenplum Database 4.3.0.0POC3 build 45206(基于PostgreS...

大数据组件Superset

Superset概述Apache Superset 是一个开源的、现代的、轻量级 BI 分析工具,能够对接多种数据源、 拥有丰富的图标展示形式、支持自定义仪表盘,且拥有友好的用户界面,十分易用。Sup...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。