scylladb通过扩缩容节点迁移数据

广大2年前技术文章1409

环境: Scyllsdb版本:4.2


一、上线新节点

1、确认集群状态和检查配置

· 首先确认集群各节点状态是Up Normal (UN),

[root@172-16-121-153 scylla]# nodetool -h ::FFFF:127.0.0.1 status
Datacenter: my_data_center
==========================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
--  Address         Load       Tokens       Owns    Host ID                               Rack
UN  172.16.121.151  37.05 MB   256          ?       dfb03e20-6c5c-4360-b1d5-0735369b61fb  my_rack
UN  172.16.121.152  36.98 MB   256          ?       ff2beda1-1253-419b-a2e5-415f072ba25c  my_rack
UN  172.16.121.153  36.56 MB   256          ?       8efc9e61-2316-4a65-9de5-e2edb2af4eca  my_rack

· 登陆到现有集群任一节点收集配置信息。

检查配置脚本:
cat /etc/scylla/scylla.yaml | grep cluster_name
cat /etc/scylla/scylla.yaml | grep seeds:
cat /etc/scylla/scylla.yaml | grep endpoint_snitch
cat /etc/scylla/scylla.yaml | grep -E "listen_address|rpc_address"
scylla --version


集群名称
[root@172-16-121-152 scylla]# cat /etc/scylla/scylla.yaml | grep cluster_name
cluster_name: 'dtstack'

种子节点配置:
[root@172-16-121-152 scylla]# cat /etc/scylla/scylla.yaml | grep seeds:
          - seeds: "172.16.121.151"

告密者策略:
[root@172-16-121-152 scylla]# cat /etc/scylla/scylla.yaml | grep endpoint_snitch
#endpoint_snitch: SimpleSnitch
endpoint_snitch: GossipingPropertyFileSnitch

scylla版本:
[root@172-16-121-152 scylla]# scylla --version
4.2.4-0.20210302.0ac069fdc

2、部署scylladb


参考:https://yunche.pro/blog/?id=147


3、配置参数

配置文件默认位于/etc/scylla

3.1 scylla.yaml

 各参数和现有集群一致,seeds节点加入新节点ip,保证后续下线节点时候,集群可用。

vi  /etc/scylla/scylla.yaml
cluster_name: 'dtstack'           --集群名称
listen_address: 172.16.121.154    --本节点ip
rpc_address: 172.16.121.154       --本节点ip
seed_provider:
    - class_name: org.apache.cassandra.locator.SimpleSeedProvider
      parameters:
          - seeds: "172.16.121.151,172.16.121.154"
endpoint_snitch: GossipingPropertyFileSnitch

3.2 cassandra-rackdc.properties

参数和现有集群一致

vi /etc/scylla/cassandra-rackdc.properties

dc=my_data_center   --设置数据中心名称
rack=my_rack        --设置机架名称

4、启动scylla服务

systemctl start scylla-server

5、验证集群状态

节点状态UN,代表数据节点状态正常。

[root@172-16-121-154 lib]# nodetool -h ::FFFF:127.0.0.1 status
Datacenter: my_data_center
==========================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
--  Address         Load       Tokens       Owns    Host ID                               Rack
UN  172.16.121.151  37.06 MB   256          ?       dfb03e20-6c5c-4360-b1d5-0735369b61fb  my_rack
UN  172.16.121.152  36.99 MB   256          ?       ff2beda1-1253-419b-a2e5-415f072ba25c  my_rack
UN  172.16.121.153  36.57 MB   256          ?       8efc9e61-2316-4a65-9de5-e2edb2af4eca  my_rack
UN  172.16.121.154  30.65 MB   256          ?       4f8e0b46-3115-4415-a2c1-60a458859f1d  my_rack

Note: Non-system keyspaces don't have the same replication settings, effective ownership information is meaningless

6、查看网络传输和数据同步进度

nodetool  -h ::FFFF:127.0.0.1 netstats

· 等待数据传输完成,按照上面的1-6步骤依次添加足够所需的新节点。

7、清理数据

等待新节点数据同步完成后,业务低峰期,依次在除新节点外的节点删除不再属于该节点key

nodetool  -h ::FFFF:127.0.0.1 cleanup

8、业务切换连接地址到新节点,安排时间进行下线节点

二、下线节点

1、状态检查

确保删除节点的状态为节点状态为:UN

nodetool -h ::FFFF:127.0.0.1 status

2、删除节点

nodetool -h ::FFFF:127.0.0.1 decommission

3、验证集群状态

--观察下线数据传输进度
iftop
nodetool  -h ::FFFF:127.0.0.1 netstats
--传输完成后验证集群状态
nodetool -h ::FFFF:127.0.0.1 status

4、数据删除

从集群中删除节点时,不会自动删除其数据。您需要手动删除数据以确保它不再计入该节点上的负载。使用以下命令删除数据(此步骤可以不执行)

sudo rm -rf /var/lib/scylla/data
sudo find /var/lib/scylla/commitlog -type f -delete
sudo find /var/lib/scylla/hints -type f -delete
sudo find /var/lib/scylla/view_hints -type f -delete


相关文章

副本集的同步、心跳、选举、回滚

一、副本集同步过程   MongoDB的复制功能是依赖与oplog来实现的。   1.数据写入主节点同时在local.oplog.rs集合写入对应的oplog   2.备份节点第一次同步数据时,会先进...

SQLServer执行计划

SQLServer执行计划

一、执行计划概览RDS SQLServer 执行计划可以在性能分析中查看,也可以在登陆数据库后查看执行计划。(1)在 DMS 登陆数据库后查看,情况如下: 具体执行计划内容如下: (2)在性能分析中找...

CPU--使用率

CPU--使用率

一、CPU和任务统计信息查询/proc/stat第一行表示所有CPU的累加其他列表示不同场景下CPU的累加节拍数,单位:USER_HZ即10ms➜  ~ cat ...

kafka文件存储机制

kafka文件存储机制

Topic 数据的存储机制       Topic是逻辑上的概念,而partition是物理上的概念,每个partition对应于一个log文件,该log文件中存储的就是Producer生产的数据。P...

Hbase压缩算法

HBase包含两类压缩机制:DataBlockEncode前缀压缩和文件级别的压缩Compress。对于DataBlockEncode前缀压缩,提供了三种算法:PREFIX\DIFF\FAST_DIF...

MySQL 有意思的权限报错

前言今天遇到了一个报错,觉得挺有意思的,在此记录下。SELECT command denied to user 'xxx'@'xxx' for table 'xxx'1. 报错原因这里是研发提了一条修...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。