TDengine集群部署

櫰木1年前技术文章1020

1、基础环境

操作系统:centos7.9

内核版本:3.10

下载地址:https://docs.taosdata.com/releases/tdengine/#3110

架构设置:3 dnode,3 mnode

依赖操作系统用户:root

2、环境部署

1、集群节点部署

下载TDengine-server-3.1.1.0-Linux-x64.tar.gz包到服务器解压

tar -xzvf  TDengine-server-3.1.1.0-Linux-x64.tar.gz
cd TDengine-server-3.1.1.0
#执行./install.sh

image.png

其中hostname为本机的主机名

如果已经存在tdengine集群,则填写tdengine集群中的某一台机器主机名:端口(默认端口6030),如果不存在,则直接回车,创建本集群的第一个节点。

修改配置文件

vim /etc/taos/taos.cfg 
firstEp   hadoop001:6030  				#集群的第一个节点
fqdn                      hadoop001 	#本机主机名
serverPort                6030 			#服务端口
logDir                    /var/log/taos #日志目录
dataDir                   /var/lib/taos #数据目录

启动tdengine

启动服务进程:systemctl start taosd

停止服务进程:systemctl stop taosd

重启服务进程:systemctl restart taosd

查看服务状态:systemctl status taosd

2、集群节点扩容

前置条件:

1、保证操作系统干净,无遗留的tdengine数据及配置

2、保证网络畅通(集群中所有主机在端口 6030-6042 上的 TCP/UDP 协议能够互通。)

3、物理节点安装 TDengine,且版本必须是一致的,但不要启动 taosd。安装时,提示输入是否要加入一个已经存在的 TDengine 集群时,第一个物理节点直接回车创建新集群,后续物理节点则输入该集群任何一个在线的物理节点的 FQDN:端口号(默认 6030);

4、确认所有节点的hostname 是否存在相同,如存在相同hostname,则需要进行修改

5、修改tdengine配置文件

vim /etc/taos/taos.cfg 
// firstEp 是每个数据节点首次启动后连接的第一个数据节点
firstEp               hadoop001:6030

// 必须配置为本数据节点的 FQDN,如果本机只有一个 hostname,可注释掉本项
fqdn                  hadoop002

// 配置本数据节点的端口号,缺省是 6030
serverPort            6030

启动tdengine

systemctl start taosd
##连接
 taos -h hadoop001 -P 6030

image.png

#添加dnode
create dnode 'hadoop002:6030';
#查看添加的dnode
show dnodes;

image.png

#添加mnode
create mnode on DNODE <dnode_id>; #create mnode on DNODE 3;
#查看mnode
show mnodes;

image.png

3、测试连接

taos -h hadoop001 -P 6030
CREATE DATABASE demo;
USE demo;
CREATE TABLE t (ts TIMESTAMP, speed INT);
INSERT INTO t VALUES ('2019-07-15 00:00:00', 10);
INSERT INTO t VALUES ('2019-07-15 01:00:00', 20);
SELECT * FROM t;

           ts            |    speed    |
========================================
 2019-07-15 00:00:00.000 |          10 |
 2019-07-15 01:00:00.000 |          20 |


相关文章

xargs-管道命令符

有时候我们的脚本却需要 echo '516' | kill 这样的效果,例如 ps -ef | grep 'ddd' | kill 这样的效果,筛选出符合某条件的进程pid然后结束。这种需求对于我们来...

apache Kyuubi部署及对接hive

apache Kyuubi部署及对接hive

1、背景客户重度使用spark sql,但是使用spark thriftserver存在各种各样的问题,我们选择使用kyuubi来替代spark thriftserver的使用2、安装包下载下载地址:...

hiveserver2高可用

hiveserver2高可用

一、安装hiveserver2服务步骤1. 将正常使用的hive目录复制到安装hiveserver2的节点(hd3节点)scp -r /opt/hive hd3:/opt/二、配置hive-site....

CDP实操--集群配置Auto-TLS

CDP实操--集群配置Auto-TLS

1.1手动创建CA证书# mkdir -p /tls/ca # ls /tls # cd /tls/ca # openssl genrsa -out ca.key 2048 # cat ca....

mysql双主更改为主从架构分析

mysql双主更改为主从架构分析

客户需求客户业务运行的在mysql双主架构上,因为客户经常误操作触发双写,导致数据不一致,对业务的稳定运行造成加大的影响。客户现有数据库架构图解决方案基于客户业务和底层数据库架构实际情况,云掣科技提供...

SparkStreaming对接kafka消费模式区别

SparkStreaming对接kafka消费模式区别

Sparkstreaming对接kafka使用的消费方式与常规的kafka消费方式完全不同,其中区别主要为消费者的管理方式不同。Ø  常规消费模式Kafka常规的消费模式以消费者组为消费单元...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。