kubernetes openelb

辰星3年前技术文章1810

1、背景

在云服务环境中的 Kubernetes 集群里,通常可以用云服务提供商提供的负载均衡服务来暴露 Service,但是在本地没办法这样操作。而 OpenELB 可以让用户在裸金属服务器、边缘以及虚拟化环境中创建 LoadBalancer 类型的 Service 来暴露服务,并且可以做到和云环境中的用户体验是一致的。

OpenELB 是一个开源的云原生负载均衡器实现,可以在基于裸金属服务器、边缘以及虚拟化的 Kubernetes 环境中使用 LoadBalancer 类型的 Service 对外暴露服务。


OpenELB 项目最初由 KubeSphere 社区 发起,目前已作为 CNCF 沙箱项目 加入 CNCF 基金会,由 OpenELB 开源社区维护与支持。


2、操作前了解相关配置和要求

  1. 了解 NodePort、LoadBalancer、Ingress。那么它们到底有什么不同,要如何正确地使用这些组件?

  2. 了解 OpenELB 的核心功能

    1. BGP 模式和二层网络模式下的负载均衡

    2. ECMP 路由和负载均衡

    3. IP 池管理

    4. 基于 CRD 来管理 BGP 配置

    5. 支持 Helm Chart 方式安装

  1. 了解 OpenELB 工作模式(Layer2、BGP、VIP)


2、操作步骤


2.1 使用 kubectl 安装/删除


"安装"
wget https://raw.githubusercontent.com/openelb/openelb/master/deploy/openelb.yaml
kubectl apply -f openelb.yaml

"查看"
kubectl get pod -n openelb-system

"删除"
kubectl delete -f openelb.yaml


注意: 在删除 OpenELB 之前,必须先删除所有使用 OpenELB 的服务


2.2 使用 helm 安装/删除


"安装"
helm repo add test https://charts.kubesphere.io/test
helm repo update
helm pull test/openelb
helm install openelb . -f values.yaml -n openelb

"查看"
kubectl get pods -n openelb

"删除"
helm delete openelb


2.3 实战


2.3.1 Layer2 示例


前提:


"查看kube-proxy中的strictARP配置"
$ kubectl get configmap -n kube-system kube-proxy -o yaml | grep strictARP
      strictARP: false

"手动修改strictARP配置为true"
$ kubectl edit configmap -n kube-system kube-proxy
configmap/kube-proxy edited

"重启kube-proxy确保配置生效"
$ kubectl rollout restart ds kube-proxy -n kube-system

"确认配置生效"
$ kubectl get configmap -n kube-system kube-proxy -o yaml | grep strictARP
      strictARP: true


创建 Eip 对象:


$ cat layer2-eip.yaml
apiVersion: network.kubesphere.io/v1alpha2
kind: Eip
metadata:
  name: layer2-eip
spec:
  address: 172.16.107.201-172.16.107.206  # Eip必须为Node相同网段但是未使用的IP地址池
  interface: enp1s0
  protocol: layer2

$ kubectl apply -f layer2-eip.yaml 
eip.network.kubesphere.io/layer2-eip created

$ kubectl get eip
NAME         CIDR                            USAGE   TOTAL
layer2-eip   172.16.107.201-172.16.107.206           6


创建测试服务:


apiVersion: apps/v1
kind: Deployment
metadata:
  name: myapp-lb
  namespace: qingyun
spec:
  selector:
    matchLabels:
      app: myapp-lb
  replicas: 1
  template:
    metadata:
      labels:
        app: myapp-lb
    spec:
      containers:
      - name: myapp-lb
        image: zhangyyhub/myapp:v1.0
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80

---

apiVersion: v1
kind: Service
metadata:
  name: myapp-lb-service
  namespace: qingyun
  annotations:
    lb.kubesphere.io/v1alpha1: openelb               # 指定Service使用OpenELB
    protocol.openelb.kubesphere.io/v1alpha1: layer2  # 指定OpenELB使用第2层模式
    eip.openelb.kubesphere.io/v1alpha2: layer2-eip   # 指定OpenELB使用的Eip对象
spec:
  selector:
    app: myapp-lb
  ports:
  - protocol: TCP
    port: 80
    targetPort: 80
  type: LoadBalancer
  externalTrafficPolicy: Cluster
  # Cluster: OpenELB从所有Kubernetes集群节点中随机选择一个节点来处理Service请求。也可以通过kube-proxy访问其他节点上的Pod。
  # Local: OpenELB会在Kubernetes集群中随机选择一个包含Pod的节点来处理Service请求。只能访问选定节点上的Pod。
  
  # 使用 loadBalancerIP 字段从而指定VIP
  # loadBalancerIP: 10.31.88.113


"部署"
$ kubectl apply -f myapp-layer2-lb.yaml 
deployment.apps/myapp-lb created
service/myapp-lb-service created

"查看pod&service"
$ kubectl get pod,svc -n qingyun
NAME                           READY   STATUS    RESTARTS   AGE
pod/myapp-lb-cf589d555-zcf8p   1/1     Running   0          32s

NAME                       TYPE           CLUSTER-IP    EXTERNAL-IP      PORT(S)        AGE
service/myapp-lb-service   LoadBalancer   10.102.62.4   172.16.107.201   80:30591/TCP   32s

$ ip neigh | grep "172.16.107.201"
172.16.107.201 dev enp1s0  FAILED
$ arp -a | grep "172.16.107.201"
master (172.16.107.201) at <incomplete> on enp1s0


验证测试服务:


$ curl http://172.16.107.201
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>


2.3.2 BGP 示例


要使用 BGP 模式,您的路由器必须支持 BGP 和等价多路径(ECMP)路由。

3、注意事项


如果你的 kubernets 集群是在云上的,可以测试 layer2 模式,但最好还是使用云服务商提供的 Cloud LoadBalancer plugin。OpenELB 是为非云上的集群提供服务的。

4、结果检查


OpenELB 各模式下进行分别验证流量。


相关文章

Linux】项目自动化构建工具-make/Makefile 详解

Linux】项目自动化构建工具-make/Makefile 详解

 在Linux及类Unix系统中,自动化构建项目是提高开发效率、减少重复劳动的关键环节。make工具及其配置文件Makefile是实现这一目标的重要工具组合。它们通过定义一系列规则和依赖关系,自动执行...

Flume使用案例之实时读取本地文件到HDFS

Flume实时读取本地文件到HDFS1.  创建flume-hdfs.conf文件# 1 agenta2.sources = r2a2.sinks = k2a2.channels = c2 # 2 s...

Ldap部署

安装ldapyum -y install openldap compat-openldap openldap-clients openldap-servers openldap-servers-sql...

数据湖技术之iceberg(十)Structured Streaming实时写入Iceberg

数据湖技术之iceberg(十)Structured Streaming实时写入Iceberg

目前Spark中Structured Streaming只支持实时向Iceberg中写入数据,不支持实时从Iceberg中读取数据,下面案例我们将使用Structured Streaming从Kafk...

emr部署hive并适配达梦数据库

emr部署hive并适配达梦数据库

一、达梦 用户、数据库初始化1、创建hive的元数据库create tablespace hive_meta datafile '/dm8/data/DAMENG/hive_meta.dbf' siz...

Clickhouse MergeTree原理(二)—— 表和分区的维护

MergeTree是Clickhouse中最核心的存储引擎。上一篇文章中,我们介绍了MergeTree的基本结构。1、MergeTree由分区(partiton)和part组成。2、Part是Merg...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。