Configsources

注册中心 #

意义 #

以SpringCloud为代表的SOA体系一般会依赖一个叫做服务注册中心的组件做微服务之间的沟通媒介,通俗的说就相当于一块公告版,上面记录的是所有服务的ip地址,如果哪个服务需要与其他服务沟通的时候就去看一眼公告版,拿到对方的ip之后再调用。这里面体现了一个思路,对于公告版而言,它会认为各微服务是固定不动的,如果微服务挪动了地方的话就得去公告版上更改ip。

而Kubernetes会认为服务实例是游离状态的,它可能被调度到集群中任意的一个节点上,Kubernetes会提供一个叫做service的云资源来描述这一组服务实例,在调用时无需关心对方现在被调度到了何方,也不用关心调度到了哪一个实例上,他们会被认为是为客户端提供一样的服务。

如果强行将SOA体系整个迁移到Kubernetes当中,在Kubernetes的调度下服务实例可能会发生频繁的变更,那么注册中心上就会不断发生注册与重新注册,带来的后果就是服务显得十分不稳定。

而这些问题的存在就得需要一套解决方案去平衡这些SOA架构的应用和kubernetes之间的关系。

为此,SolarMesh添加了对注册中心的支持。通过对流量的劫持以及对服务注册中心的代理实现SOA架构与Kubernetes的无缝对接,在不改任何代码的情况下享受kubernetes和服务网格带来的技术红利。

使用 #

在v1.10.1版本中对接注册中心,需要更改业务集群中networking-agent组件的配置,将注册中心的地址注册到networking-agent组件当中

样例:

先编辑networking-agent组件的configmap资源

$ kubectl edit configmap -n service-mesh networking-agent -o yaml

apiVersion: v1
data:
  application.yaml: |-
    defaultConfig:
      rootNamespace: service-mesh
    configSources:
      - 10.10.13.110:8848 # 这里填写注册中心的地址,直接安装时configSources字段是空的
kind: ConfigMap
metadata:
  annotations:
    kubectl.kubernetes.io/last-applied-configuration: |
      {"apiVersion":"v1","data":{"application.yaml":"defaultConfig:\n  rootNamespace: service-mesh\nconfigSources:\n  - 10.10.13.110:8849"},"kind":"ConfigMap","metadata":{"annotations":{},"labels":{"app":"networking-agent","helm.sh/chart":"solar-1.5.2"},"name":"networking-agent","namespace":"service-mesh"}}
  creationTimestamp: "2021-12-02T06:38:52Z"
  labels:
    app: networking-agent
    helm.sh/chart: solar-1.5.2
  managedFields:
  - apiVersion: v1
    fieldsType: FieldsV1
    fieldsV1:
      f:data:
        .: {}
        f:application.yaml: {}
      f:metadata:
        f:annotations:
          .: {}
          f:kubectl.kubernetes.io/last-applied-configuration: {}
        f:labels:
          .: {}
          f:app: {}
          f:helm.sh/chart: {}
    manager: kubectl-client-side-apply
    operation: Update
    time: "2021-12-02T06:38:52Z"
  name: networking-agent
  namespace: service-mesh
  resourceVersion: "18784274"
  selfLink: /api/v1/namespaces/service-mesh/configmaps/networking-agent
  uid: a8611d47-6895-442d-8f82-94cd5fb83a7f
    pod name

重启networking-agent组件

kubectl rollout restart deploy/networking-agent -n service-mesh

重启完成后,networking-agent组件将获得对配置的注册中心的支持,注入过sidecar的服务访问注册中心的接口流量会被劫持到networking-agent组件中做增强

试试看 #

示例项目 #

此次演示使用了一个典型的电商项目 mall-swarm

mall-swarm是一套微服务商城系统,采用了 Spring Cloud Hoxton & Alibaba、Spring Boot 2.3、Oauth2、MyBatis、Docker、Elasticsearch、Kubernetes等核心技术,同时提供了基于Vue的管理后台方便快速搭建系统。mall-swarm在电商业务的基础集成了注册中心、配置中心、监控中心、网关等系统功能。

由于mall-swarm依赖众多,部署麻烦,我们将mall-swarm的所有中间件做了一份k8s部署yaml,让所有的中间件都部署到集群内方便测试,改造后源码开源在mall-swarm-istio,所以我们这次使用mall-swarm改造版。

前置条件 #

  • k8s集群
  • 安装 SolarMesh v1.10.1 及以上版本
  • 部署nacos并且配置了networking-agent组件(nacos部署在集群内外都可以)

使用方法 #

创建namespace #

kubectl create ns mall

clone仓库 #


git clone https://github.com/solarmesh-cn/mall-swarm-istio.git

cd mall-swarm-istio

部署基础设施 #

kubectl apply -n mall -f mall-swarm/document/k8s/infra

导入sql #

连接集群 nodeport 33066端口上的mysql,导入 mall-swarm/document/sql 下面的sql文件

部署mall-swarm #

kubectl apply -n mall -f mall-swarm/document/k8s/service

接入sidecar #

gatewaymall-adminmall-authmall-portalmall-monitormall-search 服务接入sidecar,这里可以使用SolarMesh的手动接入功能,找到对应的workload进行接入

workload

访问页面 #

部署mall-admin-web

注: config/prod.env.js配置到集群内的gateway服务

访问mall-admin-web的页面即可

mall-admin-web

流量视图 #

在页面上试着多访问几次,让mall产生更多的流量。

此时查看流量视图,SolarMesh已经完整的监测到了整个项目的流量拓扑

nacos