亚洲一区精品自拍_2021年国内精品久久_男同十八禁gv在线观看_免费观看a级性爱黄片

當前位置:文章中心>技術教程
公告通知 新聞快遞 技術教程 產品展示

如何快速構建服務發(fā)現(xiàn)的高可用能力

發(fā)布時間:2022-01-20 點擊數(shù):933

作者:十眠


01

背景

Cloud Native


注冊中心作為承擔服務注冊發(fā)現(xiàn)的核心組件,是微服務架構中必不可少的一環(huán)。在 CAP 的模型中,注冊中心可以犧牲一點點數(shù)據(jù)一致性(C),即同一時刻每一個節(jié)點拿到的服務地址允許短暫的不一致,但必須要保證可用性(A)。因為一旦由于某些問題導致注冊中心不可用,或者服務連不上注冊中心,那么想要連接他的節(jié)點可能會因為無法獲取服務地址而對整個系統(tǒng)出現(xiàn)災難性的打擊。
1 一個真實的案例


全篇從一個真實的案例說起,某客戶在阿里云上使用 Kubernetes 集群部署了許多自己的微服務,由于某臺 ECS 的網卡發(fā)生了異常,雖然網卡異常很快恢復了,但是卻出現(xiàn)了大面積持續(xù)的服務不可用,業(yè)務受損。
我們來看一下這個問題鏈是如何形成的?


  1. ECS 故障節(jié)點上運行著 Kubernetes 集群的核心基礎組件 CoreDNS 的所有 Pod,且低版本 Kubernetes 集群缺少 NodeLocal DNSCache 的特性,導致集群 DNS 解析出現(xiàn)問題。


  2. 該客戶的服務發(fā)現(xiàn)使用了有缺陷的客戶端版本(Nacos-client 的 1.4.1 版本),這個版本的缺陷就是跟 DNS 有關——心跳請求在域名解析失敗后,會導致進程后續(xù)不會再續(xù)約心跳,只有重啟才能恢復。
  3. 個缺陷版本實際上是已知問題,阿里云在 5 月份推送了 Nacos-client 1.4.1 存在嚴重 bug 的公告,但客戶研發(fā)未收到通知,進而在生產環(huán)境中使用了這個版本。


    Nacos-client 1.4.1

    風險環(huán)環(huán)相扣,缺一不可。
    最終導致故障的原因是服務無法調用下游,可用性降低,業(yè)務受損。下圖示意的是客戶端缺陷導致問題的根因:


    Provider 客戶端

    1. Provider 客戶端在心跳續(xù)約時發(fā)生 DNS 異常;
    2. 心跳線程未能正確地處理這個 DNS 異常,導致線程意外退出了;
    3. 注冊中心的正常機制是,心跳不續(xù)約,30 秒后自動下線。由于 CoreDNS 影響的是整個 Kubernetes 集群的 DNS 解析,所以 Provider 的所有實例都遇到相同的問題,整個服務所有實例都被下線;
    4. 在 Consumer 這一側,收到推送的空列表后,無法找到下游,那么調用它的上游(比如網關)就會發(fā)生異常。

    回顧整個案例,每一環(huán)每個風險看起來發(fā)生概率都很小,但是一旦發(fā)生就會造成惡劣的影響。服務發(fā)現(xiàn)高可用是微服務體系中很重要的一環(huán),當然也是我們時常忽略的點。在阿里內部的故障演練中,這一直是必不可少的一個環(huán)節(jié)。


    02

    面向失敗的設計

    Cloud Native


    由于網絡環(huán)境的抖動比如 CoreDns 的異常,或者是由于某些因素導致我們的注冊中心不可用等情況,經常會出現(xiàn)服務批量閃斷的情況,但這種情況其實不是業(yè)務服務的不可用,如果我們的微服務可以識別到這是一種異常情況(批量閃斷或地址變空時),應該采取一種保守的策略,以免誤推從而導致全部服務出現(xiàn)"no provider"的問題,會導致所有的微服務不可用的故障,并且持續(xù)較長時間難以恢復。


    站在微服務角度上考慮,我們如何可以切段以上的問題鏈呢?以上的案例看起來是 Nacos-client 低版本造成的問題,但是如果我們用的是 zookeeper、eureka 等注冊中心呢?我們能拍著胸脯說,不會發(fā)生以上的問題嗎?面向失敗的設計原則告訴我們,如果注冊中心掛掉了,或者我們的服務連不上注冊中心了,我們需要有一個方式保證我們的服務正常調用,線上的業(yè)務持續(xù)不斷。


    本文介紹的是服務發(fā)現(xiàn)過程中的高可用的機制,從服務框架層面思考如何徹底解決以上的問題。


    1 服務發(fā)現(xiàn)過程中的高可用原理解析


    服務發(fā)現(xiàn)高可用-推空保護


    面向失敗的設計告訴我們,服務并不能完全相信注冊中心的通知的地址,當注冊中心的推送地址為空時候,服務調用肯定會出 no provider 錯誤,那么我們就忽略此次推送的地址變更。


    微服務治理中心

    微服務治理中心提供推空保護能力
    • 默認無侵入支持市面上近五年來的 Spring Cloud 與 Dubbo 框架

    • 無關注冊中心實現(xiàn),無需升級 client 版本


    服務發(fā)現(xiàn)高可用-離群實例摘除


    心跳續(xù)約是注冊中心感知實例可用性的基本途徑。但是在特定情況下,心跳存續(xù)并不能完全等同于服務可用。
    因為仍然存在心跳正常,但服務不可用的情況,例如:

    • Request 處理的線程池滿


    • 依賴的 RDS 連接異常導致出現(xiàn)大量慢 SQL


    • 某幾臺機器由于磁盤滿,或者是宿主機資源爭搶導致 load 很高



      此時服務并不能完全相信注冊中心的通知的地址,推送的地址中,可能存在一些服務質量低下的服務提供者,因此客戶端需要自己根據(jù)調用的結果來判斷服務地址的可用性與提供服務質量的好壞,來定向忽略某些地址。


      微服務治理中心提供離群實例摘除
      • 默認無侵入,支持市面上近五年來的 Spring Cloud 與 Dubbo 框架

      • 無關注冊中心實現(xiàn),無需升級 client 版本

      • 基于異常檢測的摘除策略:包含網絡異常和網絡異常 + 業(yè)務異常(HTTP 5xx)

      • 設置異常閾值、QPS 下限、摘除比例下限

      • 摘除事件通知、釘釘群告警

      離群實例摘除的能力是一個補充,根據(jù)特定接口的調用異常特征,來衡量服務的可用性。
      03

      動手實踐

      Cloud Native

      1 前提條件


      • 已創(chuàng)建 Kubernetes 集群,請參見創(chuàng)建 Kubernetes 托管版集群[1]。

      • 已開通 MSE 微服務治理專業(yè)版,請參見開通 MSE 微服務治理[2]。


      2 準備工作


      開啟 MSE 微服務治理


      1、開通微服務治理專業(yè)版:


      1. 單擊開通 MSE 微服務治理[3]。


      2. 微服務治理版本選擇專業(yè)版,選中服務協(xié)議,然后單擊立即開通。關于微服務治理的計費詳情,請參見價格說明[4]。

      2、安裝 MSE 微服務治理組件:


      1. 容器服務控制臺[5]左側導航欄中,選擇市場 > 應用目錄。
      2. 應用目錄頁面搜索框中輸入 ack-mse-pilot,單擊搜索圖標,然后單擊組件。
      3. 詳情頁面選擇開通該組件的集群,然后單擊創(chuàng)建。安裝完成后,在命名空間 mse-pilotmse-pilot-ack-mse-pilot 應用,表示安裝成功。

      3、為應用開啟微服務治理:
      1. 登錄 MSE 治理中心控制臺[6]。


      2. 在左側導航欄選擇微服務治理中心 > Kubernetes 集群列表


      3.  Kubernetes 集群列表頁面搜索目標集群,單擊搜索圖標,然后單擊目標集群操作列下方的管理。


      4. 集群詳情頁面命名空間列表區(qū)域,單擊目標命名空間操作列下方的開啟微服務治理。


      5. 開啟微服務治理對話框中單擊確認。

      部署 Demo 應用程序


      1. 容器服務控制臺[5]左側導航欄中,單擊集群。
      2. 集群列表頁面中,單擊目標集群名稱或者目標集群右側操作列下的詳情。
      3. 在集群管理頁左側導航欄中,選擇工作負載 > 無狀態(tài)。
      4. 無狀態(tài)頁面選擇命名空間,然后單擊使用 YAML 創(chuàng)建資源。
      5. 對模板進行相關配置,完成配置后單擊創(chuàng)建。本文示例中部署 sc-consumer、sc-consumer-empty、sc-provider,使用的是開源的 Nacos。

      部署示例應用(springcloud)


      YAML:
      				
      # 開啟推空保護的 sc-consumerapiVersion: apps/v1kind: Deploymentmetadata: name: sc-consumerspec: replicas: 1 selector: matchLabels: app: sc-consumer template: metadata: annotations: msePilotCreateAppName: sc-consumer labels: app: sc-consumer spec: containers: - env: - name: JAVA_HOME value: /usr/lib/jvm/java-1.8-openjdk/jre - name: spring.cloud.nacos.discovery.server-addr value: nacos-server:8848 - name: profiler.micro.service.registry.empty.push.reject.enable value: "true" image: registry.cn-hangzhou.aliyuncs.com/mse-demo-hz/demo:sc-consumer-0.1 imagePullPolicy: Always name: sc-consumer ports: - containerPort: 18091 livenessProbe: tcpSocket: port: 18091 initialDelaySeconds: 10 periodSeconds: 30# 無推空保護的sc-consumer-empty---apiVersion: apps/v1kind: Deploymentmetadata: name: sc-consumer-emptyspec: replicas: 1 selector: matchLabels: app: sc-consumer-empty template: metadata: annotations: msePilotCreateAppName: sc-consumer-empty labels: app: sc-consumer-empty spec: containers: - env: - name: JAVA_HOME value: /usr/lib/jvm/java-1.8-openjdk/jre - name: spring.cloud.nacos.discovery.server-addr value: nacos-server:8848 image: registry.cn-hangzhou.aliyuncs.com/mse-demo-hz/demo:sc-consumer-0.1 imagePullPolicy: Always name: sc-consumer-empty ports: - containerPort: 18091 livenessProbe: tcpSocket: port: 18091 initialDelaySeconds: 10 periodSeconds: 30# sc-provider---apiVersion: apps/v1kind: Deploymentmetadata: name: sc-providerspec: replicas: 1 selector: matchLabels: app: sc-provider strategy: template: metadata: annotations: msePilotCreateAppName: sc-provider labels: app: sc-provider spec: containers: - env: - name: JAVA_HOME value: /usr/lib/jvm/java-1.8-openjdk/jre - name: spring.cloud.nacos.discovery.server-addr value: nacos-server:8848 image: registry.cn-hangzhou.aliyuncs.com/mse-demo-hz/demo:sc-provider-0.3 imagePullPolicy: Always name: sc-provider ports: - containerPort: 18084 livenessProbe: tcpSocket: port: 18084 initialDelaySeconds: 10 periodSeconds: 30# Nacos Server---apiVersion: apps/v1kind: Deploymentmetadata: name: nacos-serverspec: replicas: 1 selector: matchLabels: app: nacos-server template: metadata: labels: app: nacos-server spec: containers: - env: - name: MODE value: standalone image: nacos/nacos-server:latest imagePullPolicy: Always name: nacos-server dnsPolicy: ClusterFirst restartPolicy: Always # Nacos Server Service 配置---apiVersion: v1kind: Servicemetadata: name: nacos-serverspec: ports: - port: 8848 protocol: TCP targetPort: 8848 selector: app: nacos-server type: ClusterIP

      我們只需在 Consumer 增加一個環(huán)境變量 profiler.micro.service.registry.empty.push.reject.enable=true,開啟注冊中心的推空保護(無需升級注冊中心的客戶端版本,無關注冊中心的實現(xiàn),支持 MSE 的 Nacos、eureka、zookeeper 以及自建的 Nacos、eureka、console、zookeeper 等)


      分別給 Consumer 應用增加 SLB 用于公網訪問



      以下分別使用 {sc-consumer-empty} 代表 sc-consumer-empty 應用的 slb 的公網地址,{sc-consumer} 代表 sc-consumer 應用的 slb 的公網地址。
      3 應用場景


      下面通過上述準備的 Demo 來分別實踐以下場景
      • 編寫測試腳本

      vi curl.sh
      				
      while :do result=`curl $1 -s` if [[ "$result" == *"500"* ]]; then echo `date +%F-%T` $result else echo `date +%F-%T` $result fi  sleep 0.1done


      • 測試,分別開兩個命令行,執(zhí)行如下腳本,顯示如下


      % sh curl.sh {sc-consumer-empty}:18091/user/rest2022-01-19-11:58:12 Hello from [18084]10.116.0.142!2022-01-19-11:58:12 Hello from [18084]10.116.0.142!2022-01-19-11:58:12 Hello from [18084]10.116.0.142!2022-01-19-11:58:13 Hello from [18084]10.116.0.142!2022-01-19-11:58:13 Hello from [18084]10.116.0.142!2022-01-19-11:58:13 Hello from [18084]10.116.0.142!


      % sh curl.sh {sc-consumer}:18091/user/rest2022-01-19-11:58:13 Hello from [18084]10.116.0.142!2022-01-19-11:58:13 Hello from [18084]10.116.0.142!2022-01-19-11:58:13 Hello from [18084]10.116.0.142!2022-01-19-11:58:14 Hello from [18084]10.116.0.142!2022-01-19-11:58:14 Hello from [18084]10.116.0.142!2022-01-19-11:58:14 Hello from [18084]10.116.0.142!


      并保持腳本一直在調用,觀察 MSE 控制臺分別看到如下情況




      • 將 coredns 組件縮容至數(shù)量 0,模擬 DNS 網絡解析異常場景。


      發(fā)現(xiàn)實例與 Nacos 的連接斷開且服務列表為空。


      • 模擬 DNS 服務恢復,將其擴容回數(shù)量 2。


      結果驗證


      在以上過程中保持持續(xù)的業(yè)務流量,我們發(fā)現(xiàn) sc-consumer-empty 服務出現(xiàn)大量且持續(xù)的報錯
      2022-01-19-12:02:37 {"timestamp":"2022-01-19T04:02:37.597+0000","status":500,"error":"Internal Server Error","message":"com.netflix.client.ClientException: Load balancer does not have available server for client: mse-service-provider","path":"/user/feign"}2022-01-19-12:02:37 {"timestamp":"2022-01-19T04:02:37.799+0000","status":500,"error":"Internal Server Error","message":"com.netflix.client.ClientException: Load balancer does not have available server for client: mse-service-provider","path":"/user/feign"}2022-01-19-12:02:37 {"timestamp":"2022-01-19T04:02:37.993+0000","status":500,"error":"Internal Server Error","message":"com.netflix.client.ClientException: Load balancer does not have available server for client: mse-service-provider","path":"/user/feign"}


      相比之下,sc-consumer 應用全流程沒有任何報錯

      • 只有重啟了 Provider,sc-consumer-empty 才恢復正常



      相比之下,sc-consumer 應用全流程沒有任何報錯


      后續(xù)


      我們當發(fā)生推空保護后,我們會上報事件、告警至釘釘群,同時建議配合離群實例摘除使用,推空保護可能會導致 Consumer 持有過多的 Provider 地址,當 Provider 地址為無效地址時,離群實例摘除可以對其進行邏輯隔離,保證業(yè)務的高可用。
      04

      Cloud Native


      保障云上業(yè)務的永遠在線,是 MSE 一直在追求的目標,本文通過面向失敗設計的服務發(fā)現(xiàn)高可用能力的分享,以及 MSE 的服務治理能力快速構建起服務發(fā)現(xiàn)高可用能力的演示,模擬了線上不可預期的服務發(fā)現(xiàn)相關異常發(fā)生時的影響以及我們如何預防的手段,展示了一個簡單的開源微服務應用應該如何構建起服務發(fā)現(xiàn)高可用能力。