Spring Cloud Sleuth 之Greenwich版本全攻略

微服務架構是一個分佈式架構,微服務系統按業務劃分服務單元,一個微服務系統往往有很多個服務單元。由於服務單元數量衆多,業務的複雜性較高,如果出現了錯誤和異常,很難去定位。主要體現在一個請求可能需要調用很多個服務,而內部服務的調用複雜性決定了問題難以定位。所以在微服務架構中,必須實現分佈式鏈路追蹤,去跟進一個請求到底有哪些服務參與,參與的順序又是怎樣的,從而達到每個請求的步驟清晰可見,出了問題能夠快速定位的目的。

image

在微服務系統中,一個來自用戶的請求先到達前端A(如前端界面),然後通過遠程調用,到達系統的中間件B、C(如負載均衡、網關等),最後到達後端服務D、E,後端經過一系列的業務邏輯計算,最後將數據返回給用戶。對於這樣一個請求,經歷了這麼多個服務,怎麼樣將它的請求過程用數據記錄下來呢?這就需要用到服務鏈路追蹤。

Spring Cloud Sleuth

Spring Cloud Sleuth 爲服務之間調用提供鏈路追蹤。通過 Sleuth 可以很清楚的瞭解到一個服務請求經過了哪些服務,每個服務處理花費了多長。從而讓我們可以很方便的理清各微服務間的調用關係。此外 Sleuth 可以幫助我們:

  • 耗時分析: 通過 Sleuth 可以很方便的瞭解到每個採樣請求的耗時,從而分析出哪些服務調用比較耗時;
  • 可視化錯誤: 對於程序未捕捉的異常,可以通過集成 Zipkin 服務界面上看到;
  • 鏈路優化: 對於調用比較頻繁的服務,可以針對這些服務實施一些優化措施。

Google開源了Dapper鏈路追蹤組件,並在2010年發表了論文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,這篇論文是業內實現鏈路追蹤的標杆和理論基礎,具有很高的參考價值。

image

Spring Cloud Sleuth採用了Google的開源項目Dapper的專業術語。

  • Span:基本工作單元,發送一個遠程調度任務就會產生一個Span,Span是用一個64位ID唯一標識的,Trace是用另一個64位ID唯一標識的。Span還包含了其他的信息,例如摘要、時間戳事件、Span的ID以及進程ID。
  • Trace:由一系列Span組成的,呈樹狀結構。請求一個微服務系統的API接口,這個API接口需要調用多個微服務單元,調用每個微服務單元都會產生一個新的Span,所有由這個請求產生的Span組成了這個Trace。
  • Annotation:用於記錄一個事件,一些核心註解用於定義一個請求的開始和結束,這些註解如下。

    • cs-Client Sent:客戶端發送一個請求,這個註解描述了Span的開始。
    • sr-Server Received:服務端獲得請求並準備開始處理它,如果將其sr減去cs時間戳,便可得到網絡傳輸的時間。
    • ss-Server Sent:服務端發送響應,該註解表明請求處理的完成(當請求返回客戶端),用ss的時間戳減去sr時間戳,便可以得到服務器請求的時間。
    • cr-Client Received:客戶端接收響應,此時Span結束,如果cr的時間戳減去cs時間戳,便可以得到整個請求所消耗的時間。

Spring Cloud Sleuth 也爲我們提供了一套完整的鏈路解決方案,Spring Cloud Sleuth 可以結合 Zipkin,將信息發送到 Zipkin,利用 Zipkin 的存儲來存儲鏈路信息,利用 Zipkin UI 來展示數據。

Zipkin

Zipkin是一種分佈式鏈路追蹤系統。 它有助於收集解決微服務架構中的延遲問題所需的時序數據。 它管理這些數據的收集和查找。 Zipkin的設計基於Google Dapper論文。

跟蹤器存在於應用程序中,記錄請求調用的時間和元數據。跟蹤器使用庫,它們的使用對用戶是無感知的。例如,Web服務器會在收到請求時和發送響應時會記錄相應的時間和一些元數據。一次完整鏈路請求所收集的數據被稱爲Span。

我們可以使用它來收集各個服務器上請求鏈路的跟蹤數據,並通過它提供的 REST API 接口來輔助我們查詢跟蹤數據以實現對分佈式系統的監控程序,從而及時地發現系統中出現的延遲升高問題並找出系統性能瓶頸的根源。除了面向開發的 API 接口之外,它也提供了方便的 UI 組件來幫助我們直觀的搜索跟蹤信息和分析請求鏈路明細,比如:可以查詢某段時間內各用戶請求的處理時間等。
Zipkin 提供了可插拔數據存儲方式:In-Memory、MySql、Cassandra 以及 Elasticsearch。接下來的測試爲方便直接採用 In-Memory 方式進行存儲,生產推薦 Elasticsearch.

image

上圖展示了 Zipkin 的基礎架構,它主要由 4 個核心組件構成:

  • Collector:收集器組件,它主要用於處理從外部系統發送過來的跟蹤信息,將這些信息轉換爲 Zipkin 內部處理的 Span 格式,以支持後續的存儲、分析、展示等功能。
  • Storage:存儲組件,它主要對處理收集器接收到的跟蹤信息,默認會將這些信息存儲在內存中,我們也可以修改此存儲策略,通過使用其他存儲組件將跟蹤信息存儲到數據庫中。
  • RESTful API:API 組件,它主要用來提供外部訪問接口。比如給客戶端展示跟蹤信息,或是外接系統訪問以實現監控等。
  • Web UI:UI 組件,基於 API 組件實現的上層應用。通過 UI 組件用戶可以方便而有直觀地查詢和分析跟蹤信息。

案例實戰

在本案例一共有三個應用,分別爲註冊中心,eureka-server、eureka-client、eureka-client-feign,三個應用的基本信息如下:

應用名 端口 作用
eureka-server 8761 註冊中心
eureka-client 8763 服務提供者
eureka-client-feign 8765 服務消費者

其中eureka-server 應用爲註冊中心,其他兩個應用向它註冊。eureka-client爲服務提供者,提供了一個RESTAPI,eureka-client-feign爲服務消費者,通過Feign Client向服務提供者消費服務。

在之前的文章已經講述瞭如何如何搭建服務註冊中心,在這裏就省略這一部分內容。服務提供者提供一個REST接口,服務消費者通過FeignClient消費服務。

服務提供者

eureka-client服務提供者,對外提供一個RESTAPI,並向服務註冊中心註冊,這部分內容,不再講述,見源碼。需要在工程的pom文件加上sleuth的起步依賴和zipkin的起步依賴,代碼如下:

<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>

在工程的配置文件application.yml需要做以下的配置:

spring:
  sleuth:
    web:
      client:
        enabled: true
    sampler:
      probability: 1.0 # 將採樣比例設置爲 1.0,也就是全部都需要。默認是 0.1
  zipkin:
    base-url: http://localhost:9411/ # 指定了 Zipkin 服務器的地址

其中spring.sleuth.web.client.enable爲true設置的是web開啓sleuth功能;spring.sleuth.sampler.probability可以設置爲小數,最大值爲1.0,當設置爲1.0時就是鏈路數據100%收集到zipkin-server,當設置爲0.1時,即10%概率收集鏈路數據;spring.zipkin.base-url設置zipkin-server的地址。

對外提供一個Api,代碼如下:


@RestController
public class HiController {

    @Value("${server.port}")
    String port;
    @GetMapping("/hi")
    public String home(@RequestParam String name) {
        return "hi "+name+",i am from port:" +port;
    }

}

服務消費者

服務消費者通過FeignClient消費服務提供者提供的服務。同服務提供者一樣,需要在工程的pom文件加上sleuth的起步依賴和zipkin的起步依賴,另外也需要在配置文件application.yml做相關的配置,具體同服務提供者。

服務消費者通過feignClient進行服務消費,feignclient代碼如下:


@FeignClient(value = "eureka-client",configuration = FeignConfig.class)
public interface EurekaClientFeign {

    @GetMapping(value = "/hi")
    String sayHiFromClientEureka(@RequestParam(value = "name") String name);
}

servcie層代碼如下:

@Service
public class HiService {

    @Autowired
    EurekaClientFeign eurekaClientFeign;

 
    public String sayHi(String name){
        return  eurekaClientFeign.sayHiFromClientEureka(name);
    }
}

controller代碼如下:

@RestController
public class HiController {
    @Autowired
    HiService hiService;

    @GetMapping("/hi")
    public String sayHi(@RequestParam( defaultValue = "forezp",required = false)String name){
        return hiService.sayHi(name);
    }

上面的代碼對外暴露一個API,通過FeignClient的方式調用eureka-client的服務。

zipkin-server

在Spring Cloud D版本,zipkin-server通過引入依賴的方式構建工程,自從E版本之後,這一方式改變了,採用官方的jar形式啓動,所以需要通過下載官方的jar來啓動,也通過以下命令一鍵啓動:

curl -sSL https://zipkin.io/quickstart.sh | bash -s
java -jar zipkin.jar

上面的第一行命令會從zipkin官網下載官方的jar包。
如果是window系統,建議使用gitbash執行上面的命令。

如果用 Docker 的話,使用以下命令:


docker run -d -p 9411:9411 openzipkin/zipkin

通過java -jar zipkin.jar的方式啓動之後,在瀏覽器上訪問lcoalhost:9411,顯示的界面如下:

1.png

鏈路數據驗證

依次啓動eureka-server,eureka-client,eureka-client-feign的三個應用,等所有應用啓動完成後,在瀏覽器上訪問http://localhost:8765/hi(如果報錯,是服務與發現需要一定的時間,耐心等待幾十秒),訪問成功後,再次在瀏覽器上訪問zipkin-server的頁面,顯示如下:

2.png

從上圖可以看出每次請求所消耗的時間,以及一些span的信息。

3.png

從上圖可以看出具體的服務依賴關係,eureka-feign-client依賴了eureka-client。

使用rabbitmq進行鏈路數據收集

在上面的案例中使用的http請求的方式將鏈路數據發送給zipkin-server,其實還可以使用rabbitmq的方式進行服務的消費。使用rabbitmq需要安裝rabbitmq程序,下載地址http://www.rabbitmq.com/

下載完成後,需要eureka-client和eureka-client-feign的起步依賴加上rabbitmq的依賴,依賴如下:

<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-stream-binder-rabbit</artifactId>
</dependency>

在配置文件上需要配置rabbitmq的配置,配置信息如下:

spring:
  rabbitmq:
    host: localhost
    username: guest
    password: guest
    port: 5672

另外需要把spring.zipkin.base-url去掉。

在上面2個工程中,rabbitmq通過發送鏈路數據,那麼zipkin-server是怎麼樣知道rabbitmq的地址呢,怎麼監聽收到的鏈路數據呢?這需要在程序啓動的時候,通過環境變量的形式到環境中,然後zikin-server從環境變量中讀取。
可配置的屬性如下:

屬性 環境變量 描述
zipkin.collector.rabbitmq.addresses RABBIT_ADDRESSES 用逗號分隔的 RabbitMQ 地址列表,例如localhost:5672,localhost:5673
zipkin.collector.rabbitmq.password RABBIT_PASSWORD 連接到 RabbitMQ 時使用的密碼,默認爲 guest
zipkin.collector.rabbitmq.username RABBIT_USER 連接到 RabbitMQ 時使用的用戶名,默認爲guest
zipkin.collector.rabbitmq.virtual-host RABBIT_VIRTUAL_HOST 使用的 RabbitMQ virtual host,默認爲 /
zipkin.collector.rabbitmq.use-ssl RABBIT_USE_SSL 設置爲true則用 SSL 的方式與 RabbitMQ 建立鏈接
zipkin.collector.rabbitmq.concurrency RABBIT_CONCURRENCY 併發消費者數量,默認爲1
zipkin.collector.rabbitmq.connection-timeout RABBIT_CONNECTION_TIMEOUT 建立連接時的超時時間,默認爲 60000毫秒,即 1 分鐘
zipkin.collector.rabbitmq.queue RABBIT_QUEUE 從中獲取 span 信息的隊列,默認爲 zipkin

比如,通過以下命令啓動:

RABBIT_ADDRESSES=localhost java -jar zipkin.jar

上面的命令等同於一下的命令:

java -jar zipkin.jar --zipkin.collector.rabbitmq.addressed=localhost

用上面的2條命令中的任何一種方式重新啓動zipkin-server程序,並重新啓動eureka-client、eureka-server、eureka-client-feign,動完成後在瀏覽器上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,就可以看到通過Http方式發送鏈路數據一樣的接口。

自定義Tag

在頁面上可以查看每個請求的traceId,每個trace又包含若干的span,每個span又包含了很多的tag,自定義tag可以通過Tracer這個類來自定義。


@Autowired
Tracer tracer;

 @GetMapping("/hi")
    public String home(@RequestParam String name) {
        tracer.currentSpan().tag("name","forezp");
        return "hi "+name+",i am from port:" +port;
    }

將鏈路數據存儲在Mysql數據庫中

上面的例子是將鏈路數據存在內存中,只要zipkin-server重啓之後,之前的鏈路數據全部查找不到了,zipkin是支持將鏈路數據存儲在mysql、cassandra、elasticsearch中的。
現在講解如何將鏈路數據存儲在Mysql數據庫中。
首先需要初始化zikin存儲在Mysql的數據的scheme,可以在這裏查看https://github.com/openzipkin...,具體如下:

CREATE TABLE IF NOT EXISTS zipkin_spans (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
  `trace_id` BIGINT NOT NULL,
  `id` BIGINT NOT NULL,
  `name` VARCHAR(255) NOT NULL,
  `parent_id` BIGINT,
  `debug` BIT(1),
  `start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL',
  `duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_spans ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `id`) COMMENT 'ignore insert on duplicate';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`, `id`) COMMENT 'for joining with zipkin_annotations';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds';
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and getSpanNames';
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces ordering and range';

CREATE TABLE IF NOT EXISTS zipkin_annotations (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
  `trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
  `span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
  `a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1',
  `a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB',
  `a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation',
  `a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp',
  `endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null',
  `endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint is null, or no IPv6 address',
  `endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
  `endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`, `span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames';
ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`) COMMENT 'for dependencies job';

CREATE TABLE IF NOT EXISTS zipkin_dependencies (
  `day` DATE NOT NULL,
  `parent` VARCHAR(255) NOT NULL,
  `child` VARCHAR(255) NOT NULL,
  `call_count` BIGINT,
  `error_count` BIGINT
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(`day`, `parent`, `child`);

在數據庫中初始化上面的腳本之後,需要做的就是zipkin-server如何連接數據庫。zipkin如何連數據庫同連接rabbitmq一樣。zipkin連接數據庫的屬性所對應的環境變量如下:

屬性 環境變量 描述
zipkin.torage.type STORAGE_TYPE 默認的爲mem,即爲內存,其他可支持的爲cassandra、cassandra3、elasticsearch、mysql
zipkin.torage.mysql.host MYSQL_HOST 數據庫的host,默認localhost
zipkin.torage.mysql.port MYSQL_TCP_PORT 數據庫的端口,默認3306
zipkin.torage.mysql.username MYSQL_USER 連接數據庫的用戶名,默認爲空
zipkin.torage.mysql.password MYSQL_PASS 連接數據庫的密碼,默認爲空
zipkin.torage.mysql.db MYSQL_DB zipkin使用的數據庫名,默認是zipkin
zipkin.torage.mysql.max-active MYSQL_MAX_CONNECTIONS 最大連接數,默認是10
STORAGE_TYPE=mysql MYSQL_HOST=localhost MYSQL_TCP_PORT=3306 MYSQL_USER=root MYSQL_PASS=123456 MYSQL_DB=zipkin java -jar zipkin.jar

等同於以下的命令

java -jar zipkin.jar --zipkin.torage.type=mysql --zipkin.torage.mysql.host=localhost --zipkin.torage.mysql.port=3306 --zipkin.torage.mysql.username=root --zipkin.torage.mysql.password=123456

使用上面的命令啓動zipkin.jar工程,然後再瀏覽數上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,可以看到鏈路數據。這時去數據庫查看數據,也是可以看到存儲在數據庫的鏈路數據,如下:

微信截圖_20190129154520.png

這時重啓應用zipkin.jar,再次在瀏覽器上訪問http://localhost:9411/zipkin/,仍然可以得到之前的結果,證明鏈路數據存儲在數據庫中,而不是內存中。

將鏈路數據存在在Elasticsearch中

zipkin-server支持將鏈路數據存儲在ElasticSearch中。讀者需要自行安裝ElasticSearch和Kibana,下載地址爲https://www. elastic.co/products/elasticsearch。安裝完成後啓動,其中ElasticSearch的默認端口號爲9200,Kibana的默認端口號爲5601。

同理,zipkin連接elasticsearch也是從環境變量中讀取的,elasticsearch相關的環境變量和對應的屬性如下:

屬性 環境變量 描述
zipkin.torage.elasticsearch.hosts ES_HOSTS ES_HOSTS,默認爲空
zipkin.torage.elasticsearch.pipeline ES_PIPELINE ES_PIPELINE,默認爲空
zipkin.torage.elasticsearch.max-requests ES_MAX_REQUESTS ES_MAX_REQUESTS,默認爲64
zipkin.torage.elasticsearch.timeout ES_TIMEOUT ES_TIMEOUT,默認爲10s
zipkin.torage.elasticsearch.index ES_INDEX ES_INDEX,默認是zipkin
zipkin.torage.elasticsearch.date-separator ES_DATE_SEPARATOR ES_DATE_SEPARATOR,默認爲“-”
zipkin.torage.elasticsearch.index-shards ES_INDEX_SHARDS ES_INDEX_SHARDS,默認是5
zipkin.torage.elasticsearch.index-replicas ES_INDEX_REPLICAS ES_INDEX_REPLICAS,默認是1
zipkin.torage.elasticsearch.username ES_USERNAME ES的用戶名,默認爲空
zipkin.torage.elasticsearch.password ES_PASSWORD ES的密碼,默認是爲空

採用以下命令啓動zipkin-server:


STORAGE_TYPE=elasticsearch ES_HOSTS=http://localhost:9200 ES_INDEX=zipkin java -jar zipkin.jar
java -jar zipkin.jar --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200 --ES_INDEX=zipkin 
java -jar zipkin.jar --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200 --ES_INDEX=zipkin 
java -jar zipkin.jar --zipkin.torage.type=elasticsearch --zipkin.torage.elasticsearch.hosts=http://localhost:9200 --zipkin.torage.elasticsearch.index=zipkin 

啓動完成後,然後在瀏覽數上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,可以看到鏈路數據。這時鏈路數據存儲在ElasticSearch。

在zipkin上展示鏈路數據

鏈路數據存儲在ElasticSearch中,ElasticSearch可以和Kibana結合,將鏈路數據展示在Kibana上。安裝完成Kibana後啓動,Kibana默認會向本地端口爲9200的ElasticSearch讀取數據。Kibana默認的端口爲5601,訪問Kibana的主頁http://localhost:5601,其界面如下圖所示。

圖片1.png

在上圖的界面中,單擊“Management”按鈕,然後單擊“Add New”,添加一個index。我們將在上節ElasticSearch中寫入鏈路數據的index配置爲“zipkin”,那麼在界面填寫爲“zipkin-*”,單擊“Create”按鈕,界面如下圖所示:

圖片2.png

創建完成index後,單擊“Discover”,就可以在界面上展示鏈路數據了,展示界面如下圖所示。

圖片3.png

參考資料

https://zipkin.io/

https://github.com/spring-clo...

https://cloud.spring.io/sprin...

https://github.com/openzipkin...

https://github.com/openzipkin...

https://windmt.com/2018/04/24...

https://segmentfault.com/a/11...

elatstic 版本爲2.6.x,下載地址:https://www.elastic.co/downlo...

http://www.cnblogs.com/JreeyQ...

image

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章