原创 Spring boot 中 @Scheduled 不起作用的一個解決辦法

Spring boot 中 @Scheduled 不起作用的一個解決辦法 在 spring boot 應用中添加定時任務,按照網上的資料卻怎麼都不能啓動,都說是缺少了 @EnableScheduling,我在加上了後卻任然啓動不了

原创 Spring Cloud Stream 入門

Spring Cloud Stream 入門 使用 docker 啓動 rabbitmq 這裏注意獲取鏡像的時候要獲取management版本的,不要獲取last版本的,management版本的才帶有管理界面。 啓動 rabbi

原创 SVN 檢出部分文件

檢出稀疏目錄 svn checkout URL ---depth empty|files|immediates|infinity --depth的參數: empty 只包含目標文件或目錄,不包含子目錄 files

原创 基於 Jenkins、SVN、Harbor、Helm 和 Kubernetes 的 CI/CD

基於 Jenkins、SVN、Harbor、Helm 和 Kubernetes 的 CI/CD 本文介紹如何結合 Kubernetes + Jenkis + SVN + Harbor + Helm 實現一個完整的 CI/CD 流水

原创 CentOS7下yum安裝和配置NFS

CentOS7下yum安裝和配置NFS NFS 是 Network File System 的縮寫,即網絡文件系統。功能是讓客戶端通過網絡訪問不同主機上磁盤裏的數據,主要用在類Unix系統上實現文件共享的一種方法。 本例演示 Ce

原创 Helm jenkins 學習記錄

1 安裝 jenkins 1.1 helm 版本 $ helm version version.BuildInfo{Version:"v3.1.2", GitCommit:"d878d4d45863e42fd5cff6743294

原创 使用helm搭建動態存儲卷(PV/SC/PVC)

使用helm搭建動態存儲卷(PV/SC/PVC) 在日常學習測試kubernetes時,經常需要PersistentVolume把一些數據(例如:數據庫、日誌等)存儲起來,不隨着容器的刪除而丟失;關於PV、PVC、StorageC

原创 Springboot使用@JsonView過濾對象屬性

簡介 @JsonView是Jackson的一個註解,可以用來過濾序列化對象的字段屬性,是你可以選擇序列化對象哪些屬性,哪些過濾掉。 使用步驟 使用接口來聲明多個視圖 在值對象的get方法上指定視圖 在Controlle

原创 Java8-LocalDateTime記錄

Java8-LocalDateTime記錄 文中都使用的時區都是東8區,也就是北京時間。這是爲了防止服務器設置時區錯誤時導致時間不對,如果您是其他時區,請自行修改。 關鍵類介紹 – Instant:它代表的是時間戳 – Local

原创 請求的三種攔截彙總-filter,interceptor,filter

請求的三種攔截 需求:記錄所有 API 的處理時間 過濾器(Filter) 自定義filter package com.fengxuechao.seed.security.web.filter; import lombok.

原创 kafka設置某個topic的數據過期時間

kafka 單獨設置某個topic的數據過期時間 kafka 默認存放7天的臨時數據,如果遇到磁盤空間小,存放數據量大,可以設置縮短這個時間。 全局設置 修改 server.properties log.retention.hou

原创 Spring Cloud Consul應用下線後,健康檢查自動刪除無效服務

spring: cloud: consul: discovery: # 健康檢查失敗多長時間後,取消註冊 health-check-critical-timeout: 30s

原创 spring cloud consul 應用的多實例名的解決

之前使用eureka時,註冊服務的ID 是隨機數,eureka上不會出現同一服務多實例的問題。但是,換上了 consul 作爲註冊中心後,卻出現同一個服務擁有多個實例的問題,上次服務掛掉之後的實例還在註冊中心上掛着,每次重啓多一個

原创 在SpringBoot1.5.x下如何使RedisTokenStore集羣化

在SpringBoot1.5.x下如何使RedisTokenStore集羣化 在 spring boot 1.5.x 下 spring-boot-starter-data-redis 默認使用 jedis 作爲客戶端。 因爲 Je

原创 logback + Kafka + logstash 集成

logback + Kafka + logstash 集成 我們是通過 logback 打印日誌,然後將日誌通過 kafka 消息隊列發送到 Logstash,經過處理以後存儲到 Elasticsearch 中,然後通過 Kiba