原创 設計模式【總綱】

分類 1. 創建型 工廠、抽象工廠、單例、建造者、原型模式 2. 結構型 適配器、橋接、過濾器、組合、裝飾器、外觀、享元、代理 3. 行爲型 責任鏈、命令、解釋器、迭代器、中介者、備忘錄、觀察者、狀態、空對象、策略、模板、訪問者 原則 1

原创 [集羣監控]使用Prometheus + grafana + node-exporter

https://blog.csdn.net/sinat_35930259/article/details/80456470

原创 JVM內存模型

1. 總覽 2. 各部分存放內容 2.1 虛擬機棧:存放局部變量、基本數據類型 2.2 堆:最大的一塊,存放對象實例(-xmx設置最大內存, -xms設置初始化大小) 2.3 方法區:存儲已經加載好的類信息,常量,靜態變量,編譯後的代碼

原创 JVM GC

1. 堆內存分配 老年代2/3, 新生代1/3。其中,新生代可以分爲1個eden區及2個servival區(from和to,各佔新生代的1/10, 並且始終有一個區域空閒,輪流使用) 2. 存放對象 新生代:短期小對象直接存放於新生代中

原创 Dubbo接口調用源碼解析

1. 調用dubbo接口 2. 反射獲取方法名稱、參數等,並判斷是否是Object自帶的方法(toString(), hashCode(), equals(String name)), 不是則調用RPC框架獲取接口內容 3. 繼續調

原创 Canal問題歸納

canal問題歸納: 1. com.alibaba.otter.canal.parse.exception.CanalParseException: can't find start position for example 解決辦法:

原创 自定義類加載器加載衝突類

使用場景:項目中遇到使用不同版本的類時候因爲同路徑同名類的衝突可以使用自定義類加載器進行加載規避這一問題 相關代碼如下: 1. 類加載器: import java.io.File; import java.io.FileInputStr

原创 java堆,新生代,老年代,Eden空間,From Survivor空間,To Survivor空間

關於java堆,新生代,老年代,Eden空間,From Survivor空間,To Survivor空間 java進程運行過程中創建的對象存放在堆中,堆被劃分成兩個不同的區域:新生代 ( Young )、老

原创 Jdk工具記錄

1. jmap&jhat a. 查看虛擬機進程號 b. 生成內存快照文件 jmap -dump:format=b,file=a.bin 27088 c. 加載快照文件 jhat a.bin d. 訪問localhost:7000

原创 Linux下查看JDK安裝路徑

在安裝好Git、JDK和jenkins之後,就需要在jenkins中進行對應的設置,比如在全局工具配置模塊,需要寫入JDK的安裝路徑。 這篇博客,介紹幾種常見的在Linux中查看JDK路徑的方法。。。   1、which ja

原创 Map轉Bean(Java)

今天要寫一個Map轉Bean的,忘記了原來寫的時候用的什麼類,百度了很多也沒找到,廢了九牛二虎之力找到了,Mark一下,以備之後使用。 import org.apache.commons.beanutils.ConvertUtils;

原创 Mysql安裝【linux】

參考鏈接:https://blog.csdn.net/qq_37598011/article/details/93489404 相關報錯記錄: FATAL ERROR: please install the following Per

原创 scrapy模擬點擊

lua_click = ''' function main(splash, args) assert(splash:go(args.url)) assert(splash:wait(0.5)) local form = splash:s

原创 KAFKA消費者offset設置

【記錄】kafka從指定offset開始消費,參考鏈接http://www.pianshen.com/article/2025378464/ public class KafkaUtil { public static vo

原创 【Flink】No new data sinks have been defined since the last execution

在編寫Flink(1.9)批處理任務Demo的時候遇到報錯,報錯詳情: Exception in thread "main" java.lang.RuntimeException: No new data sinks have been