Druid不去讀取Kafka數據

因項目中需要用到Druid,所以近期研究了一下Druid如何使用…沒錯,就是使用,不是探索原理…

從搭建起Druid環境,到構造Druid Task,到從Kafka拉取數據,剛開始一切都很順利。
然鵝…用着用着Task突然不從Kafka讀數據了,百思不得其解,甚至懷疑過Kafka出現了問題,還去查了一下Kafka,最後卻發現這是個讓人很無語的問題,可能也怪自己眼瞎沒有好好看配置…

middleManager目錄下的runtime.properties配置文件中的兩個重要配置,看圖:
在這裏插入圖片描述
默認的配置是3,意味着同時最多有3個運行的Task…導致在測試的時候,正在測試的Task不一定是活着的,從而不去Kafka中讀取數據。
改爲100以後,一切都好了…web端的Task數量監控:
在這裏插入圖片描述
得知真相的我(哭暈在廁所…),除了菜還是菜…
雖然很菜,但還是得記錄下來的,萬一有哪位大佬一時疏忽忘了這檔子事,又恰好看到了此博客,豈不妙哉…

然後,拯救我的博客地址:
https://my.oschina.net/u/3247419/blog/1438933
最後,最主要的,感謝這位博主大哥!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章