Druid不去读取Kafka数据

因项目中需要用到Druid,所以近期研究了一下Druid如何使用…没错,就是使用,不是探索原理…

从搭建起Druid环境,到构造Druid Task,到从Kafka拉取数据,刚开始一切都很顺利。
然鹅…用着用着Task突然不从Kafka读数据了,百思不得其解,甚至怀疑过Kafka出现了问题,还去查了一下Kafka,最后却发现这是个让人很无语的问题,可能也怪自己眼瞎没有好好看配置…

middleManager目录下的runtime.properties配置文件中的两个重要配置,看图:
在这里插入图片描述
默认的配置是3,意味着同时最多有3个运行的Task…导致在测试的时候,正在测试的Task不一定是活着的,从而不去Kafka中读取数据。
改为100以后,一切都好了…web端的Task数量监控:
在这里插入图片描述
得知真相的我(哭晕在厕所…),除了菜还是菜…
虽然很菜,但还是得记录下来的,万一有哪位大佬一时疏忽忘了这档子事,又恰好看到了此博客,岂不妙哉…

然后,拯救我的博客地址:
https://my.oschina.net/u/3247419/blog/1438933
最后,最主要的,感谢这位博主大哥!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章