调用spark中的reduceByKey的坑

上图找不到reduceByKey方法,主要是rdd2可能为空的情况,而reduceByKey只能给确定的(k,v) 使用,这种不确定性导致无法调用reduceByKey,修改为下面的就好了

可以看到将if去掉就可以调用了 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章