hive入門(二)被大佬鄙視了

昨日之日不可留,昨日之日多煩憂。接上一篇,接着入門

join後跑不動,同事大佬告訴我要加分區。

加了個day=20200518結果仍舊如此,當我採用兩個表中都有的分區關鍵詞時hour,告訴我關鍵詞相同。

FAILED: SemanticException Column hour Found in more than One Tables/Subqueries

咋整,搜了下發現,定義別名加上。左右連接也整上。

結果還是不對!!!!依然不對啊。人生啊,人生艱難啊!豈止你想到的這麼一點?更多的還沒體現出來。

倆表的都註明還是報錯。

where u.hour=10 r.hour=10;

FAILED: ParseException line 1:175 missing EOF at 'r' near '10'

大佬給我提示說,倆分區關鍵詞加and ,我試試,仍舊需要指定更具體的分區。。。

我問大佬這是正常的嗎?大佬說,你自己沒點*數嗎??我。。。。。。。。。昨天才入坑啊

最後得到了一個用戶的點擊記錄,但是我想得到多個用戶的記錄,難道執行多次???還是怎麼整啊?大佬懶得理我了,大佬,別跑,帶帶我,我很好帶的。

一朝入坑就面臨這麼難度的問題,這比培訓班效率高多了,至少達到培訓班的中等水平了吧,哈哈哈

em,大佬下午說,limit設置下大的數,似乎是哈,我limit100行,果然。但是下載10000條數據就費勁,這可是咋辦啊?

那麼問題來了,

請教下hive導出數據到本地有加速辦法沒啊?

羣裏有大佬說用Hadoop 啥的get ,,,,不得行啊,沒Hadoop相關知識,啥?換引擎,不能瞎搗鼓啊。

我這寫入速度太慢了,難道用insert overwrite這種??加個分區時間快了點。

另一問題來了怎麼過濾啊??一個關鍵詞的內容是NULL,怎麼去掉這種的啊。字符串類型的咋過濾呢??

用where來過濾就好了,寫在前面不行。

select age from student where age is not null

當導出的數據比較大時速度就比較快了,limit設置1千萬,說不定當天的數據就直接出來了,也不必限制啥了,設置100就要限制了,速度自然就慢了。

基本上解決目前的取用數據的問題。

拜拜。

順祝天下有情人終成眷屬!!

 

For Video Recommendation in Deep learning QQ Group 277356808

For Speech, Image, Video in deep learning QQ Group 868373192

I'm here waiting for you
 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章