學習hadoop需要什麼基礎

學習hadoop需要什麼基礎
“學習hadoop需要什麼基礎”這已經不是一個新鮮的話題了,隨便上網搜索一下就能找出成百上千篇的文章在講學習hadoop需要掌握的基礎。再直接的一點的問題就是——學Hadoop難嗎?用一句特別讓人無語的話回答就是:難不會,會不難!
學習hadoop需要什麼基礎
趁着學校放假的時間,寫了一些hadoop學習分享的文章。剛開始寫的幾篇稍微有點亂,其中有一篇就是在說學習hadoop需要什麼樣基礎的。所謂的難不會,會不難,必然也是建立你現在的基礎之上的。假定你連基礎的計算機基礎都沒有,那可能真的就是“難不會”了。如果你是有一個良好的計算機基礎的,比如,虛擬機的配置你會、擁有JAVA基礎和Linux操作基礎,那學習hadoop對你來可能就是“會不難”哦!
學習hadoop需要什麼基礎
當你看了很多介紹“學習hadoop需要什麼基礎”的文章後,你一定會得出一個結論,那就是學習hadoop所必須的三個基礎技能:JAVA基礎、Linux基礎、虛擬機基礎(上面已經說過了)。所有的文章在說完這個三個基礎之後,好像在告訴我們所有人,你只要有這個三個基礎就一定能夠學好hadoop,從此走上人生巔峯••••••其實,也不盡然,只有當你真正接觸了hadoop,你纔會發現真正的問題所在。
接觸過hadoop的人都知道,單獨搭建hadoo裏每個組建都需要運行環境、修改配置文件、測試等過程。如果僅僅是安裝一下運行環境就行了,那你就大錯特錯了,幾乎每個組件都是坑,這些坑幾乎是不可能讓初學者有一個愉快的學習過程的。Hadoop雖然起源於國外,但國內發行版本也蠻多,但是都沒有去解決環境搭建的問題。如果說他們沒有關注到運行環境搭建繁瑣這樣的問題話,我肯定是不相信的。真的不知道是他們現在的技術解決不了這個問題,還是不想去花費時間去解決?
今年3月初的時候,一個做程序開發的朋友給了一個國產發行版DKHadoop,是大快搜索開源的發行版hadoop。這款hadoop版本終於解決了運行環境搭建繁瑣的問題,它將開源社區裏多種常用的組件包括:HDFS,Hbase,Storm,Spark,Flume,Kafka,Mahout,ES等都集成到一個平臺裏,只需簡單的一鍵安裝就能完成,需要調用的時候直接調用即可,終於讓我覺得不用在像以前拿樣再去安裝調試等等。
學習hadoop需要什麼基礎
所以,我覺得學習hadoop需要的不僅僅是JAVA、虛擬機、Linux這三個方面的基礎,選擇的hadoop版本也是很重要。我們學習hadoop的重點是想要去開發一些東西,而不是爲了學習運行環境的安裝,這樣會讓人覺得有點本末倒置!
正在學習hadoop或者準備學習hadoop的朋友,個人還是比較推薦DKHadoop這套發行版,畢竟對新手而言算是很友好的了。我在用的是標準本三節點dkhadoop版本(放心,是免費的),雖然是免費的,但權限都是開放的。所以,對於新手或者個人研究而言已經夠用了。需要dkhadoop安裝包的,可以留言給我,可以打包發你!
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章