Hadoop 常見錯誤解決方法(12-13持續整理更新中)

1.錯誤日誌:Cannot create directory Name node is in safe mode.安全模式(由於使用ctrl+c強行退出引起)
  解決方法 $HADOOP_HOME/bin/hadoop dfsadmin -safemode leave

2.錯誤日誌:could only be replicated to 0 nodes, instead of 1 
  運行hadoop dfsadmin -report 查看運行狀況,發現
Configured Capacity: 0 (0 KB)
Present Capacity: 0 (0 KB)
DFS Remaining: 0 (0 KB)
DFS Used: 0 (0 KB)
DFS Used%: ?%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
可用節點爲0,datanode可能沒有啓動
運行jps
20211 SecondaryNameNode
14205 Jps
20043 NameNode
13996 RunJar
20290 JobTracker
發現datanode確實沒有啓動
解決方法:運行$HADOOP_HOME/bin/hadoop-daemon.sh start datanode

3.使用hive保留關鍵字作爲cloumn name會提示報錯
解決方法:使用反引號將關鍵字括起來:create table if not exists test(`update` bigint );

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章