YARN and MapReduce的【內存】優化配置詳解

轉載自:http://blog.itpub.net/30089851/viewspace-2127850/

在Hadoop2.x中, YARN負責管理MapReduce中的資源(內存, CPU等)並且將其打包成Container。
使之專注於其擅長的數據處理任務, 將無需考慮資源調度. 如下圖所示    
         
YARN會管理集羣中所有機器的可用計算資源. 基於這些資源YARN會調度應用(比如MapReduce)發來的資源請求, 然後YARN會通過分配Co
ntainer來給每個應用提供處理能力, Container是YARN中處理能力的基本單元, 是對內存, CPU等的封裝. 


目前我這裏的服務器情況:6臺slave,每臺:32G內存,2*6核CPU。

由於hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現,在執行mapreduce作業時,資源分爲map task和reduce task。
所有存在下面兩個參數分別設置每個TaskTracker可以運行的任務數:

點擊(此處)摺疊或打開

  1. <property>
  2.         <name>mapred.tasktracker.map.tasks.maximum</name>
  3.         <value>6</value>
  4.         <description><![CDATA[CPU數量=服務器CPU總核數 / 每個CPU的核數;服務器CPU總核數 = more /proc/cpuinfo | grep 'processor' | wc -l;每個CPU的核數 = more /proc/cpui nfo | grep 'cpu cores']]></description>
  5. </property>
  6. <property>
  7.         <name>mapred.tasktracker.reduce.tasks.maximum</name>
  8.         <value>4</value>
  9.         <description>一個task tracker最多可以同時運行的reduce任務數量</description>
  10. </property>
 

但是在hadoop 2.x中,引入了Yarn架構做資源管理,在每個節點上面運行NodeManager負責節點資源的分配,而slot也不再像1.x那樣區分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。

Yarn集羣的內存分配配置在yarn-site.xml文件中配置:

點擊(此處)摺疊或打開

  1. <property>
  2.         <name>yarn.nodemanager.resource.memory-mb</name>
  3.         <value>22528</value>
  4.         <discription>每個節點可用內存,單位MB</discription>
  5.     </property>
  6.     
  7.     <property>
  8.         <name>yarn.scheduler.minimum-allocation-mb</name>
  9.         <value>1500</value>
  10.         <discription>單個任務可申請最少內存,默認1024MB</discription>
  11.     </property>
  12.     
  13.     <property>
  14.         <name>yarn.scheduler.maximum-allocation-mb</name>
  15.         <value>16384</value>
  16.         <discription>單個任務可申請最大內存,默認8192MB</discription>
  17.     </property>

 

由於我Yarn集羣還需要跑Spark的任務,而Spark的Worker內存相對需要大些,所以需要調大單個任務的最大內存(默認爲8G)。

而Mapreduce的任務的內存配置:

點擊(此處)摺疊或打開

  1. <property>
  2.         <name>mapreduce.map.memory.mb</name>
  3.         <value>1500</value>
  4.         <description>每個Map任務的物理內存限制</description>
  5.     </property>
  6.     
  7.     <property>
  8.         <name>mapreduce.reduce.memory.mb</name>
  9.         <value>3000</value>
  10.         <description>每個Reduce任務的物理內存限制</description>
  11.     </property>
  12.     
  13.     <property>
  14.         <name>mapreduce.map.java.opts</name>
  15.         <value>-Xmx1200m</value>
  16.     </property>
  17.     
  18.     <property>
  19.         <name>mapreduce.reduce.java.opts</name>
  20.         <value>-Xmx2600m</value>
  21.     </property>

mapreduce.map.memory.mb:每個map任務的內存,應該是大於或者等於Container的最小內存。 
按照上面的配置:每個slave可以運行map的數據<= 22528/1500,reduce任務的數量<=22528/3000  。

mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts


mapreduce.map.java.opts
 / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80

yarn container這種模式下,JVM進程跑在container中,mapreduce.{map|reduce}.java.opts 能夠通過Xmx設置JVM最大的heap的使用,
一般設置爲
0.75倍的memory.mb

則預留些空間會存儲java,scala code等。

來自若澤大數據交流羣

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章