Hprof使用及在Hadoop中MR任務使用

J2SE中提供了一個簡單的命令行工具來對java程序的cpu和heap進行 profiling,叫做HPROF。HPROF實際上是JVM中的一個native的庫,它會在JVM啓動的時候通過命令行參數來動態加載,併成爲 JVM進程的一部分。若要在java進程啓動的時候使用HPROF,用戶可以通過各種命令行參數類型來使用HPROF對java進程的heap或者 (和)cpu進行profiling的功能。HPROF產生的profiling數據可以是二進制的,也可以是文本格式的。這些日誌可以用來跟蹤和分析 java進程的性能問題和瓶頸,解決內存使用上不優的地方或者程序實現上的不優之處。二進制格式的日誌還可以被JVM中的HAT工具來進行瀏覽和分析,用 以觀察java進程的heap中各種類型和數據的情況。

在J2SE 5.0以後的版本中,HPROF已經被併入到一個叫做Java Virtual Machine Tool Interface(JVM TI)中。


HPROF的啓用



HPROF可以用來展示和跟蹤cpu的使用情況,內存分配的統計數據等。不僅如此,它還支持對 java進程完整的內存dump,所有線程的monitor stats數據。HPROF被啓用的方式可以如下: 
java -agentlib:hprof[=options] ToBeProfiledClass 
或者 
java -Xrunhprof[:options] ToBeProfiledClass 
HPROF如何構建java進程,併發送進程的jvm profiling信息,取決於HPROF在JVM啓動時從命令行獲取的參數指令。比如,以下指令將會獲取java進程的heap allocation的profile: 
java -agentlib:hprof=heap=sites ToBeProfiledClass 

HPROF 可以被指定的參數非常的多,以下是完整的列表: 

java -agentlib:hprof=help 


        HPROF: Heap and CPU Profiling Agent (JVM TI Demonstration Code) 

    hprof usage: java -agentlib:hprof=[help]|[<option>=<value>, ...] 

    Option Name and Value  Description                    Default 
    ---------------------  -----------                    ------- 
    heap=dump|sites|all    heap profiling                 all 
    cpu=samples|times|old  CPU usage                      off 
    monitor=y|n            monitor contention             n 
    format=a|b             text(txt) or binary output     a 
    file=<file>            write data to file             java.hprof[.txt] 
    net=<host>:<port>      send data over a socket        off 
    depth=<size>           stack trace depth              4 
    interval=<ms>          sample interval in ms          10 
    cutoff=<value>         output cutoff point            0.0001 
    lineno=y|n             line number in traces?         y 
    thread=y|n             thread in traces?              n 
    doe=y|n                dump on exit?                  y 
    msa=y|n                Solaris micro state accounting n 
    force=y|n              force output to <file>         y 
    verbose=y|n            print messages about dumps     y 

    Obsolete Options 
    ---------------- 
    gc_okay=y|n 

    Examples 
    -------- 
     - Get sample cpu information every 20 millisec, with a stack depth of 3: 
         java -agentlib:hprof=cpu=samples,interval=20,depth=3 classname 
     - Get heap usage information based on the allocation sites: 
         java -agentlib:hprof=heap=sites classname 

默認情況下,java進程profiling的信息(sites和dump)都會被 寫入到一個叫做java.hprof.txt的文件中。大多數情況下,該文件中都會對每個trace,threads,objects包含一個ID,每一 個ID代表一個不同的觀察對象。通常,traces會從300000開始。 

默認,force=y,會將所有的信息全部輸出到output文件中,所以如果含有 多個JVMs都採用的HRPOF enable的方式運行,最好將force=n,這樣能夠將單獨的JVM的profiling信息輸出到不同的指定文件。 

interval選項只在 cpu=samples的情況下生效,表示每隔多少毫秒對java進程的cpu使用情況進行一次採集。 

msa選項僅僅在Solaris系統下才有效, 表示會使用Solaris下的Micro State Accounting功能 

Examples



我們可以自己寫一個java應用程序,但是例子 裏將使用一個J2SE中已有的java應用程序,javac。 

Heap Allocation Profiles(heap=sites)



以下是對一個java代碼文件運行java編譯 器javac的heap allocation profile日誌的一部分: 
Command used: javac -J-agentlib:hprof=heap=sites Hello.java 
從日誌中可以看到程序在運行的每一個部分都消耗了多少內存的heap profile數據。以上日誌可以看出,整個程序的heap中有44.73%的被分配給了java.util.zip.ZipEntry對象。同時可以觀 察到,live data的數量跟所有allocated的總數是匹配atch的,這就說明GC可能在HPROF遍歷整個heap蒐集信息的很短的時間之前已經做過一次內 存回收了。通常情況下,live data的數量是會稍微少於所有allocated的總數的。 
    
Heap Dump (heap=dump)



該選項用來對java進程的heap進行進行完 全的dump: 
Command used: javac -J-agentlib:hprof=heap=dump Hello.java 
這樣會產生一個非常大的輸出文件,但是可以用任 何編輯器進行打開和搜索。但是,更好的觀察和分析辦法是通過HAT來進行分析和觀察。所有用heap=sites選項中獲取的信息這裏也都可以獲取到。另 外還加上一些特別的細節數據。如對每個對象的內存分配以及其引用的其他所有的對象。 
該選項會使用很多的內存,因爲它會將所有對象的 內存分配情況全部記錄下來,同時也可能會影響到應用程序本身的性能,因爲數據的產生會影響對象分配和資源回收。 

CPU Usage Sampling Profiles (cpu=samples)



HPROF可以用來蒐集java進程中各個threads的cpu使用情況: 
HPROF會對java進程中所有的threads進行週期性的stack traces採集。以上count一列就表示在採集中有多少次的stack trace被HPROF發現,並且是active的(而不是指一個method被執行了多少次)。這些stack traces包括cpu的使用,哪些是cpu消耗熱點。 
那麼以上日誌中可以看出什麼信息呢?第一,統計數據的樣本數據是很少的,只有126次的採樣,如 果是比較大的程序編譯,那麼應該能夠產生更有代表性的數據。第二,該數據跟以上對heap=sites的採集數據比較匹配,ZipFile耗費了比較多的 cpu時間和調用次數。在以上採集中,可以發現,跟ZipFile相關的的性能在javac中都會消耗的比較高,該ZipFile的stack trace如下:  

CPU Usage Times Profile (cpu=times)



HPROF可以通過對java應用程序的各個方 法中注入code的方式來蒐集各個method的執行情況。對每個methods的執行情況進行跟蹤,count以及時間消耗的蒐集。這種技術叫做 Byte Code Injection。所以這種採集方式的運行比cpu=samples要慢很多,以下是採集數據日誌:  
這裏的count代表着該方法被真正執行了多少次,並且方法thread消耗了多少精確的cpu 時間。


Hadoop中MR任務使用

使用方法:

  在JobConf中,有幾個配置選項是可以用來控制task profiling行爲的。比如對一個job,想要開啓對其tasks的profiling功能,並設置profiling相應的HPROF參數,可以按如下方式:

 

conf.setProfileEnabled(true);
conf.setProfileParams("-agentlib:hprof=cpu=samples,heap=sites,depth=6," +
"force=n,thread=y,verbose=n,file=%s");
conf.setProfileTaskRange(true, "0-2");

第一行表示打開profiling task的功能,該功能默認情況下是關閉的。調用該接口相當於設置配置選項 mapred.task.profile=true,可以利用這種方式在hadoop job提交命令行上動態指定。

 

第二行是通過conf接口來設置對tasks進行HPROF 的profiling的採集參數,採用profiling enable的方式運行的tasks,會採用每個task一個獨立的JVM的運行方式運行(即使enable了job的jvm reuse功能)。HPROF相關的採集參數設置,可以見其他資料。該選項也可以通過設置 mapred.task.profile.params 選項來指定。

 

第三行表示對job的哪些tasks需要進行profiling採集,第一true參數表示採集的是map tasks的性能數據,false的話表示採集reduce的性能數據,第二個參數表示只採集編號爲0,1,2的tasks的數據,(默認爲0-2)。如果想要採集除2,3,5編號的tasks,可以設置該參數爲: 0-1,4,6-

 

Example

   還是拿wordcount來舉例,提交job命令如下:

 

bin/hadoop jar hadoop-examples-0.20.2-luoli.jar wordcount /
  -D mapred.reduce.tasks=10 /
  -D keep.failed.task.files=fales /
  -D mapred.task.profile=true /
  -D mapred.task.profile.params="-agentlib:hprof=cpu=samples,heap=sites,depth=6,force=n,thread=y,verbose=n,file=%s" /
  $input /
  $output

 

這樣,當job運行時,就會對前三個task進行profiling的採集,採集信息包括cpu的採樣信息,內存分配的信息數據,stack trace 6層的堆棧信息。這裏需要注意的是,由於前三個tasks被進行了HPROF的性能採樣,所以這幾個tasks的執行效率會受到一定的影響,profiling的信息越詳細,性能影響就越大。如下圖,前三個map就明顯比其他的map運行的要慢很多。

不過這種運行方式通常都不是線上運行方式,而是用來進行優化調試,所以關係不大。

 

而當job運行完成後,這三個tasks對應的profiling日誌也會會傳到提交機器上,供用戶分析判斷。如下圖:

 

與此同時,tasks在tasktracker上也將這些profiling日誌信息記錄到了一個profile.out的日誌文件中,該文件通常位於tasktracker機器上的上${HADOOP_HOME}/logs/userlogs/${attempt_id}下,和該task的stderr,stdout,syslog保存在同一個目錄下,如下圖:

 

該文件中的內容,還可以通過taskdetails.jsp的頁面查看到。如下圖:

 

 

有了這些信息,相信對於任何一位hadoop應用程序的開發者來說,就擁有了足夠的定位job瓶頸的信息了。MR的應用程序開發同學,請優化您的job吧~~


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章