將SPARK啓動和運行時的一些INFO信息過濾掉

場景一:windows平臺上Intellij IDEA運行spark

  打開spark安裝目錄下的conf 文件夾 D:\soft\spark\conf ,


將log4j.properties.template  複製重命名爲log4j.properties,將其中的INFO修改爲WARN(第二行位置) 後,只顯示WARN和ERROR信息。log4j.properties直接放至/src/main/resources/下,就可以了。


場景二 linux 環境下運行spark

1. cd $SPARK_HOME/conf目錄下,拷貝一個log4j.properties.template,命名爲log4j.properties

[plain] view plain copy
  1. $ cp log4j.properties.template log4j.properties  
2. 進入log4j.properties文件,將其中的INFO修改爲WARN(第二行位置) 後,只顯示WARN和ERROR信息。
[plain] view plain copy
  1. # Set everything to be logged to the console  
  2. log4j.rootCategory=WARN, console  
  3. log4j.appender.console=org.apache.log4j.ConsoleAppender  
  4. log4j.appender.console.target=System.err  
  5. log4j.appender.console.layout=org.apache.log4j.PatternLayout  
  6. log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n  
  7.   
  8. # Settings to quiet third party logs that are too verbose  
  9. log4j.logger.org.spark-project.jetty=WARN  
  10. log4j.logger.org.spark-project.jetty.util.component.AbstractLifeCycle=ERROR  
  11. log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO  
  12. log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO  
  13. log4j.logger.org.apache.parquet=ERROR  
  14. log4j.logger.parquet=ERROR  
  15.   
  16. # SPARK-9183: Settings to avoid annoying messages when looking up nonexistent UDFs in SparkSQL with Hive support  
  17. log4j.logger.org.apache.hadoop.hive.metastore.RetryingHMSHandler=FATAL  
  18. log4j.logger.org.apache.hadoop.hive.ql.exec.FunctionRegistry=ERROR  

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章