spark項目,讀取或寫入elasticSearch數據,報錯NoClassDefFoundError: org/apache/logging/log4j的解決辦法

      在用maven進行spark開發時,如果使用離線批處理,一般都有添加spark-core的jar包。

<dependency>
	<groupId>org.apache.spark</groupId>
	<artifactId>spark-core_2.11</artifactId>
	<version>2.4.0</version>
</dependency>

      如果使用的是cdh,那麼還需要注意cdh的版本。

<dependency>
	<groupId>org.apache.spark</groupId>
	<artifactId>spark-core_2.11</artifactId>
	<version>2.4.0-cdh6.3.2</version>
</dependency>

添加es的jar包

      spark對es也支持的比較好,如果需要在spark項目中讀取es的數據,則需要添加es的jar包:

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch</artifactId>
	<version>7.5.0</version>
</dependency>

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch-spark-20_2.11</artifactId>
	<version>7.5.0</version>
</dependency>

NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil 的解決辦法

      然而啓動項目時就會報錯:java.lang.NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil
      個人分析:因爲jar包衝突。因爲是添加了elasticsearch的jar包纔出現的問題,所以只需要把es的jar包中相關的jar排除就好了。
      解決方案如下:

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch</artifactId>
	<version>7.5.0</version>
	<exclusions>
		<exclusion>
			<groupId>org.apache.logging.log4j</groupId>
			<artifactId>log4j-api</artifactId>
		</exclusion>
	</exclusions>
</dependency>

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch-spark-20_2.11</artifactId>
	<version>7.5.0</version>
</dependency>

      

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章