spark项目,读取或写入elasticSearch数据,报错NoClassDefFoundError: org/apache/logging/log4j的解决办法

      在用maven进行spark开发时,如果使用离线批处理,一般都有添加spark-core的jar包。

<dependency>
	<groupId>org.apache.spark</groupId>
	<artifactId>spark-core_2.11</artifactId>
	<version>2.4.0</version>
</dependency>

      如果使用的是cdh,那么还需要注意cdh的版本。

<dependency>
	<groupId>org.apache.spark</groupId>
	<artifactId>spark-core_2.11</artifactId>
	<version>2.4.0-cdh6.3.2</version>
</dependency>

添加es的jar包

      spark对es也支持的比较好,如果需要在spark项目中读取es的数据,则需要添加es的jar包:

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch</artifactId>
	<version>7.5.0</version>
</dependency>

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch-spark-20_2.11</artifactId>
	<version>7.5.0</version>
</dependency>

NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil 的解决办法

      然而启动项目时就会报错:java.lang.NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil
      个人分析:因为jar包冲突。因为是添加了elasticsearch的jar包才出现的问题,所以只需要把es的jar包中相关的jar排除就好了。
      解决方案如下:

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch</artifactId>
	<version>7.5.0</version>
	<exclusions>
		<exclusion>
			<groupId>org.apache.logging.log4j</groupId>
			<artifactId>log4j-api</artifactId>
		</exclusion>
	</exclusions>
</dependency>

<dependency>
	<groupId>org.elasticsearch</groupId>
	<artifactId>elasticsearch-spark-20_2.11</artifactId>
	<version>7.5.0</version>
</dependency>

      

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章