在用maven進行spark開發時,如果使用離線批處理,一般都有添加spark-core的jar包。
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.4.0</version>
</dependency>
如果使用的是cdh,那麼還需要注意cdh的版本。
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.4.0-cdh6.3.2</version>
</dependency>
添加es的jar包
spark對es也支持的比較好,如果需要在spark項目中讀取es的數據,則需要添加es的jar包:
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch</artifactId>
<version>7.5.0</version>
</dependency>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark-20_2.11</artifactId>
<version>7.5.0</version>
</dependency>
NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil 的解決辦法
然而啓動項目時就會報錯:java.lang.NoClassDefFoundError: org/apache/logging/log4j/util/ReflectionUtil
個人分析:因爲jar包衝突。因爲是添加了elasticsearch的jar包纔出現的問題,所以只需要把es的jar包中相關的jar排除就好了。
解決方案如下:
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch</artifactId>
<version>7.5.0</version>
<exclusions>
<exclusion>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-api</artifactId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark-20_2.11</artifactId>
<version>7.5.0</version>
</dependency>