Flume 將 本地文件 通過 idea 進行wordcount

1.  安裝flume到Linux,配置環境

命令:vim /etc/profile, 添加:

2.  編輯flume的conf下的flume-env.sh.tempalte,更名爲flume-env.sh,並修改如下紅框內容,添加你的JAVA_HOME路徑

查看flume環境

命令:flume-ng version

3.  然後在 flume下創建一個文件夾   agentconf,在這個文件夾下創建一個conf文件,我將它命名爲log-avro.conf

在log-avro.conf 中配置source、sink、channel參數

注意: 這裏的 source 類型爲 Spooling Directory Source ,能監控某一個指定的文件目錄(通過將文件放入磁盤上的“spooling”目錄中,該信息源可以讓您攝取數據。此消息源將監視新文件的指定目錄,並在新文件出現時解析事件。事件解析邏輯是可插入的。在將一個給定的文件完全讀入通道後,它被重命名爲表示完成(或可選刪除))。

sink 類型爲 Avro Sink(avro sink形成了Flume分層收集支持的一半。 發送到此接收器的Flume事件將轉換爲Avro事件併發送到配置的主機名/端口對。 事件從已配置的通道以批量配置的批處理大小獲取)

channel 類型爲 memory (事件存儲在具有可配置最大大小的內存隊列中。適用場景:需要更高吞吐量並準備在代理故障的情況下丟失上載數據的流的理想選擇。   缺點:Memory Channel是一個不穩定的隧道,它在內存中存儲所有事件。如果進程異常停止,內存中的數據將不能讓恢復。受內存大小的限制。)

4.  接下來就可以啓動 flume 了,輸入如下命令:

 bin/flume-ng agent --conf ./conf/ -f ./agentconf/log-avro.conf -Dflume.root.logger=DEBUG,console -n a

5.  在idea中寫一個FlumeWordCount的scala文件,代碼如下:

package scala_data

import org.apache.spark.SparkConf
import org.apache.spark.streaming.flume.FlumeUtils
import org.apache.spark.streaming.{Seconds, StreamingContext}

object FlumeWordCount {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[2]").setAppName("networkWordCount")
    val ssc = new StreamingContext(conf,Seconds(5))

    val lines = FlumeUtils.createStream(ssc,"192.168.0.135",8888)

    val words = lines.map( x => new String( x.event.getBody.array()).trim).flatMap(_.split(" "))

    val pairs = words.map(word =>(word,1))
    val wordCount = pairs.reduceByKey(_+_)
    wordCount.print()
    ssc.start()
    ssc.awaitTermination()

  }
}

-------pom.xml 配置文件內容:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.swun.spark</groupId>
    <artifactId>sparkStreaming_demo</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>1.8</maven.compiler.source>
        <maven.compiler.target>1.8</maven.compiler.target>
        <encoding>UTF-8</encoding>
        <scala.version>2.11.12</scala.version>
        <spark.version>2.3.4</spark.version>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>${scala.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>


        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming-flume_2.11</artifactId>
            <version>${spark.version}</version>
        </dependency>
    </dependencies>
    <build>
        <sourceDirectory>src/main/scala</sourceDirectory>

        <plugins>
            <plugin>
                <groupId>org.scala-tools</groupId>
                <artifactId>maven-scala-plugin</artifactId>
                <version>2.15.2</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>

            <plugin>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.6.0</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                </configuration>
            </plugin>

            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-surefire-plugin</artifactId>
                <version>2.19</version>
                <configuration>
                    <skip>true</skip>
                </configuration>
            </plugin>
        </plugins>

    </build>

</project>

然後運行代碼,產生時間片的處理

 

6.  在我們指定的 /home/data/testdata 目錄下新建文件並編輯文件內容,就可以在idea裏看到單詞統計後的顯示了

 

 

至此,Flume 將 本地文件 通過 idea 進行wordcount就成功啦~~

 

 

我出的一些錯誤:

①hadoop的僞分佈集羣沒有開啓

②在配置log-avro.conf文件時,寫sink的內容

a1.sinks.k1.hostname = 192.168.0.135  我寫成了  

a1.sinks.k1.bind = 192.168.0.135   出了大錯!

一定要注意 log-avro.conf 裏的內容與 idea 代碼裏的主機名 端口號 配對哦!

~~~~~~

有時候運行 idea 不成功,多試一次看看,再來一次就可以了...

還要注意Linux機的時區和時間與本機的一致!!!

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章