1.下載Flink壓縮包
下載地址:http://flink.apache.org/downloads.html
根據集羣環境的情況下載相應的版本的flink壓縮包
hadoop2.6,Scala2.11,所以下載:flink-1.5.0-bin-hadoop26-scala_2.11.tgz
解壓
tar -zxf flink-1.5.0-bin-hadoop26-scala_2.11.tgz
配置
這裏面需要我們配置的有:slaves和flink-conf.yaml文件,這裏面masters文件是用來配置HA的,只要我們不配置HA的話,就不需要配置masters文件(flink也是master/slave結構,但是對於此時master的選擇是執行啓動腳本的機器爲master)。但是slave需要我們配置,配置對應的主機名即可(僞分佈式和分佈式的區別也就是實際上slave節點的個數,以及分佈式在多個節點上而已)。接下來需要我們配置的就是flink-conf.yaml,flink和spark還是有區別的,spark配置文件分spark-env.sh和spark-default.conf文件,而flink的配置都在flink-conf.yaml中完成配置。