JAVA API操作小文件合併至HDFS(筆記)

相關文件請自行創建!!!

package com.hadoop.hdfs;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FileUtil;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IOUtils;
/**

  • 合併小文件至 HDFS
  • */
    public class MergeSmallFilesToHDFS {
    private static FileSystem fs = null;
    private static FileSystem local = null;

    public static void main(String[] args) throws IOException,
    URISyntaxException {
    list();
    }

    /**

    • 數據集合並,並上傳至HDFS
    • throws IOException
      throws URISyntaxException
      /
      public static void list() throws IOException, URISyntaxException {
      // 讀取hadoop文件系統的配置
      Configuration conf = new Configuration();
      //文件系統訪問接口,注意:hdfs://master:9000修改成自己的HDFS地址
      URI uri = new URI("hdfs://master:9000");
      //創建FileSystem對象
      fs = FileSystem.get(uri, conf);
      // 獲得本地文件系統
      local = FileSystem.getLocal(conf);
      //過濾目錄下的 svn文件,注意:文件路徑E://Hadoop/73/修改成自己的路徑
      FileStatus[] dirstatus = local.globStatus(new Path("E://Hadoop/73/"),new RegexExcludePathFilter("^.svn$"));
      //獲取73目錄下的所有文件路徑
      Path[] dirs = FileUtil.stat2Paths(dirstatus);
      FSDataOutputStream out = null;
      FSDataInputStream in = null;
      for (Path dir : dirs) {
      //2019-10-31
      String fileName = dir.getName().replace("-", "");//文件名稱
      //只接受日期目錄下的.txt文件
      FileStatus[] localStatus = local.globStatus(new Path(dir+"/"),new RegexAcceptPathFilter("^.txt$"));
      // 獲得日期目錄下的所有文件
      Path[] listedPaths = FileUtil.stat2Paths(localStatus);
      //輸出路徑,注意:hdfs://master:9000/20191031/修改成自己的HDFS目錄地址
      Path block = new Path("hdfs://master:9000/20191031/"+ fileName + ".txt");
      System.out.println("合併後的文件名稱:"+fileName+".txt");
      // 打開輸出流
      out = fs.create(block);
      for (Path p : listedPaths) {
      in = local.open(p);// 打開輸入流
      IOUtils.copyBytes(in, out, 4096, false); // 複製數據
      // 關閉輸入流
      in.close();
      }
      if (out != null) {
      // 關閉輸出流
      out.close();
      }
      }

    }

    /**

    • 過濾 regex 格式的文件
    • */
      public static class RegexExcludePathFilter implements PathFilter {
      private final String regex;
      public RegexExcludePathFilter(String regex) {
      this.regex = regex;
      }

      public boolean accept(Path path) {
      boolean flag = path.toString().matches(regex);
      return !flag;
      }

    }

    /**

    • 接受 regex 格式的文件
    • */
      public static class RegexAcceptPathFilter implements PathFilter {
      private final String regex;
      public RegexAcceptPathFilter(String regex) {
      this.regex = regex;
      }

      @Override
      public boolean accept(Path path) {
      boolean flag = path.toString().matches(regex);
      return flag;
      }

    }
    }

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章