jdbc批量插入2

   在实际的开发过程中,特别是大型的分布式应用系统,往往会涉及到大批量的数据。那么在测试的时候就需要准备足够多的数据以便进行测试。
   为了提高插入数据的效率,我们可以利用MySql的批量插入数据能力。其实,从本质来说也就是取消JDBC中事务的自动提交,改为手动提交。
   如果没有关闭JDBC事务的自动提交,那么JDBC驱动会在每次执行了一条SQL语句之后,自动提交,并且关闭连接。而我们知道打开数据库连接是非常耗资源的,而且有些JDBC框架还会限制数据库操作的频率。这种情况下,如果采用单调数据插入效果非常不好。
   解决的方法之一,就是关闭JDBC事务的自动提交,改为手动提交。我们可以记录SQL语句的执行次数,然后当达到某一个值的时候,比如10w次的时候,手动提交一下事务,然后关闭并重新开始数据库连接。再进行下一批数据局的插入或者更新。
   这种方法非常适合于准备测试环境当中的大批量数据。在运行程序过程中,会碰到JVM抛出内存不足的异常,这个时候可以调大内存,或者减少每批数据的数据量来解决。
   以下代码仅供参考,在下面代码中,每批的数据库量为1w条记录。不同JDBC版本支持的批量插入的数据量不同,为了谨慎起见,可以先改小一点,然后慢慢提高。
Java代码
  1. @Test  
  2.     public void testInsertFollowRelation(){   
  3.         String db = "com.mysql.jdbc.Driver";   
  4.         String host = "jdbc:mysql://127.0.0.1:3306/test?characterEncoding=GBK";   
  5.         String user = "abc";   
  6.         String passwd = "abc";   
  7.         Connection con = null;    
  8.            
  9.         try{   
  10.             Class.forName(db).newInstance();    
  11.         } catch (Exception e) {   
  12.             System.out.println("加载驱动失败:" + db);   
  13.         }    
  14.            
  15.         long starTime = System.currentTimeMillis();   
  16.         try {    
  17.                         long startRowNum = 0;   
  18.             long count = 0;   
  19.             //使用事务插入,每10000条数据提交一下事务。   
  20.             //提高效率   
  21.             for(int i = 0; i < 10; i++){   
  22.                 BufferedReader reader = new BufferedReader(new FileReader(new File("E:\\test.txt")));   
  23.                 con = DriverManager.getConnection(host, user, passwd);    
  24.                 con.setAutoCommit(false);   
  25.                 PreparedStatement pstmt = con.prepareStatement("INSERT INTO test " +   
  26.                         "(id,info) " +   
  27.                         "VALUES(?,?,?,now())");    
  28.                                 String info = null;   
  29.                 while((info= reader.readLine()) != null){   
  30.                     pstmt.setLong(1, startRowNum);   
  31.                     pstmt.setLong(2, info);   
  32.                        
  33.                     pstmt.executeUpdate();   
  34.                     count++;   
  35.                                         startRowNum ++;   
  36.                     if(startRowNum % 10000 == 0){//如果数据条数达到10000条,则提交事务   
  37.                         con.commit();   
  38.                         con.close();   
  39.                         //重开链接   
  40.                         con = DriverManager.getConnection(host, user, passwd);    
  41.                         con.setAutoCommit(false);   
  42.                         pstmt = con.prepareStatement("INSERT INTO test " +   
  43.                         "(id,info) " +   
  44.                         "VALUES(?,?,?,now())");    
  45.                            
  46.                         System.out.println("数据量达到10000条,提交事务完成。");   
  47.                     }   
  48.                 }   
  49.                    
  50.                 reader.close();   
  51.             }   
  52.             long endTime = System.currentTimeMillis();   
  53.             System.out.println("共耗时:<" + new Float(((endTime-starTime)/1000)) + ">秒。插入了(" + count + ")条数据");   
  54.         } catch(Exception e){   
  55.             e.printStackTrace();   
  56.             try {   
  57.                 con.rollback();   
  58.             } catch (SQLException e1) {   
  59.                 e1.printStackTrace();   
  60.             }   
  61.         }   
  62.     }  
发布了4 篇原创文章 · 获赞 3 · 访问量 2万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章