我用到的数据库为,mysql数据库5.7版本的
1.首先自己准备好数据库表
其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:
com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.
出现上面的错误是因为数据库表的 max_allowed_packet这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了
set global max_allowed_packet = 100*1024*1024* 记住,设置好后重新登录数据库才能看的设置后的值show VARIABLES like '%max_allowed_packet%'
Java的jdbc代码如下:
1 package com.mysql; 2 3 import java.sql.Connection; 4 import java.sql.DriverManager; 5 import java.sql.PreparedStatement; 6 import java.sql.SQLException; 7 import java.util.Date; 8 9 public class InsertTest {10 11 public static void main(String[] args) throws ClassNotFoundException, SQLException {12 final String url = "jdbc:mysql://127.0.0.1/test?useUnicode=true&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=UTC";13 final String name = "com.mysql.jdbc.Driver";14 final String user = "root";15 final String password = "root";16 Connection conn = null;17 Class.forName(name);//指定连接类型18 conn = DriverManager.getConnection(url, user, password);//获取连接19 if (conn != null) {20 System.out.println("获取连接成功");21 insert(conn);22 } else {23 System.out.println("获取连接失败");24 }25 26 }27 28 public static void insert(Connection conn) {29 // 开始时间30 Long begin = new Date().getTime();31 // sql前缀32 String prefix = "INSERT INTO t_teacher (name, age) VALUES ";33 try {34 // 保存sql后缀35 StringBuffer suffix = new StringBuffer();36 // 设置事务为非自动提交37 conn.setAutoCommit(false);38 // 比起st,pst会更好些39 PreparedStatement pst = (PreparedStatement) conn.prepareStatement(" ");//准备执行语句40 // 外层循环,总提交事务次数41 for (int i = 1; i <= 100; i++) {42 suffix = new StringBuffer();43 // 第j次提交步长44 for (int j = 1; j <= 100000; j++) {45 // 构建SQL后缀46 suffix.append("('" + "cxx" + j + "'," + j + "),");47 }48 // 构建完整SQL49 String sql = prefix + suffix.substring(0, suffix.length() - 1);50 // 添加执行SQL51 pst.addBatch(sql);52 // 执行操作53 pst.executeBatch();54 // 提交事务55 conn.commit();56 // 清空上一次添加的数据57 suffix = new StringBuffer();58 }59 // 头等连接60 pst.close();61 conn.close();62 } catch (SQLException e) {63 e.printStackTrace();64 }65 // 结束时间66 Long end = new Date().getTime();67 // 耗时68 System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");69 System.out.println("插入完成");70 }71 }
结果:
哈哈,1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了, 后来我想测试插入100万条数据时候数据库引擎的差别 首先把代码中最外层的循环i=100改为i=10; 1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试
1.数据库引擎为InnoDB时:
用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。