如何优化 MySQL 以插入数百万行? [英] How to optimize MySQL to insert millions row?

查看:38
本文介绍了如何优化 MySQL 以插入数百万行?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我需要将数百万行插入 MySQL 数据库(InnoDB 引擎).当桌子很大时,我有时间问题.几乎所有时间都花在插入查询上.也许有人知道如何优化它?

I need to insert millions rows into the MySQL database (InnoDB engine). I have a problem with time when the tables have big sizes. Almost all time is spent on insert queries. Maybe somebody know how to optimize it?

推荐答案

将大量数据导入 InnoDB:

To import large bulk of data into InnoDB:

  1. 在 MySQL 配置中设置

  1. set in MySQL configuration

  • innodb_doublewrite = 0
  • innodb_buffer_pool_size = 50%+ 系统内存
  • innodb_log_file_size = 512M
  • log-bin = 0
  • innodb_support_xa = 0
  • innodb_flush_log_at_trx_commit = 0

事务开始后立即添加:

SET FOREIGN_KEY_CHECKS = 0;

SET FOREIGN_KEY_CHECKS = 0;

SET UNIQUE_CHECKS = 0;

SET UNIQUE_CHECKS = 0;

SET AUTOCOMMIT = 0;

SET AUTOCOMMIT = 0;

在交易结束前设置:

SET UNIQUE_CHECKS = 1;

SET UNIQUE_CHECKS = 1;

SET FOREIGN_KEY_CHECKS = 1;

SET FOREIGN_KEY_CHECKS = 1;

这篇关于如何优化 MySQL 以插入数百万行?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆