
代码如下
CREATE
TABLE
example
(
example_id
INT
NOT
NULL,
name
VARCHAR(
50
)
NOT
NULL,
value
VARCHAR(
50
)
NOT
NULL,
other_value
VARCHAR(
50
)
NOT
NULL
)
通常情况下单条插入的sql语句我们会这么写:
代码如下
INSERT
INTO
example
(example_id,
name,
value,
other_value)
VALUES
(100,
'Name
1',
'Value
1',
'Other
1')
mysql允许我们在一条sql语句中批量插入数据,如下sql语句:
代码如下
INSERT
INTO
example
(example_id,
name,
value,
other_value)
VALUES
(100,
'Name
1',
'Value
1',
'Other
1'),
(101,
'Name
2',
'Value
2',
'Other
2'),
(102,
'Name
3',
'Value
3',
'Other
3'),
(103,
'Name
4',
'Value
4',
'Other
4')
如果我们插入列的顺序和表中列的顺序一致的话,还可以省去列名的定义,如下sql
代码如下
INSERT
INTO
example
VALUES
(100,
'Name
1',
'Value
1',
'Other
1'),
(101,
'Name
2',
'Value
2',
'Other
2'),
(102,
'Name
3',
'Value
3',
'Other
3'),
(103,
'Name
4',
'Value
4',
'Other
4')
上面看上去没什么问题,下面我来使用sql语句优化的小技巧,下面会分别进行测试,目标是插入一个空的数据表200W条数据
第一种方法:使用insert
into
插入,代码如下:
代码如下
$params
=
array('value'=>'50')
set_time_limit(0)
echo
date("H:i:s")
for($i=0$i<2000000$i++){
$connect_mysql->insert($params)
}
echo
date("H:i:s")
最后显示为:23:25:05
01:32:05
也就是花了2个小时多!
第二种方法:使用事务提交,批量插入数据库(每隔10W条提交下)最后显示消耗的时间为:22:56:13
23:04:00
,一共8分13秒
,代码如下:
代码如下
echo
date("H:i:s")
$connect_mysql->query('BEGIN')
$params
=
array('value'=>'50')
for($i=0$i<2000000$i++){
$connect_mysql->insert($params)
if($i%100000==0){
$connect_mysql->query('COMMIT')
$connect_mysql->query('BEGIN')
}
}
$connect_mysql->query('COMMIT')
echo
date("H:i:s")
第三种方法:使用优化SQL语句:将SQL语句进行拼接,使用
insert
into
table
()
values
(),(),(),()然后再一次性插入,如果字符串太长,
则需要配置下MYSQL,在mysql
命令行中运行
:set
global
max_allowed_packet
=
2*1024*1024*10消耗时间为:11:24:06
11:25:06
插入200W条测试数据仅仅用了1分钟!代码如下:
代码如下
$sql=
"insert
into
twenty_million
(value)
values"
for($i=0$i<2000000$i++){
$sql.="('50'),"
}
$sql
=
substr($sql,0,strlen($sql)-1)
$connect_mysql->query($sql)
最后总结下,在插入大批量数据时,第一种方法无疑是最差劲的,而第二种方法在实际应用中就比较广泛,第三种方法在插入测试数据或者其他低要求时比较合适,速度确实快。
1、没谷歌到php可以用的直接方法,不过可以获取批量插入的第一个自增id
2、假设批量插入的数据的自增ID是连续的,则可以通过第一个自增ID获取所有自增ID
3、测试批量插入的数据的自增ID是否是连续的,即插入过程中,单独插入其他数据,批量插入的自增ID是否连续
4、生成批量插入10w条数据的sql
5、navicat打开两个页面,一个是上面的sql,一个是一条单独插入的sql(这条sql的test_id,要大于上面sql里随机数的最大值,方便查看)
6、所以可以使用2中的方式获取批量插入的所有自增ID
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)