mysql千万数据加索引卡死关键字

mysql千万数据加索引卡死关键字,第1张

mysql千万数据索引卡死关键字?

想到了从以下方法进行解决:

1)重写Sql,让查询命中索引

2)增加索引

3)1)或者2)方法之后,再加上一个缓存功能

最快捷的方式肯定是2了,但是本表由于逻辑复杂,时不时又批量录入一些数据,已经有了5个索引了,再加索引,恐怕会导致写入慢的问题,而且加索引可能会引起锁表问题。

于是,我先想用方法1解决,可是由于逻辑有点复杂,查询语句比较复杂,改了很多写法都不理想,最后还是选择了方法2,直接表加索引。

由于对于加索引的一些担忧,于是我在本地先尝试了一下(本地数据和线上数据量基本一致,相差不大),结果没想到还挺快的,对于写入的性能也没多大的影响。加入索引后页面秒开,效果很好。

select (*) from tb_name where create_time >xxx

最终得知是因为这个表数据行数已经超过 一千万了,然后create_time字段又没有索引 。

那解决办法肯定是加索引喽。

但是这个表是一直在线上运行,很重要和业务部分。如果给千万级的大表在线加索引 ,肯定会卡死。

然后就搜罗了一大筐解决方案,比如 在线无锁加索引使用

ALTER TABLE tbl_name ADD PRIMARY (column), ALGORITHM=INPLACE, LOCK=NONE

后来才发现,这个特性是 Mysql 5.6 以后才支持,然而我们的mysql用的是5.5版本

最后在 《高性能Mysql》一书中看到,可在通过 “影子拷贝”来解决,

就是 先创建一张和源表无关的新表,然后通过重命名和删表 *** 作交换两张表;

当给新表加完索引后,最上面那条查询直接就是0.0002s

场景:在给一张有几万条记录的表添加索引时,进度非常慢,导致其它查询无法进行

处理方式:

使用Navicat的命令行模式,执行以下命令:

show processlist

这时会看到有哪些线程正在执行,也可以查看锁表的线程。你会发现alter table * add key ****那个线程状态是Waiting for table metadata lock,后面有个这个表的所有 *** 作都是这个状态,很明显是这条加索引的语句把表给锁了。

查看线程ID,执行

kill 线程ID

这样被锁住的表就能立即被使用了。

由此得出一个结论,当一张表数据量很大时,不要轻易添加索引,会导致表被锁死!如果非要添加,那么应该先把数据表进行备份,然后进行空表添加索引。

只能通过ALTER TABLE不能create index

参数说明:

一千万的条目在时间上建立非聚集索引,用了7分钟,半小时差不多。

索引跟类型关系很大,一般定长字段比变长字段简单,IO消耗小,时间节省,复合索引变长越多就越复杂,其次就是一表多索引,这种情况会衍生各种存储索引结构,就更费时间了。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/bake/11869416.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-19
下一篇2023-05-19

发表评论

登录后才能评论

评论列表(0条)

    保存