zblog十万数据就卡了

zblog十万数据就卡了,第1张

卡顿问题可能是由于数据库查询效率低下导致的。当数据量达到10万条时,可能需要更多的系统资源来查询和处理数据,并且查询时间也会变得更长。为了解决这个问题,您可以考虑以下几个方面:

1 数据库优化:尝试将数据库表设计优化,包括索引和表结构。使用合适的索引可以加快数据查询的速度,而合理的表结构可以减少查询的开销。

2 缓存:使用缓存可以减少对数据库的查询次数。将热门数据缓存在内存中,可以直接从内存中读取数据,减少数据库的压力。

3 分页查询:将数据分页查询,一次只查询一部分数据,可以减少查询的开销。

4 升级硬件:如果您的服务器硬件配置比较低,可以考虑升级硬件,增加服务器的内存和CPU。

综上所述,卡顿问题可能是由于数据库查询效率低下导致的,可以通过数据库优化、缓存、分页查询和升级硬件等方式来解决。

几方面:

硬件,软件,以及语言

硬件,是不是抗不住,

软件,mysql是不是没有设置好,数据库设计方面等,

语言,SQL语句写法。

下面是一些优化技巧。

1对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。

2应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:select id from t where num is null可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:select id from t where num=0

3应尽量避免在 where 子句中使用!=或<> *** 作符,否则引擎将放弃使用索引而进行全表扫描。

4应尽量避免在 where 子句中使用or 来连接条件,否则将导致引擎放弃使用索引而进行全表扫描,如:select id from t where num=10 or num=20可以这样查询:select id from t where num=10 union all select id from t where num=20

5in 和 not in 也要慎用,否则会导致全表扫描,如:select id from t where num in(1,2,3) 对于连续的数值,能用 between 就不要用 in 了:select id from t where num between 1 and 3

6下面的查询也将导致全表扫描:select id from t where name like '李%'若要提高效率,可以考虑全文检索。

7

如果在 where

子句中使用参数,也会导致全表扫描。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择。然

而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项。如下面语句将进行全表扫描:select id from t where num=@num可以改为强制查询使用索引:select id from t with(index(索引名)) where num=@num

8应尽量避免在 where 子句中对字段进行表达式 *** 作,这将导致引擎放弃使用索引而进行全表扫描。如:select id from t where num/2=100应改为:select id from t where num=1002

9应尽量避免在where子句中对字段进行函数 *** 作,这将导致引擎放弃使用索引而进行全表扫描。如:select id from t where substring(name,1,3)='abc' ,name以abc开头的id

应改为:

select id from t where name like 'abc%'

10不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引。

11在使用索引字段作为条件时,如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用,并且应尽可能的让字段顺序与索引顺序相一致。

12不要写一些没有意义的查询,如需要生成一个空表结构:select col1,col2 into #t from t where 1=0

这类代码不会返回任何结果集,但是会消耗系统资源的,应改成这样:

create table #t()

13很多时候用 exists 代替 in 是一个好的选择:select num from a where num in(select num from b)

用下面的语句替换:

select num from a where exists(select 1 from b where num=anum)

14并不是所有索引对查询都有效,SQL是根据表中数据来进行查询优化的,当索引列有大量数据重复时,SQL查询可能不会去利用索引,如一表中有字段sex,male、female几乎各一半,那么即使在sex上建了索引也对查询效率起不了作用。

15

索引并不是越多越好,索引固然可 以提高相应的 select 的效率,但同时也降低了 insert 及 update 的效率,因为 insert

或 update

时有可能会重建索引,所以怎样建索引需要慎重考虑,视具体情况而定。一个表的索引数最好不要超过6个,若太多则应考虑一些不常使用到的列上建的索引是否有

必要。

16

应尽可能的避免更新 clustered 索引数据列,因为 clustered

索引数据列的顺序就是表记录的物理存储顺序,一旦该列值改变将导致整个表记录的顺序的调整,会耗费相当大的资源。若应用系统需要频繁更新

clustered 索引数据列,那么需要考虑是否应将该索引建为 clustered 索引。

17尽量使用数字型字段,若只含数值信息的字段尽量不要设计为字符型,这会降低查询和连接的性能,并会增加存储开销。这是因为引擎在处理查询和连接时会逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了。

18尽可能的使用 varchar/nvarchar 代替 char/nchar ,因为首先变长字段存储空间小,可以节省存储空间,其次对于查询来说,在一个相对较小的字段内搜索效率显然要高些。

19任何地方都不要使用 select from t ,用具体的字段列表代替“”,不要返回用不到的任何字段。

20尽量使用表变量来代替临时表。如果表变量包含大量数据,请注意索引非常有限(只有主键索引)。

21避免频繁创建和删除临时表,以减少系统表资源的消耗。

22临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时。但是,对于一次性事件,最好使用导出表。

23在新建临时表时,如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table,然后insert。

24如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table ,然后 drop table ,这样可以避免系统表的较长时间锁定。

25尽量避免使用游标,因为游标的效率较差,如果游标 *** 作的数据超过1万行,那么就应该考虑改写。

26使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效。

27

与临时表一样,游标并不是不可使 用。对小型数据集使用 FAST_FORWARD

游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时。在结果集中包括“合计”的例程通常要比使用游标执行的速度快。如果开发时

间允许,基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好。

28在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON ,在结束时设置 SET NOCOUNT OFF 。无需在执行存储过程和触发器的每个语句后向客户端发送DONE_IN_PROC 消息。

29尽量避免大事务 *** 作,提高系统并发能力。

30尽量避免向客户端返回大数据量,若数据量过大,应该考虑相应需求是否合理。

死锁一般是编程及优化方面的问题,用引擎优化顾问(不知道2000有没有呵呵)优化一下索引看看

一般死锁在数据库中会瞬间被解除,客户反映的卡应该属于阻塞,你应该往优化方面考虑

用profiler检测一下耗时的严重的语句,想办法优化业务流程以及数据处理流程

2008性能方面肯定是优于2000的,但是如果你程序设计的很烂的话,再优越也体现不出来

以上就是关于zblog十万数据就卡了全部的内容,包括:zblog十万数据就卡了、mysql数据量上十万条后,查询慢导致服务器卡有什么解决办法、求高手解决服务器问题。最近网站特别卡,数据库经常锁死,求高手指点!!!!数据库是sqlserver2000。等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/sjk/9549246.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-29
下一篇2023-04-29

发表评论

登录后才能评论

评论列表(0条)

    保存