
30000条数据个人估计应该在10—30秒内写完。
建议不要使用sqlite这种数据库频繁执行读写 *** 作,效率低。如果不换数据库的话提供一条思路,使用缓存:用户访问时的插入语句放在一个字符串集合列表中,列表数量达到一定级别 例如1000条时,之后再用事务插入数据,然后删除。我曾经用sqlite连续插入过十万级别的数据,使用事务比遍历可以将插入时间压缩到十分之一左右
欢迎分享,转载请注明来源:内存溢出

30000条数据个人估计应该在10—30秒内写完。
建议不要使用sqlite这种数据库频繁执行读写 *** 作,效率低。如果不换数据库的话提供一条思路,使用缓存:用户访问时的插入语句放在一个字符串集合列表中,列表数量达到一定级别 例如1000条时,之后再用事务插入数据,然后删除。我曾经用sqlite连续插入过十万级别的数据,使用事务比遍历可以将插入时间压缩到十分之一左右
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)