当前位置:首页 > Mysql教程 > 列表

mysql常用分页优化例子

发布:smiling 来源: PHP粉丝网  添加日期:2014-09-23 22:15:13 浏览: 评论:0 

对于初学者使用mysql分页是非常的简单了,但如果你使用到10W数据时你会发现limit分页非常的缓慢了,并且查询一次需要40秒左右的时间,下面我来给大家介绍mysql分页优化例子吧,希望文章能给各位带来帮助.

大家都知道分页肯定会用到这两种类型的sql:

1),select count(*) from table where 条件

2),select * from table where 条件(页码数-1)*每页数

当数据量一大(几百w),不管你是用什么存储引擎,这两种sql都会很恶心了.

对于第一种:我表示无解,如果你单表几百万,几千万,即使走覆盖索引也要很长时间,带了where条件,无论是MYISAM还是INNODB都会全表扫描,如果你对结果并不是非要精确,走cache吧,因为被坑了很多次,所以我坚持分表处理,尽量保持单表不过百万.

对于第二种:

(1)首先当然是建立索引了,让查询结果在索引中进行;

(2)只返回需要的自动

(3)先获取到offset的id后,再直接使用limit size来获取数据.

随便创建了一张表,插了一百万的数据,代码如下:

  1. CREATE TABLE IF NOT EXISTS `article` ( 
  2.   `id` int(11) NOT NULL AUTO_INCREMENT, 
  3.   `category_id` int(11) NOT NULL
  4.   `namechar(16) NOT NULL
  5.   `content` text NOT NULL
  6.   PRIMARY KEY (`id`), 
  7. ) ENGINE=InnoDB  DEFAULT CHARSET=utf8 

看看优化效果:

  1. #查询花费 38.6875 秒 
  2. SELECT SQL_NO_CACHE *  
  3. FROM  `article`  
  4. LIMIT 800000 , 20 
  5.  
  6. #查询花费 0.9375 秒 
  7.  
  8. SELECT SQL_NO_CACHE id, category_id 
  9. FROM  `article`  
  10. LIMIT 800000 , 20 
  11.  
  12. #查询花费 0.3594 秒 
  13.  
  14. SELECT SQL_NO_CACHE id, category_id 
  15. FROM  `article`  
  16. WHERE id >= (SELECT id FROM  `article` LIMIT 800000 , 1)  
  17. LIMIT 20 
  18.  
  19. #查询花费 0.0000 秒 
  20.  
  21. SELECT SQL_NO_CACHE id, category_id 
  22. FROM  `article`  
  23. WHERE id 
  24. BETWEEN 800000  //phpfensi.com
  25. AND 800020  

windows下测试可能存在一定误差,当然还有很多其他的方法如建立索引表等待,最后:对于大型平台或系统,用框架啊、什么ORM就行不通了,会让你尴尬的.

Tags: mysql分页优化 mysql分页例子

分享到:

相关文章