那么如果我们也要查询所有列 , 有两种方法 , 一种是id>=的形式 , 另一种就是利用join , 看下实际情况:
另一种写法
3. 复合索引优化方法
MySql 性能到底能有多高?MySql 这个数据库绝对是适合dba级的高手去玩的 , 一般做一点1万篇新闻的小型系统怎么写都可以 , 用xx框架可以实现快速开发 。可是数据量到了10万 , 百万至千万 , 他的性能还能那么高吗?一点小小的失误 , 可能造成整个系统的改写 , 甚至更本系统无法正常运行!好了 , 不那么多废话了 。
用事实说话 , 看例子:
数据表 collect ( id, title ,info ,vtype) 就这4个字段 , 其中 title 用定长 , info 用text, id 是逐渐 , vtype是tinyint , vtype是索引 。这是一个基本的新闻系统的简单模型 。现在往里面填充数据 , 填充10万篇新闻 。最后collect 为 10万条记录 , 数据库表占用硬1.6G 。
OK ,看下面这条sql语句:
8-9秒完成 , my god 哪出问题了?其实要优化这条数据 , 网上找得到答案 。看下面一条语句:
select id from collect where vtype=1 order by id limit 90000,10; 很慢 , 用了8-9秒!
到了这里我相信很多人会和我一样 , 有崩溃感觉!vtype 做了索引了啊?怎么会慢呢?vtype做了索引是不错 , 你直接
从这里开始有人提出了分表的思路 , 这个和dis #cuz 论坛是一样的思路 。思路如下:
建一个索引表: t (id,title,vtype) 并设置成定长 , 然后做分页 , 分页出结果再到 collect 里面去找info。是否可行呢?实验下就知道了 。
10万条记录到 t(id,title,vtype) 里 , 数据表大小20M左右 。用
错!因为我们的limit还是9万 , 所以快 。给个大的 , 90万开始
分表了时间还是这么长 , 非常之郁闷!有人说定长会提高limit的性能 , 开始我也以为 , 因为一条记录的长度是固定的 , mysql 应该可以算出90万的位置才对啊?可是我们高估了mysql 的智能 , 他不是商务数据库 , 事实证明定长和非定长对limit影响不大?怪不得有人说discuz到了100万条记录就会很慢 , 我相信这是真的 , 这个和数据库设计有关!
难道MySQL 无法突破100万的限制吗???到了100万的分页就真的到了极限?
推荐阅读
- Python连接MySQL数据库方法介绍
- MySQL高压缩引擎TokuDB 揭秘
- 淘宝信誉分对应等级 淘宝的信誉等级怎么看等级从哪里找
- 常说的A级、B级、C级汽车是按什么分级的?
- 佛吉尼亚级战列舰 弗吉尼亚号装甲战列舰
- 世界上最黑的物质叫什么 世界上最黑的物质超级黑
- 部分华为手机本月可升级鸿蒙系统!万物互联时代要来了!
- 如何创建MySQL用户帐户和授予权限
- 四年级上语文专项复习题,认真练一练 四年级上册语文复习
- 对电视的画面声音不满意?专家教你轻松升级
