当前位置:数据库 > > 正文

mysql什么是慢查询(MySQL慢查询的坑)

时间:2021-10-09 00:38:44类别:数据库

mysql什么是慢查询

MySQL慢查询的坑

一条慢查询会造成什么后果?年轻时,我一直觉得不就是返回数据会慢一些么,用户体验变差?其实远远不止,我经历过几次线上事故,有一次就是由一条sql慢查询导致的。

记得那是一条查询sql,数据量万级时还保持在0.2秒内,随着某一段时间数据猛增,耗时一度达到了2-3秒!没有命中索引,导致全表扫描。explain 中extra显示:using where; using temporary; using filesort,被迫使用了临时表排序,由于是高频查询,并发一起来很快就把db线程池打满了,导致大量查询请求堆积,db服务器cpu长时间100%+,大量请求timeout。。最终系统崩溃。老板登场~

对了,那次是十月二日晚上8点半,我在老家枣庄,和哥儿几个正坐在大排档吹着牛b!你猜,我将面临什么尴尬局面?

可见,团队如果对慢查询不引起足够的重视,风险是很大的。经过那次事故我们老板就说了:谁的代码再出现类似事故,开发和部门领导一起走人,吓得一大堆领导心发慌,赶紧招了两位dba同事。

慢查询,顾名思义,执行很慢的查询。有多慢?超过 long_query_time 参数设定的时间阈值(默认10s),就被认为是慢的,是需要优化的。慢查询被记录在慢查询日志里。

慢查询日志默认是不开启的,如果你需要优化sql语句,就可以开启这个功能,它可以让你很容易地知道哪些语句是需要优化的(想想一个sql要10s就可怕)。

墨菲定律:会出错的事情就一定会出错。

这是太真实的事情之一了。为了防患于未然,一起来看看慢查询该怎么处理。本文很干,记得接杯水,没时间看的先收藏哦!

一、慢查询配置

1-1、开启慢查询

mysql支持通过

方式一:通过命令开启慢查询

步骤1、查询 slow_query_log 查看是否已开启慢查询日志:

  • ?
  • 1
  • show variables like '%slow_query_log%';
  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • mysql> show variables like '%slow_query_log%';
  • +---------------------+-----------------------------------+
  • | variable_name       | value                             |
  • +---------------------+-----------------------------------+
  • | slow_query_log      | off                               |
  • | slow_query_log_file | /var/lib/mysql/localhost-slow.log |
  • +---------------------+-----------------------------------+
  • 2 rows in set (0.01 sec)
  • 步骤2、开启慢查询命令:

  • ?
  • 1
  • set global slow_query_log='on';
  • 步骤3、指定记录慢查询日志sql执行时间得阈值(long_query_time 单位:秒,默认10秒)

    如下我设置成了1秒,执行时间超过1秒的sql将记录到慢查询日志中

  • ?
  • 1
  • set global long_query_time=1;
  • 步骤4、查询 “慢查询日志文件存放位置”

  • ?
  • 1
  • show variables like '%slow_query_log_file%';
  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> show variables like '%slow_query_log_file%';
  • +---------------------+-----------------------------------+
  • | variable_name       | value                             |
  • +---------------------+-----------------------------------+
  • | slow_query_log_file | /var/lib/mysql/localhost-slow.log |
  • +---------------------+-----------------------------------+
  • 1 row in set (0.01 sec)
  • slow_query_log_file 指定慢查询日志的存储路径及文件(默认和数据文件放一起)

    步骤5、核对慢查询开启状态

    需要退出当前mysql终端,重新登录即可刷新;

    配置了慢查询后,它会记录以下符合条件的sql:

    方式二:通过配置my.cnf(windows是my.ini)系统文件开启

    (版本:mysql5.5及以上)

    在my.cnf文件的[mysqld]下增加如下配置开启慢查询,如下图

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • # 开启慢查询功能
  • slow_query_log=on
  • # 指定记录慢查询日志sql执行时间得阈值
  • long_query_time=1
  • # 选填,默认数据文件路径
  • # slow_query_log_file=/var/lib/mysql/localhost-slow.log
  • mysql什么是慢查询(MySQL慢查询的坑)

    重启数据库后即持久化开启慢查询,查询验证如下:

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • mysql> show variables like '%_query_%';
  • +------------------------------+-----------------------------------+
  • | variable_name                | value                             |
  • +------------------------------+-----------------------------------+
  • | have_query_cache             | yes                               |
  • | long_query_time              | 1.000000                          |
  • | slow_query_log               | on                                |
  • | slow_query_log_file          | /var/lib/mysql/localhost-slow.log |
  • +------------------------------+-----------------------------------+
  • 6 rows in set (0.01 sec)
  • 1-2、慢查询日志介绍

    mysql什么是慢查询(MySQL慢查询的坑)

    如上图,是执行时间超过1秒的sql语句(测试)

    二、explain分析慢查询sql

    分析mysql慢查询日志 ,利用explain关键字可以模拟优化器执行sql查询语句,来分析sql慢查询语句,下面我们的测试表是一张137w数据的app信息表,我们来举例分析一下;

    sql示例如下:

  • ?
  • 1
  • 2
  • -- 1.185s
  • select * from vio_basic_domain_info where app_name like '%陈哈哈%' ;
  • 这是一条普通的模糊查询语句,查询耗时:1.185s,查到了148条数据;
    我们用explain分析结果如下表,根据表信息可知:该sql没有用到字段app_name上的索引,查询类型是全表扫描,扫描行数137w。

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> explain select * from vio_basic_domain_info where app_name like '%陈哈哈%' ;
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------------+
  • | id | select_type | table                 | partitions | type | possible_keys | key  | key_len | ref  | rows    | filtered | extra       |
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------------+
  • |  1 | simple      | vio_basic_domain_info | null       | all  | null          | null | null    | null | 1377809 |    11.11 | using where |
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------------+
  • 1 row in set, 1 warning (0.00 sec)
  • 当这条sql使用到索引时,sql如下:查询耗时:0.156s,查到141条数据

  • ?
  • 1
  • 2
  • -- 0.156s
  • select * from vio_basic_domain_info where app_name like '陈哈哈%' ;
  •   explain分析结果如下表;根据表信息可知:该sql用到了idx_app_name索引,查询类型是索引范围查询,扫描行数141行。由于查询的列不全在索引中(select *),因此回表了一次,取了其他列的数据。

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> explain select * from vio_basic_domain_info where app_name like '陈哈哈%' ;
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+-----------------------+
  • | id | select_type | table                 | partitions | type  | possible_keys | key          | key_len | ref  | rows | filtered | extra                 |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+-----------------------+
  • |  1 | simple      | vio_basic_domain_info | null       | range | idx_app_name  | idx_app_name | 515     | null |  141 |   100.00 | using index condition |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+-----------------------+
  • 1 row in set, 1 warning (0.00 sec)
  • 当这条sql使用到覆盖索引时,sql如下:查询耗时:0.091s,查到141条数据

  • ?
  • 1
  • 2
  • -- 0.091s
  • select app_name from vio_basic_domain_info where app_name like '陈哈哈%' ;
  •   explain分析结果如下表;根据表信息可知:和上面的sql一样使用到了索引,由于查询列就包含在索引列中,又省去了0.06s的回表时间。

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> explain select app_name from vio_basic_domain_info where app_name like '陈哈哈%' ;
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+--------------------------+
  • | id | select_type | table                 | partitions | type  | possible_keys | key          | key_len | ref  | rows | filtered | extra                    |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+--------------------------+
  • |  1 | simple      | vio_basic_domain_info | null       | range | idx_app_name  | idx_app_name | 515     | null |  141 |   100.00 | using where; using index |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+------+----------+--------------------------+
  • 1 row in set, 1 warning (0.00 sec)
  • 那么是如何通过explain解析结果分析sql的呢?各列属性又代表着什么?一起往下看。

    2-1、各列属性的简介:

    以上标星的几类是我们优化慢查询时常用到的

    2-2、慢查询分析常用到的属性

    1、type:
    对表访问方式,表示mysql在表中找到所需行的方式,又称“访问类型”。

    存在的类型有: all、index、range、 ref、eq_ref、const、system、null(从左到右,性能从低到高),介绍三个咱们天天见到的:

    2、key

      key列显示了sql实际使用索引,通常是possible_keys列中的索引之一,mysql优化器一般会通过计算扫描行数来选择更适合的索引,如果没有选择索引,则返回null。当然,mysql优化器存在选择索引错误的情况,可以通过修改sql强制mysql“使用或忽视某个索引”。

    3、rows
    rows是mysql估计为了找到所需的行而要读取(扫描)的行数,可能不精确。

    4、extra
    这一列显示一些额外信息,很重要。

    using index
    查询的列被索引覆盖,并且where筛选条件是索引的是前导列,extra中为using index。意味着通过索引查找就能直接找到符合条件的数据,无须回表。

    注:前导列一般指联合索引中的第一列或“前几列”,以及单列索引的情况;这里为了方便理解我统称为前导列。

    using where
    说明mysql服务器将在存储引擎检索行后再进行过滤;即没有用到索引,回表查询。

    可能的原因:

    using temporary
    这意味着mysql在对查询结果排序时会使用一个临时表。

    using filesort
    说明mysql会对结果使用一个外部索引排序,而不是按索引次序从表里读取行。

    using index condition
    查询的列不全在索引中,where条件中是一个前导列的范围

    using where;using index
    查询的列被索引覆盖,并且where筛选条件是索引列之一,但不是索引的前导列或出现了其他影响直接使用索引的情况(如存在范围筛选条件等),extra中为using where; using index,意味着无法直接通过索引查找来查询到符合条件的数据,影响并不大。

    三、一些慢查询优化经验分享

    3-1、优化limit分页

    在系统中需要分页的操作通常会使用limit加上偏移量的方法实现,同时加上合适的order by 子句。如果有对应的索引,通常效率会不错,否则mysql需要做大量的文件排序操作。

    一个非常令人头疼问题就是当偏移量非常大的时候,例如可能是limit 1000000,10这样的查询,这是mysql需要查询1000000条然后只返回最后10条,前面的1000000条记录都将被舍弃,这样的代价很高,会造成慢查询。

    优化此类查询的一个最简单的方法是尽可能的使用索引覆盖扫描,而不是查询所有的列。然后根据需要做一次关联操作再返回所需的列。对于偏移量很大的时候这样做的效率会得到很大提升。

    对于下面的查询:

  • ?
  • 1
  • 2
  • -- 执行耗时:1.379s
  • select * from vio_basic_domain_info limit 1000000,10;
  • explain分析结果:

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> explain select * from vio_basic_domain_info limit 1000000,10;
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------+
  • | id | select_type | table                 | partitions | type | possible_keys | key  | key_len | ref  | rows    | filtered | extra |
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------+
  • |  1 | simple      | vio_basic_domain_info | null       | all  | null          | null | null    | null | 1377809 |   100.00 | null  |
  • +----+-------------+-----------------------+------------+------+---------------+------+---------+------+---------+----------+-------+
  • 1 row in set, 1 warning (0.00 sec)
  • 该语句存在的最大问题在于limit m,n中偏移量m太大,导致每次查询都要先从整个表中找到满足条件 的前m条记录,之后舍弃这m条记录并从第m+1条记录开始再依次找到n条满足条件的记录。如果表非常大,且筛选字段没有合适的索引,且m特别大那么这样的代价是非常高的。

    那么如果我们下一次的查询能从前一次查询结束后标记的位置开始查找,找到满足条件的10条记录,并记下下一次查询应该开始的位置,以便于下一次查询能直接从该位置 开始,这样就不必每次查询都先从整个表中先找到满足条件的前m条记录,舍弃掉,再从m+1开始再找到10条满足条件的记录了。

    处理分页慢查询的方式一般有以下几种

    思路一:构造覆盖索引

      通过修改sql,使用上覆盖索引,比如我需要只查询表中的app_name、createtime等少量字段,那么我秩序在app_name、createtime字段设置联合索引,即可实现覆盖索引,无需全表扫描。适用于查询列较少的场景,查询列数过多的不推荐。
    耗时:0.390s

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • mysql> explain select app_name,createtime from vio_basic_domain_info limit 1000000,10;
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+---------+----------+-------------+
  • | id | select_type | table                 | partitions | type  | possible_keys | key          | key_len | ref  | rows    | filtered | extra       |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+---------+----------+-------------+
  • |  1 | simple      | vio_basic_domain_info | null       | index | null          | idx_app_name | 515     | null | 1377809 |   100.00 | using index |
  • +----+-------------+-----------------------+------------+-------+---------------+--------------+---------+------+---------+----------+-------------+
  • 1 row in set, 1 warning (0.00 sec)
  • 思路二:优化offset

    无法用上覆盖索引,那么重点是想办法快速过滤掉前100w条数据。我们可以利用自增主键有序的条件,先查询出第1000001条数据的id值,再往后查10行;适用于主键id自增的场景。
    耗时:0.471s

  • ?
  • 1
  • 2
  • select * from vio_basic_domain_info where
  •   id >=(select id from vio_basic_domain_info order by id limit 1000000,1) limit 10;
  • 原理:先基于索引查询出第1000001条数据对应的主键id的值,然后直接通过该id的值直接查询该id后面的10条数据。下方explain 分析结果中大家可以看到这条sql的两步执行流程。

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • mysql> explain select * from vio_basic_domain_info where id >=(select id from vio_basic_domain_info order by id limit 1000000,1) limit 10;
  • +----+-------------+-----------------------+------------+-------+---------------+---------+---------+------+---------+----------+-------------+
  • | id | select_type | table                 | partitions | type  | possible_keys | key     | key_len | ref  | rows    | filtered | extra       |
  • +----+-------------+-----------------------+------------+-------+---------------+---------+---------+------+---------+----------+-------------+
  • |  1 | primary     | vio_basic_domain_info | null       | range | primary       | primary | 8       | null |      10 |   100.00 | using where |
  • |  2 | subquery    | vio_basic_domain_info | null       | index | null          | primary | 8       | null | 1000001 |   100.00 | using index |
  • +----+-------------+-----------------------+------------+-------+---------------+---------+---------+------+---------+----------+-------------+
  • 2 rows in set, 1 warning (0.40 sec)
  • 方法三:“延迟关联”

    耗时:0.439s
    延迟关联适用于数量级较大的表,sql如下;

  • ?
  • 1
  • select * from vio_basic_domain_info inner join (select id from vio_basic_domain_info order by id limit 1000000,10) as mynew using(id);
  • 这里我们利用到了覆盖索引+延迟关联查询,相当于先只查询id列,利用覆盖索引快速查到该页的10条数据id,然后再把返回的10条id拿到表中通过主键索引二次查询。(表数据增速快的情况对该方法影响较小。)

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • mysql> explain select * from vio_basic_domain_info inner join (select id from vio_basic_domain_info order by id limit 1000000,10) as mynew using(id);
  • +----+-------------+-----------------------+------------+--------+---------------+---------+---------+----------+---------+----------+-------------+
  • | id | select_type | table                 | partitions | type   | possible_keys | key     | key_len | ref      | rows    | filtered | extra       |
  • +----+-------------+-----------------------+------------+--------+---------------+---------+---------+----------+---------+----------+-------------+
  • |  1 | primary     | <derived2>            | null       | all    | null          | null    | null    | null     | 1000010 |   100.00 | null        |
  • |  1 | primary     | vio_basic_domain_info | null       | eq_ref | primary       | primary | 8       | mynew.id |       1 |   100.00 | null        |
  • |  2 | derived     | vio_basic_domain_info | null       | index  | null          | primary | 8       | null     | 1000010 |   100.00 | using index |
  • +----+-------------+-----------------------+------------+--------+---------------+---------+---------+----------+---------+----------+-------------+
  • 3 rows in set, 1 warning (0.00 sec)
  • 3-2、排查索引没起作用的情况

    模糊查询尽量避免用通配符'%'开头,会导致数据库引擎放弃索引进行全表扫描。如下:

  • ?
  • 1
  • select * from t where username like '%陈哈哈%'
  • 优化方式:尽量在字段后面使用模糊查询。如下:

  • ?
  • 1
  • select * from t where username like '陈哈哈%'
  • 如果需求是要在前面使用模糊查询,

      但不得不说,mysql模糊匹配大字段是硬伤,毕竟保证事务的acid特性耗费了太多性能,因此,如果实际场景中有类似业务需求,建议果断更换大数据存储引擎如elasticsearch、hbase等。这里和情怀无关~

    尽量避免使用 not in,会导致引擎走全表扫描。建议用 not exists 代替,如下:

  • ?
  • 1
  • 2
  • 3
  • 4
  • 5
  • -- 不走索引
  • select * from t where name not in ('提莫','队长');
  •  
  • -- 走索引
  • select * from t as t1 where not exists (select * from标签:

    猜您喜欢