首页 > 开发 > 综合 > 正文

pt-query-digest

2024-07-21 02:51:40
字体:
来源:转载
供稿:网友

一、pt-query-digest参数介绍.

pt-query-digest --user=anemometer --passWord=anemometerpass     --review h=192.168.11.28,D=slow_query_log,t=global_query_review  / --history h=192.168.11.28,D=slow_query_log,t=global_query_review_history  / --no-report --limit=0%  --filter=" /$event->{Bytes} = length(/$event->{arg}) and /$event->{hostname}=/"$HOSTNAME/"" / /usr/local/mariaMySQL/data/localhost-slow.log

–filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析–limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。–host MySQL服务器地址–user mysql用户名–password mysql用户密码–history 将分析结果保存到表中,分析结果比较详细,下次再使用–history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。–review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用–review时,如果存在相同的语句分析,就不会记录到数据表中。–output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。–since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。–until 截止时间,配合—since可以分析一段时间内的慢查询。

二、分析结果分析:

#pt-query-digest mysql-slow.log--分析mysql-slow.log这个慢查询日志文件
# A software update is available:#   * The current version for Percona::Toolkit is 2.2.9.开始总的摘要信息# 170ms user time, 10ms system time, 26.00M rss, 213.39M vsz--此工具执行日志分析时的所用时间、内存资源(rss物理内存占用大小,vsz虚拟内存占用大小)# Current date: Mon Jul 28 09:55:34 2014--分析时的系统时间# Hostname: lump.group.com--进行分析的主机名,非记录日志的数据库服务器# Files: mysql-slow.log--分析的日志文件名称# Overall: 5 total, 4 unique, 0.02 QPS, 0.04x concurrency ________________--文件中总共的语句数量,唯一的语句数量(对语句进行了格式化),QPS,并发数# Time range: 2014-07-28 09:50:30 to 09:54:50--记录日志的时间范围
# Attribute          total     min     max     avg     95%  stddev  median--total总计,min最小,max最大,avg平均,95%把所有值从小到大排列,位于95%的那个数# ============     ======= ======= ======= ======= ======= ======= =======# Exec time            10s      1s      3s      2s      3s   753ms      1s# Lock time          196us       0    79us    39us    76us    33us    42us# Rows sent          1.40k       0     716     287  685.39  335.14    3.89# Rows examine      15.32k       0  11.13k   3.06k  10.80k   4.02k   2.06k# Rows affecte           0       0       0       0       0       0       0# Bytes sent        72.42k      11  38.85k  14.48k  38.40k  17.57k  234.30# Query size           807       6     342  161.40  329.68  146.53  112.70

–Exec time:语句执行时间–Lock time:锁占有时间–Rows sent:发送到客户端的行数–Row examine:扫描的行数(SELECT语句)–Row affecte:发送改变的行数(UPDATE, DELETE, INSERT语句)–Bytes sent:发送多少bytes的查询结果集–Query size:查询语句的字符数

查询分组统计结果

# PRofile# Rank Query ID           Response time Calls R/Call V/M   Item# ==== ================== ============= ===== ====== ===== ===============#    1 0x4A9CF4735A0490F2  3.1898 31.9%     1 3.1898  0.00 SELECT history_uint#    2 0x2B0044BDE0960A2F  2.6991 27.0%     1 2.6991  0.00 SELECT history#    3 0x813031B8BBC3B329  2.5755 25.7%     2 1.2877  0.00 COMMIT#    4 0x469563A79E581DDB  1.5380 15.4%     1 1.5380  0.00 SELECT sessions

–Rank:分析的所有查询语句的排名,默认按查询时间降序排序,可以通过–order-by指定排序方式–Query ID:查询语句的指纹,去掉了多余空格、和文本字符–Response time:响应时间,占所有响应时间的百分比–Calls:查询执行的次数–R/Call:每次执行的平均响应时间–V/M:响应时间Variance-to-mean的比率,参考:http://en.wikipedia.org/wiki/Index_of_dispersion–Item:查询语句–最后一行没有包括在报告中的查询合计统计信息,如使用了选项–limit和–outliers

每个独立查询语句的分析

# Query 1: 0 QPS, 0x concurrency, ID 0x4A9CF4735A0490F2 at byte 591 ______--QPS:每秒查询数(queries per second)--concurrency:该查询的近似并发值--ID:16进制,查询语句的指纹,去掉了多余空格、和文本字符、转换成小写,使用--filter可以用来进行过滤(如:pt-query-digest mysql-slow.201407250000 --filter '$event->{fingerprint} && make_checksum($event->{fingerprint}) eq "0793E2F7F5EBE1B1"' > slow2.txt),必须移除0x--at byte 289141:查询语句在日志文件中的偏移量(byte offset),不一定精确,根据偏移量在日志文件中查找语句(如tail -c +289141 mysql-slow.201407250000 |head)# This item is included in the report because it matches --limit.# Scores: V/M = 0.00# Time range: all events occurred at 2014-07-28 09:51:02# Attribute    pct   total     min     max     avg     95%  stddev  median--95%:95th percentile,stddev:standard deviation# ============ === ======= ======= ======= ======= ======= ======= =======# Count         20       1--pct在整个日志文件中,执行语句占用百分比(20%),总计执行了1次# Exec time     31      3s      3s      3s      3s      3s       0      3s# Lock time     40    79us    79us    79us    79us    79us       0    79us# Rows sent     49     715     715     715     715     715       0     715# Rows examine  13   2.09k   2.09k   2.09k   2.09k   2.09k       0   2.09k# Rows affecte   0       0       0       0       0       0       0       0# Bytes sent    45  33.31k  33.31k  33.31k  33.31k  33.31k       0  33.31k# Query size    42     342     342     342     342     342       0     342# String:# Databases    zabbix--数据库名# Hosts# Last errno   0# Users        zabbix--执行语句的用户名# Query_time distribution--查询的执行时间分布情况图,可以使用选项--report-histogram进行定义#   1us#  10us# 100us#   1ms#  10ms# 100ms#    1s  #################################################################  10s+# Tables#    SHOW TABLE STATUS FROM `zabbix` LIKE 'history_uint'/G--可以使用该语句查询表的统计信息,如大小#    SHOW CREATE TABLE `zabbix`.`history_uint`/G--可以使用该语句查看表的结构信息# EXPLAIN /*!50100 PARTITIONS*/SELECT itemid,round(1401* MOD(CAST(clock AS UNSIGNED)+79742,86400)/(86400),0) AS i,COUNT(*) AS count,AVG(value) AS avg,MIN(value) AS min,MAX(value) AS max,MAX(clock) AS clock FROM history_uint  WHERE itemid='30376' AND clock>='1406425858' AND clock<='1406512258' GROUP BY itemid,round(1401* MOD(CAST(clock AS UNSIGNED)+79742,86400)/(86400),0)/G--可以使用该语句查看查询计划,如非select语句,工具会转换成类似的select语句,方便进行explain

pt-query-digest高级使用介绍

官方文档:

https://www.percona.com/doc/percona-toolkit/2.2/pt-query-digest.html#cmdoption-pt-query-digest--explain

1. 工具简介

pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析。可以把分析结果输出到文件中,分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题进行优化。pt-query-digest是一个perl脚本,只需下载并赋权即可执行。[root@test1 ]# wget percona.com/get/pt-query-digest [root@test1 ]# chmod u+x pt-query-digest
 
2.语法及重要选项

pt-query-digest [OPTIONS] [FILES] [DSN]

--create-review-table  当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。--create-history-table  当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。--filter  对输入的慢查询按指定的字符串进行匹配过滤后再进行分析--limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。--host  mysql服务器地址--user  mysql用户名--password  mysql用户密码--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。--since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。--until 截止时间,配合—since可以分析一段时间内的慢查询。

3.      标准分析报告解释第一部分:总体统计结果,如下图
Overall: 总共有多少条查询,上例为总共266个查询。Time range: 查询执行的时间范围。unique: 唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询,该例为55。total: 总计   min:最小   max: 最大  avg:平均95%: 把所有值从小到大排列,位置位于95%的那个数,这个数一般最具有参考价值。median: 中位数,把所有值从小到大排列,位置位于中间那个数。第二部分:查询分组统计结果,如下图
由上图可见,这部分对查询进行参数化并分组,然后对各类查询的执行情况进行分析,结果按总执行时长,从大到小排序。Response: 总的响应时间。time: 该查询在本次分析中总的时间占比。calls: 执行次数,即本次分析总共有多少条这种类型的查询语句。R/Call: 平均每次执行的响应时间。Item : 查询对象第三部分:每一种查询的详细统计结果,如下图:
由上图可见,12号查询的详细统计结果,最上面的表格列出了执行次数、最大、最小、平均、95%等各项目的统计。Databases: 库名Users: 各个用户执行的次数(占比)Query_time distribution : 查询时间分布, 长短体现区间占比,本例中1s-10s之间查询数量是10s以上的两倍。Tables: 查询中涉及到的表Explain: 示例
 
4.用法示例(1)直接分析慢查询文件:pt-query-digest  slow.log > slow_report.log
(2)分析最近12小时内的查询:

pt-query-digest  --since=12h  slow.log > slow_report2.log

(3)分析指定时间范围内的查询:

pt-query-digest slow.log --since '2014-04-17 09:30:00' --until '2014-04-17 10:00:00'> > slow_report3.log

(4)分析指含有select语句的慢查询pt-query-digest--filter '$event->{fingerprint} =~ m/^select/i' slow.log> slow_report4.log(5) 针对某个用户的慢查询pt-query-digest--filter '($event->{user} || "") =~ m/^root/i' slow.log> slow_report5.log(6) 查询所有所有的全表扫描或full join的慢查询pt-query-digest--filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow_report6.log(7)把查询保存到query_reviewpt-query-digest  --user=root –password=abc123 --review  h=localhost,D=test,t=query_review--create-review-table  slow.log

(8)把查询保存到query_history表pt-query-digest  --user=root –password=abc123 --review  h=localhost,D=test,t=query_ history--create-review-table  slow.log_20140401pt-query-digest  --user=root –password=abc123--review  h=localhost,D=test,t=query_history--create-review-table  slow.log_20140402(9)通过tcpdump抓取mysqltcp协议数据,然后再分析tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txtpt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log(10)分析binlogmysqlbinlog mysql-bin.000093 > mysql-bin000093.sqlpt-query-digest  --type=binlog  mysql-bin000093.sql > slow_report10.log(11)分析general logpt-query-digest  --type=genlog  localhost.log > slow_report11.log


发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表