在项目开发中,经常会遇到程序启动时间过长、CPU使用率过高等问题,这个时候需要依靠性能分析工具来定位性能的消耗点。本文介绍三个常用的工具的入门级使用及图形化方法,供大家参考。
本文介绍perf、gprof和valgrind三个性能分析工具,及其分析结果图形化的方法,旨在让大家更快的上手使用工具。出于篇幅的限制,本文不会对每种工具的使用参数及结果分析做详细的介绍,只做入门级的使用说明。
每个工具的介绍会分成简介、使用说明、图形化方法三个部分。
每种工具的结果都会基于下面这段代码:
#include <unistd.h>
using namespace std;
#define NUM 500000
void init(int* int_array){
for(int i=0;i<NUM;i++){
int_array[i]=i;
}
}
void accu(int* int_array,long& sum ){
for(int i=0;i<NUM;i++){
sum+=int_array[i];
usleep(3);
}
}
int main(){
int int_array[NUM];
init(int_array);
long sum=0;
accu(int_array,sum);
}
这段代码在V615机器上执行了31s,最大CPU使用率为8.3%(top结果)
Perf是内置于linux内核源码树中的性能剖析(profiling)工具。其基于事件采样原理,以性能事件为基础,常用于性能瓶颈的查找与热点代码的定位。
perf的使用可以分为两种方式:
第一种方式不需要root权限,第二种方式需要root权限
基于入门级使用这一前提,直接介绍一下使用方式:
perf record -e cpu-clock -g ./run
或者
perf record -e cpu-clock -g -p 4522
使用ctrl+c中断perf进程,或者在程序执行结束后,会产生perf.data的文件,使用
perf report
会产生结果分析,如图
perf的结果可以生成火焰图。生成火焰图需要借助Flame Graph
clone代码或者直接下载压缩包到服务器上。以压缩包为例,是一个命名为:FlameGraph-master.zip的文件,假设其解压后的目录为:/data
基于1.2产生的perf.data,后续步骤如下:
1、使用perf script工具对perf.data进行解析
perf script -i perf.data &> perf.unfold
2、将perf.unfold中的符号进行折叠:
/data/stackcollapse-perf.pl perf.unfold &> perf.folded
3、最后生成svg图:
/data/flamegraph.pl perf.folded > perf.svg
生成的火焰图如下:
关于火焰图的含义及分析网上有很多文章,这里不再赘述
需要C/C++ Linux服务器架构师学习资料私信“资料”(资料包括C/C++,Linux,golang技术,Nginx,ZeroMQ,MySQL,redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg等),免费分享
gprof用于监控程序中每个方法的执行时间和被调用次数,方便找出程序中最耗时的函数。在程序正常退出后,会生成gmon.out文件,解析这个文件,可以生成一个可视化的报告
使用gprof,需要在编译时,加入-pg选项
另外只有在程序正常退出后才会生成gmon.out,kill进程的方法是没法生成gmon.out的。对于那些线程会一直run的服务,需要修改代码,让程序在某个时间点停止。
重新编译后,正常启动程序即可;然后在程序运行结束后,会生成gmon.out文件
使用如下命令,生成报名文件(其中run是二进制的名字):
gprof -b run gmon.out >>report.txt
report.txt打开如下图所示:
gprof的结果文件需要借助gprof2dot.py和graphviz来展示
使用gprof2dot.py生成dot文件
Python gprof2dot.py report.txt >report.dot
需要说明的是,这里要求服务器已经安装了python,并且要求gprof2dot.py与安装的python版本匹配。这两者是否匹配是一个需要运气、并且解决起来很无聊的事情,我的服务器上安装的python是2.6.6,第一次从网上下载的gprof2dot-2017.9.19与python版本就不匹配,执行会出错。目前使用的版本与2.6.6是兼容的,如果需要可以与我联系。
dot的打开需要graphviz工具,我是在windows下安装的graphviz,这个工具下载很简单。下载后使用gvedit.ext打开前一个步骤产生的report.dot文件即可
这个图显的有些萌萌哒,这是因为我们的程序写的比较简单,对于一般的业务而言,这个图会比较复杂。
valgrind不是linux的原生工具,需要自行安装。valgrind自身包含了多个工具:
这里我们主要使用的Callgrind工具
首先需要安装valgrind:http://valgrind.org/downloads/valgrind-3.12.0.tar.bz2
解压安装包后,顺次执行:./configue 、make、make install 就可以了
使用valgrind来分析性能,必须使用valgrind来启动程序:
valgrind --tool=callgrind --separate-threads=yes ./run
--separate-threads是指是否按线程来分别统计,如果不加,会将所有线程的结果打到一个文件里;否则会按线程分别打印到不同文件里。
程序执行结束后,会生成形如:callgrind.out.4263-01的文件。这个文件直接分析起来有些困难,必须借助图形化的方式来浏览
valgrind的图形化需要借助kcachegrind.exe,大家可以自行下载,下载后在windows运行即可。这是打开callgrind.out.4263-01的结果:
对于我们的需求:定位执行时间最长、占用CPU最多的函数 来说,这三个工具都可以达到目的。但这三者之间还是有一定的差距:
perf虽然可以挂接进程但需要root权限。在普通权限下,perf和valgrind必须使用前缀启动的方式来启动程序,这在某种程度上会影响到程序的性能。我们在压测的过程中发现使用valgrind启动的时候,可以支持的在线总人数比直接运行程序要少很多。
perf和valgrind都不需要修改Makefile或者程序,但gprof需要重新编译文件,并且对于线程一直run的服务,还需要修改代码让其自然退出,这在一定程序上侵入了程序。但从对性能影响上来看,gprof可以最大限制的保留原程序的性能
gprof的结果是一颗倒树,这颗树展示了从根到叶子的所有结点的时间消耗;perf的是一个金字塔,与gprof有异曲同工之妙;valgrind的结果是一条单路,指出的是某条调用路径上的时间消耗,并不是一个全局的展示。
这是一个很专业的话题,目前对三者的监控原理还没有摸的太透,所以这里暂时空着。大家有兴趣可以先行研究。