Linux Tracing System以及实例解决eBPF程序中遇到的问题

一、讲座内容简要描述
本次讲座内容分为两部分:
1) linux tracing system浅析 
当初学者接触到linux平台的tracing系统时,常常被各种词语弄得晕头转向:比如 kprobe,tracepoint,linux auditing subsystem(auditd),systemtap,lttng,perf,trace-cmd,ebpf,bpftrace,bcc等等。初学者往往会有以下疑问:这些专业词语是什么意思?它们之间有什么关系?每种tracing技术的优缺点是什么?应该选择哪种技术?为什么ebpf从中脱颖而出,近年来得到广泛关注?
本次讲座尝试从统一的视角来梳理和对比这些技术的异同点,并尝试回答这些问题。
2) ebpf开发经验分享
ebpf目前正在高速发展,很多坑和解决办法缺乏官方文档。本次讲座主要介绍主讲人在ebpf开发实践中经常遇到的问题,包括开发框架的选择,多内核版本兼容性问题,如何为低版本内核生成btf文件,ebpf验证机制与编译器优化机制的不一致问题,ebpf在arm架构遇到的问题等等。
二、linux tracing system浅析
对于linux tracing system尤其是目前最火的ebpf技术来说,主要是通过探针技术,实现特定事件的追踪和采样,达到增强内核行为可观测性、优化系统性能、动态监测网络和加固系统安全的目的。如下图所示,我将linux tracing system细分为三个维度,包括1)数据源(内核态),负责提供数据地来源;2)tracing框架(内核态),负责对接数据源,采集解析发送数据,并对用户态提供接口;3)以及前端工具/库(用户态),对接tracing内核框架,直接与用户交互,负责采集配置和数据分析。
下面将从这三个维度自下而上地对linux tracing system进行梳理和分析。
1.1. 数据源(内核态)介绍
如下图所示,从数据提供方的角度来看,数据源可以分成硬件探针、软件探针(又分为动态探针以及静态探针),也就是获取底层数据源的方式和手段。顾名思义,硬件探针技术就是通过在硬件设备上(比如芯片)插入探针,捕获硬件层次行为;而软件探针技术则是通过软件的方式插入探针,捕获软件层次的行为。这些探针技术负责提供数据,上层的tracing工具和框架则基于这些探针技术来采集数据,并对数据进一步整理、分析、和展现给用户。
硬件探针
hpc: hardware performance counter 是cpu硬件提供的一种常见的数据源,如下图所示,它能够监控cpu级别的事件,比如执行的 指令数,跳转指令数,cache miss等等,被广泛应用于性能调试(vtune, perf)、攻击检测等等
       1) hpc事件列表
2)hpc数据案例
        对于此类硬件数据,我们通常使用用户态工具perf来进行采集,下图展示了一个具体的案例。
lbr: last branch record cpu硬件提供的另一种特性,它能够记录每条分支(跳转)指令的源地址和目的地址。基于lbr硬件特性,可实现调用栈信息的记录
在系统性能优化领域以及调试程序时经常使用的性能分析利器:火焰图(flame graph)也可以基于lbr的数据生成,使用命令perf record -f 99 -a --call-graph lbr即可得到完整直观的火焰图数据。
火焰图示例
软件探针(静态探针):
静态内核探针指的是在内核运行之前,在内核源代码或者二进制中插入预先设置好的钩子函数,内核运行时触发生效的探针方案。
tracepoint: tracepoint是一种典型的静态探针。它通过在内核源代码中插入预先定义的静态钩子函数来实现内核行为的监控。简单地来看,大家可以把tracepoint的原理等同于调试程序时加入的printf函数。
下图展示了2012年,内核引入sched_process_exec tracepoint时的commit,可以看到,首先用trace_event宏定义了新增tracepoint的名字和参数等信息,然后在内核函数exec_binprm的源代码中加入了钩子函数trace_sched_process_exec。每当程序执行二进制时,都会触发exec_binprm函数,继而触发trace_sched_process_exec钩子函数。tracing工具和框架将自定义的函数挂载到该钩子函数上,来采集程序执行行为日志。
静态探针的优点:
        稳定(内核开发者会负责维护该函数的稳定性)
        性能好
静态探针的缺点
        需要修改内核代码来添加新的静态探针
        内核支持的静态探针数量有限
软件探针(动态探针):
有了静态探针,为什么还需要动态探针呢?主要原因是静态探针都是人工添加的,支持的数量有限,而动态探针就是为了解决这个问题,它能够支持hook几乎所有的内核函数。
kprobes:kprobe是一个典型的动态探针,如下图所示,在内核运行时,kprobe技术将需要监控的内核函数的指令动态替换,使得该函数的控制流跳转到用户自定义的处理函数上。当内核执行到该监控函数时,相应的用户自定义处理函数被执行,然后继续执行正常的代码路径。
动态探针的优点:
 可以hook几乎所有的内核函数 
动态探针的缺点
 不稳定(函数的变更、编译器的优化等都可能导致采集程序的失效)
 性能相对较差
软件探针(动/静态探针):
静态探针性能好,但支持的数量有限,动态探针支持的数量多,但不稳定、性能相对较差,那么是否存在一种技术,能同时兼顾静态和动态的优势呢?答案是动静态结合的探针方案。
function hooks(ftrace): function hooks是ftrace引入的一种动静态结合的探针方案。 如下图所示,静态指的是它通过gcc编译器,在内核编译阶段,在内核函数的入口处插入了预留的特定指令,当内核运行时,它会将预留的特定指令替换为跳转指令(call ftrace_caller),使得内核函数的控制流跳转到用户自定义函数上,达到数据监控的目的。
ftrace和function tracer
function hooks(ftrace)的优点
相比于tracepoint和kprobe,function hooks最显著的功能性特点是它能够方便地监控内核函数的调用关系,如下图所示,监控了内核函数exec_binprm的所有子函数调用关系。
上面分析完各种动态和静态探针的方案和优缺点后,从开发者代码多功能可控的角度出发,建议优先使用静态探针方案。
1.2. linux tracing system 发展历程
• 2004年4月,linux auditing subsystem(auditd)被引入内核2.6.6-rc1
• 2005年4月,kprobe被引入内核2.6.11.7
• 2006年,lttng发布(至今没有合入内核)
• 2008年10月 ,kernel tracepoint 被引入内核(v2.6.28)。
• 2008年,ftrace被引入内核(包括compile time function hooks)。
• 2009年,perf被引入内核
• 2009年,systemtap发布(至今没有合入内核)
• 2014年,alexei starovoitov将ebpf引入内核
1.3. linux tracing 框架方案对比
ebpf的优势对比:
稳定:通过验证器,防止用户编写的程序导致内核崩溃
免安装:ebpf内置于linux内核,无需安装额外以来
内核编程:支持开发者插入自定义的代码逻辑(包括数据采集、分析和过滤)到内核中运行
2. ebpf框架开发分析
2.1 ebpf基础架构
ebpf程序分为两部分: 用户态和内核态代码。
ebpf内核代码:
这个代码首先需要经过编译器(比如llvm)编译成ebpf字节码,然后字节码会被加载到内核执行。所以 这部分代码理论上用什么语言编写都可以,只要编译器支持将该语言编译为ebpf字节码即可。
目前绝大多数工具都是用的c语言来编写ebpf内核代码,包括bcc。
bpftrace提供了一种易用的脚本语言来帮助用户快速高效的使用ebpf功能,其背后的原理还是利用llvm 将脚本转为ebpf字节码。
ebpf用户态代码:
这部分代码负责将ebpf内核程序加载到内核,与ebpf map交互,以及接收ebpf内核程序发送出来的数据。这个功能的本质上是通过linux os提供的syscall(bpf syscall + perf_event_open syscall)完成的,因此这 部分代码你可以用任何语言实现。比如bcc使用python,libbpf使用c或者c++,tracee使用go等等。
2.2 ebpf数据源
性能分析大师brendan gregg(intel fellow)总结的linux bpf tracing tools上展示了丰富多彩的ebpf钩子类型,这些钩子类型提供了可以加载bpf程序的范围。
fentry/fexit
tracepoints
network devices (tc/xdp)
network routes
tcp congestion algorithms
sockets (data level)
kernel functions (kprobes)
userspace functions (uprobes)
system calls
2.3 ebpf框架的发展历程
2014年9月 引入了bpf() syscall,将ebpf引入用户态空间。
自带迷你libbpf库,简单对bpf()进行了封装,功能是将ebpf字节码加载到内核。
2015年2月份 kernel 3.19 引入bpf_load.c/h文件,对上述迷你libbpf库再进行封装,功能是将ebpf elf二进制文件加载到内核(目前已过时,不建议使用)。
2015年4月 bcc项目创建,提供了ebpf一站式编程。
1. 创建之初,基于上述迷你libbpf库来加载ebpf字节码。
2. 提供了python接口。
2015年11月 kernel 4.3 引入标准库 libbpf
1. 该标准库由huawei 2012 os内核实验室的王楠提交。
2018年 为解决bcc的缺陷,co-re(compile once, run everywhere)的想法被提出并实现,最后达成共识:libbpf + btf + co-re代表了ebpf的未来,bcc底层实现逐步转向libbpf。
2.4 ebpf可移植性痛点和解决方案
技术痛点:
在内核版本a上编译的ebpf程序,无法直接在另外一个内核版本b上运行。造成可以执行差的根本原因在于ebpf程序访问的内核数据结构(内存空间)是不稳定的,经常随内核版本更迭而变化。
目前使用bcc的方案通过在部署机器上动态编译ebpf源代码可以来解决移植性问题。每一次ebpf程序运行都需要进行一次编译,而且需要在部署机器上按照上百兆大小的依赖,如编译器和头文件clang/llvm + linux headers等。同时在clang/llvm编译过程中需要消耗大量的资源(cpu/内存),对业务性能也会造成很大影响。
解决方案(co-re compile once,run everywhere):
1) btf:将内核数据结构信息高效压缩和存储(相比于dwarf,可达到超过100倍的 压缩比)
2) llvm/clang编译器:编译ebpf代码的时候记录下relocation相关的信息
3) libbpf:基于btf和编译器提供的信息,动态relocate数据结构
其中btf为重要组成部分,linux kernel 5.2及以上版本自带btf文件,低版本需要手动移植。
通过分析内核源码,可以发现btf文件的生成并不需要改动内核,只依赖:
带有debug info的vmlinux image
pahole
llvm
这意味着,我们可以自己为低版本内核生产btf文件,以此让低内核版本支持core。
为低版本内核生成btf文件
准备工作:
 ·安装pahole软件(1.16+)
 ·https://git.kernel.org/pub/scm/devel/pahole/pahole.git
 ·安装llvm(11+)
 ·获取目标低版本内核的vmlinux文件(带有debug info),文件保存在{vmlinux_file_path}
 ·通过源下载
·比如对于centos,通过yum install kernel-debuginfo可以下载vmlinux
 ·源码编译内核,获取vmlinux
生成btf:
 ·利用pahole在vmlinux文件中生成btf信息,执行以下命令:
·pahole -j {vmlinux_file_path}
 ·将btf信息单独输出到新文件{btf_file_path},执行以下命令:
 ·llvm-objcopy --only-section=.btf --set-section-flags .btf=alloc,readonly --strip- all {vmlinux_file_path} {btf_file_path}
 ·去除非必要的符号信息,降低btf文件的大小,得到最终的btf文件(大小约2~3mb):
 ·strip -x {btf_file_path}
2.5 ebpf程序实例分析(一个print引发的惨案)
ebpf程序会被llvm编译为ebpf字节码,ebpf字节码需要通过ebpf verifier的(静态)验证后,才能真正运行。边界检查是ebpf verifier的重点工作,目的是为了防止ebpf程序内存越界访问。接下来通过在ebpf程序中简单的增加、删减print打印信息触发不同原因的几种边界检查异常导致验证失败的例子,进一步讲解深层的原理。
程序实验环境:
1) llvm 11
2) linux kernel 5.8
3) libbpf commit @9c44c8a
边界检查案例:
1) 内存越界:
sec(kprobe/do_unlinkat)int bpf_kprobe(do_unlinkat, int dfd, struct filename *name){ // 获取一个数组指针array(数组max_size为16个字节) u32 key = 0; char *array = bpf_map_lookup_elem(&array_map, &key); if (array == null) return 0; // 获取当前运行程序的cpu编号(当前机器的cpu有16个核) unsigned int pos = bpf_get_smp_processor_id(); // 根据下表修改数组的值 array[pos] = 1; return 0;}  
上述代码编译运行后,提示verifier失败,然后使用objdump命令来看一下具体的字节码,通过以下字节码程序,可以看到verifier失败的原因在于第14行r6寄存器(变量pos)没有进行边界检查导致。
root cause:
当ebpf verifier走到第14行的时候尝试去访问array数组,但是此时数组的下标pos是来自bpf_get_smp_processor_id获取到的unsigned int 类型的动态变量,此时verifier无法判断变量的具体数值,所以会保守认为可能会达到最大值,这样的话就会超出array数组的范围,造成内存越界。
0000000000000000 :;int bpf_kprobe(do_unlinkat, int dfd, struct filename *name) 0:r1 = 0; u32 key = 0;1: *(u32 *)(r10 - 4) = r12: r2 = r103: r2 += -4; char *array = bpf_map_lookup_elem(&array_map, &key); 4:r1 = 0 ll6: call 17: r6 = r0; if (array == null)8: if r6 == 0 goto +6 ; unsigned int pos = bpf_get_smp_processor_id();; 9:call 8; array[pos] = 1; 10:r0 = 3212: r6 += r013: r1 = 1; array[pos] = 1;14: *(u8 *)(r6 + 0) = r1  
解决方案:
 添加边界检查代码
if (pos  15 goto +3   
2) verifier验证机制和编译器优化机制不一致导致边界检查不通过
① 使用错误寄存器做边界检查:
sec(kprobe/do_unlinkat)int bpf_kprobe(do_unlinkat, int dfd, struct filename *name){ // 获取一个数组指针array(数组max_size为16个字节) u32 key = 0; char *array = bpf_map_lookup_elem(&array_map, &key); if (array == null) return 0; // 获取当前运行程序的cpu编号(当前机器的cpu有16个核) unsigned int pos = bpf_get_smp_processor_id();; // 修改数值 if (pos > 32, bpf_get_current_pid_tgid(), array[1]); // 修改数值 if (pos < max_size) array[pos] = 1; return 0;}  
编译这个代码后verifier验证通过,可以正常运行。但是此时如果把bpf_printk打印信息删掉,竟然提示verifier验证失败,原因是r0寄存器(变量pos)没有通过边界检查,但是明明已经加了边界检查代码,怎么还会出现问题,这么神奇!
root cause:
由于编译器的优化策略,导致删减bpf_printk后编译生成的ebpf字节码使用寄存器r1(表示pos变量)来进行边界检查,但是却用r0+1(同样表示pos变量)来访问数组array。
相比之下,从ebpf verifier的角度来看,由于在编译过程中,r1和r0+1的关联性丢失了,导致ebpf verifier无法知道pos变量已经通过了检查,因此错误的认为pos变量没有进行边界检查,不允许程序运行。
②寄存器溢出或重新加载后,状态丢失:
sec(kprobe/do_unlinkat)int bpf_kprobe(do_unlinkat, int dfd, struct filename *name){  // 获取一个数组指针array(数组max_size为16个字节) u32 key = 0; char *array = bpf_map_lookup_elem(&array_map, &key); if (array == null) return 0; // 获取当前运行程序的cpu编号(当前机器的cpu有16个核) unsigned long pos = bpf_get_smp_processor_id();; // 修改数值 if (pos 32, bpf_get_current_pid_tgid(), array[i]); array[pos] = 1; } return 0;}  
在上述边界检查代码中添加一段print调试打印信息后编译验证又会出现verifier失败,通过排查发现不是已知的两类问题,依然使用objdump查看添加后的字节码信息。
root cause:
加入bpf_printk后通过字节码可以看到,代码先使用r0(表示pos变量)进行边界检查。由于当前寄存器数量不足,编译器决定将将r0临时保存到栈上的空间(r10-16,在ebpf字节码中,r10存储存放着 ebpf 栈空间的栈帧指针的地址),这样r0就可以空闲出来,留给其他代码使用,我们称这种行为为寄存器溢出(register spill)。当真正需要使用pos变量的时候,编译器会从栈上(r10-16)将之前保存的内容取出来赋给r1(也表示pos变量),然后使用r1对数组array进行访问。但神奇的是,当寄存器溢出发生时,pos变量的状态丢失了,ebpf忘记了该变量曾经进行了边界检查,导致程序无法通过验证。
解决方案:
在源码中加入 &= 操作符,引导编译器生成理想的ebpf字节码
array[pos &= max_size - 1] = 1;
如果上述方法失效,无法引导编译器,那么针对出错的部分源代码人工编写ebpf字节码,替代编译器生成的字节码
#define str(s) #s #define xstr(s) str(s)#define asm_variable_bound_check(variable)({ asm volatile ( %[tmp] &=  xstr(max_size - 1)     :[tmp]+&r(variable) );})asm_check(pos);array[pos] = 1;  
3. 总结
  本文总结了从动静态探针的角度梳理分析linux tracing system以及实例解决ebpf程序中遇到的问题。ebpf目前正在高速发展,很多坑和解决办法缺乏官方文档。本文在以下几点上做了自己的分析和分享,希望对大家更清晰的认识linux tracing system和ebpf有所帮助。
1. 自下而上的方式分析动静态探针
2. 各种场景下动静态探针的选择
3. bpf开发框架的选择
4. 多内核版本兼容性问题
5. 如何为低版本内核生成btf文件
6. ebpf边界检查问题分析
7. ebpf verifier验证机制与编译器优化机制不一致问题
原文标题:linux tracing system浅析和ebpf开发经验分享
文章出处:【微信公众号:linux阅码场】欢迎添加关注!文章转载请注明出处。


闻泰科技将间接持有安世集团的控制权
利用土壤养分检测仪提高作物产量
大所保送师CoinAll谁会是下一个保送生
反馈电路的原理 反馈电路的特点
小米6配置价格最新消息:小米6再添猛料:曲面媲美三星S8,卖三千五好便宜!
Linux Tracing System以及实例解决eBPF程序中遇到的问题
华为p10屏幕没有疏油层?疏油层到底是什么?
基于LM1875的音频功率放大电路图
教你们STM32如何收发float类型数据
华为p10最新曝光:麒麟970+双曲面设计
分析师:AMD方向正确,但未来危机暗伏
血氧饱和度的测量通常分为哪两大种类?
东芝DT02-V监控硬盘守护SMB安全,助力SMB市场实现高清化
中兴:“我们还要加大技术投入,使我们的能力更强”
外媒发现微软Surface Duo真机配前置LED闪光灯
高性能模数转换器AD9224的功能特点及典型应用电路分析
一种能够将电能转换为机械能系统的电驱动器技术解析
光电耦合直流控制电路及其应用
MAX6895,mAX6896,MAX6897,MAX6898,MAX6899超小型可调节排序/监控
AI芯片短缺问题依旧存在 OpenAI计划自研AI芯片?