一:背景
1. 前言
大概有2个月没写博客了,不是不想写哈,关注公号的朋友应该知道我这两个月一直都在翻译文章,前前后后大概100篇左右吧,前几天看公号的 常读用户
降了好几十,心疼哈,还得回过神来继续写!
2. 讲故事
上周给 武汉同济
做项目升级,本以为一切顺利,结果捅娄子了,第二天上午高峰期运维说生产上两台 应用服务器 cpu 被打满,影响到所有客户使用,造成了大面积瘫痪,真尬尴,得先让运维抓一个 dump 下来再重启网站,还好,老板人可以,没有问责 。
二:CPU 爆高问题分析
1. 找思路
分析 dump,没什么比 windbg 更专业了,不过分析 dump 我还是比较拿手的,那怎么分析呢? 最简单粗暴的做法就是看每一个线程当时都在做什么,进而推测一下就 八九不离十
了。
2. 查看所有线程栈
首先用 !t
和 !tp
看一下当前程序的 线程
和 线程池
的整体概况。
0:000> !t
ThreadCount:60
UnstartedThread:0
BackgroundThread: 38
PendingThread:0
DeadThread:22
Hosted Runtime:no
Lock
ID OSID ThreadOBJState GC ModeGC Alloc ContextDomainCount Apt Exception
111 2c24 0248703828220 Preemptive00000000:00000000 010df4f8 0Ukn
282 2ca0 024bad902b220 Preemptive00000000:00000000 010df4f8 0MTA (Finalizer)
303 2d04 024f1450102a220 Preemptive00000000:00000000 010df4f8 0MTA (Threadpool Worker)
314 2054 024fb18821220 Preemptive00000000:00000000 010df4f8 0Ukn
326 1128 025744001020220 Preemptive00000000:00000000 010df4f8 0Ukn (Threadpool Worker)
25 27ac 02520da820220 Preemptive00000000:00000000 010df4f8 0Ukn
3517 2c44 1cc362c8202b220 Preemptive00000000:00000000 024fa838 1MTA
3620 1740 1cccc74821220 Preemptive00000000:00000000 010df4f8 0Ukn
3721 16c4 1cc0824021220 Preemptive00000000:00000000 010df4f8 0Ukn
3822 16a8 1ccd28b821220 Preemptive00000000:00000000 010df4f8 0Ukn ....0:000> !tp
CPU utilization: 97%
Worker Thread: Total: 21 Running: 21 Idle: 0 MaxLimit: 8191 MinLimit: 8
Work Request in Queue: 23
Unknown Function: 6d92a17fContext: 0109b5f0
Unknown Function: 6d92a17fContext: 0107ed90
Unknown Function: 6d92a17fContext: 0104e750
Unknown Function: 6d92a17fContext: 010a0200
AsyncTimerCallbackCompletion TimerInfo@207f8008
AsyncTimerCallbackCompletion TimerInfo@0251b418
Unknown Function: 6d92a17fContext: 01096c78
Unknown Function: 6d92a17fContext: 01081398
AsyncTimerCallbackCompletion TimerInfo@024d0120
Unknown Function: 6d92a17fContext: 010a9a20
Unknown Function: 6d92a17fContext: 01057950
Unknown Function: 6d92a17fContext: 0104c2d0
Unknown Function: 6d92a17fContext: 010943d8
Unknown Function: 6d92a17fContext: 0107a180
Unknown Function: 6d92a17fContext: 010a7418
Unknown Function: 6d92a17fContext: 010839a0
Unknown Function: 6d92a17fContext: 010678d0
Unknown Function: 6d92a17fContext: 010a2808
Unknown Function: 6d92a17fContext: 0105c250
Unknown Function: 6d92a17fContext: 0108abb8
Unknown Function: 6d92a17fContext: 0108f7c8
Unknown Function: 6d92a17fContext: 0108d1c0
Unknown Function: 6d92a17fContext: 20896498
--------------------------------------
Number of Timers: 0
--------------------------------------
Completion Port Thread:Total: 1 Free: 1 MaxFree: 16 CurrentLimit: 1 MaxLimit: 1000 MinLimit: 8
从上面的输出大概可以看到如下几点信息:
- 当前程序有 60 个线程。
- 当前 CPU 利用率为 97%,爆高无疑。
- 线程池中有21个线程全部打满,还有23个任务在
任务队列
中排队等待处理。
2. 查看所有线程的托管线程栈
【再记一次 应用服务器 CPU 暴高事故分析】既然现存的有 60 个线程,那我就使用
~ *e !clrstack
命令看看所有的线程都在干嘛?
0:000> ~ *e !clrstack
OS Thread Id: 0x8d8 (44)
Child SPIP Call Site
1ad8d750 7759f901 [InlinedCallFrame: 1ad8d750]
1ad8d74c 71e1a9ea DomainNeutralILStubClass.IL_STUB_PInvoke(IntPtr, IntPtr, System.String, System.String, Int32, Int32, System.String, Int32, Int32, Int32)
1ad8d750 71d52f0b [InlinedCallFrame: 1ad8d750] System.Globalization.CompareInfo.InternalCompareString(IntPtr, IntPtr, System.String, System.String, Int32, Int32, System.String, Int32, Int32, Int32)
1ad8d7b4 71d52f0b System.Globalization.CompareInfo.Compare(System.String, Int32, Int32, System.String, Int32, Int32, System.Globalization.CompareOptions)
1ad8d7e0 71e16ab9 System.String.Compare(System.String, Int32, System.String, Int32, Int32, System.Globalization.CultureInfo, System.Globalization.CompareOptions)
1ad8d810 71d51c8e System.Globalization.DateTimeFormatInfo.Tokenize(System.TokenType, System.TokenType ByRef, Int32 ByRef, System.__DTString ByRef)
1ad8d86c 71d51a92 System.__DTString.GetSeparatorToken(System.Globalization.DateTimeFormatInfo, Int32 ByRef, Char ByRef)
1ad8d88c 71d513c4 System.DateTimeParse.Lex(DS, System.__DTString ByRef, System.DateTimeToken ByRef, System.DateTimeRawInfo ByRef, System.DateTimeResult ByRef, System.Globalization.DateTimeFormatInfo ByRef, System.Globalization.DateTimeStyles)
1ad8d8dc 71d50b59 System.DateTimeParse.TryParse(System.String, System.Globalization.DateTimeFormatInfo, System.Globalization.DateTimeStyles, System.DateTimeResult ByRef)
1ad8d974 71dfce8b System.DateTimeParse.Parse(System.String, System.Globalization.DateTimeFormatInfo, System.Globalization.DateTimeStyles)
1ad8d9d8 7243c9bc System.Convert.ToDateTime(System.String, System.IFormatProvider)
1ad8d9f8 724369b1 System.String.System.IConvertible.ToDateTime(System.IFormatProvider)
1ad8da00 7243c8a2 System.Convert.ToDateTime(System.Object)
由于输出的太多,这里就简略输出了,不过我大体罗列了一下线程大概都在做什么事情。
- 有 9 个线程正在执行
GetAllByCondition()
方法
文章图片
- 有 4 个线程正在执行
GetDayInvoice()
方法
文章图片
9 + 4
个线程都在搞这两个方法,这就比较可疑了,不过从各个线程的栈顶上看并没有类似 wait
关键词,这就意味着大家不是在争抢锁啥的,那问题在哪里呢?继续分析这两个方法到底在数据库中读了什么? 通过
!dso
抓取 GetDayInvoice()
方法中的 sql,这里我就模糊一下了哈,windbg命令大概如下:
0:000> ~45s
eax=1c06a5c8 ebx=00000000 ecx=59002090 edx=59002090 esi=000003d4 edi=00000000
eip=7759f901 esp=1d95cfa8 ebp=1d95d014 iopl=0nv up ei pl zr na pe nc
cs=0023ss=002bds=002bes=002bfs=0053gs=002befl=00000246
ntdll!NtWaitForSingleObject+0x15:
7759f901 83c404addesp,4
0:045> !dso
OS Thread Id: 0x2a04 (45)
ESP/REGObjectName
1D95D6D0 aaaac9f4 System.StringSELECT xxxxxx FROM xxxx as v WITH(NOLOCK) left join xxx as cr WITH(NOLOCK) on v.xxx=cr.xxx left join xxxas crr WITH(NOLOCK) on cr.PID=crr.IDWHERE xxx IN (SELECT DISTINCT xxx FROM xxxx WITH(NOLOCK) WHERE (SendTime>='2021-01-21 14:30:39' ORxxx>='2021-01-21 14:30:39' OR xxx>='2021-01-21 14:30:39')AND ((InvoiceType=1 and( IsRepeat=0 or IsRepeat is null ))OR xxx IN(16,15)))
然后让运维查了下,这条sql大概有
13w
的记录,我第一反应就是查这么大的数据是不是有毛病撒,问了下懂业务的老大,这一块原来是做 初始化同步
, 而且这块好久都没人动过,言外之意原来也是这么查的,一点毛病也没有呀,我去,说的也是哈,为啥以前没问题呢???3. 查看托管堆 既然一条sql查了 13w 条数据,刚才是 4个线程在执行
GetDayInvoice()
,也就意味着有 52w 条数据正在从 sqlserver 中获取,接下来我的本能反应就是看看托管堆,使用 !dumpheap -stat
就可以了,如下代码所示:
0:045> !dumpheap -stat
The garbage collector data structures are not in a valid state for traversal.
It is either in the "plan phase," where objects are being moved around, or
we are at the initialization or shutdown of the gc heap. Commands related to
displaying, finding or traversing objects as well as gc heap segments may not
work properly. !dumpheap and !verifyheap may incorrectly complain of heap
consistency errors.
Object 02881000 has an invalid method table.
我去,有点尴尬,居然报错了,先擦擦头上的汗,这句话:
The garbage collector data structures are not in a valid state for traversal
引起了我的警觉,当前托管堆是无效状态,gc被触发了。。。当前还是 plan phase
状态,是不是 gc 导致了 cpu 爆高呢?4. 零碎信息整合
通过上面这些零碎的信息,不知道大家可整明白了,让我来说的话,简而言之:
GetDayInvoice()
读了大量数据,导致gc频繁回收,进而导致 cpu 爆高,这里有几个概念需要大家了解下:- 这个程序是 32bit,意味着最大只能吃 4G 内存。
- 32bit 的临时代( 0+1 代) 大概 几十M 的空间。
- IIS 是
服务器模式
的GC,意味着当前的托管线程会临时充当 GC 回收线程。
~ *e !dumpstack
查看所有线程的托管和非托管的所有栈信息,如下图所示:文章图片
可以清晰的看到,调用
GetDayInvoice()
的线程在 CLR 层面触发了 gc,而此时 gc 想调用 try_allocate_more_space
来给自己分配更多的空间,而且 wait_for_gc_done
也表示它在等待其他gc线程处理完成,所以就卡死在这里了。如果不信的话,还可以继续观察其他线程的非托管堆栈,如下图所示:
文章图片
从
clr!SVR::GCHeap::WaitUntilGCComplete+0x35, calling clr!CLREventBase::WaitEx
可以看出,都是在等待 GC 完成,导致 CPU 爆高。5. 找到问题根源
汇总一下就是:这次 cpu 爆高是因为 32bit 程序只能吃 4G 内存,而程序需要同步大量的数据,导致内存被打满,gc无法分配更多的内存让程序使用,gc的机制让 cpu 打的满满的,知道问题之后,解决办法很简单,将 iis 的
应用程序域
的配置 启用32bit应用程序
改成 False 即可,这样程序就可以以 64bit 方式运行,如下图所示:文章图片
三:总结 很显然这次事件是因为管理混乱造成的,因为历史遗留问题,有些网站必须用 32 bit 运行,有些必须用 64 bit 运行,据运维说,目前服务器存在不能建过多的应用程序域,导致多个网站公用一个程序域,表面上是运维弄错应用程序域,根子上还是没有彻底改造的决心!
更多高质量干货:参见我的 GitHub: dotnetfly
推荐阅读
- 如何在 ASP.NET Core 5 中重载 Action 方法
- .net|第一个.netcore的前后端交互项目——申请试用表单的提交之【前端】使用Vue+elementui设计表单
- GIS|从零开始搭建一个GIS开发小框架(五)——GMap.Net组件WPF版本使用体验
- visual|由于找不到vcruntime140_1.dll,无法继续执行代码重新安装程序可能会解决此问题。
- 期末备考|C#、.NET实现的一个图书管理系统(大作业)
- java|Hessian 序列化、反序列化
- .NET 跨平台应用开发动手教程 |用 Uno Platform 构建一个 Kanban-style Todo App
- .Net/C#基础|C#深入理解堆和栈的区别
- .Net|.Net C# Using 关键字