浅析skynet底层框架上篇

写在前面
这篇文章是分析skynet框架,自己“用”skynet已经有一年,项目中是以它为底层框架,上层使用lua,以消息方式驱动逻辑,做到隔离保护;
我先说说自己这段时间使用的感受,不会涉及到项目里功能的具体实现。当时我刚入职,给自己列下三周的计划,前一周熟悉下lua语言,比较重要和常用的部分,能做到怎么使用好lua以及规范这样;第二周熟悉skynet框架,从main开始,分析它有几个部分,每个部分做了什么,然后不懂的地方看下官方的wiki和别人写的分析,再然后gdb看下一些变量值什么的;第三周是看项目的整体框架及各个模块组成及作用,以及消息走向,和登陆流程等,当然也是结合lua具体怎么使用;第四周开始接需求和从其他同事手中接手原来的所有玩法功能,一方面是维护,另一方面是增加或修改需求吧,我是比较赞成老人做新事,新人做老事,这样有个熟悉的过程,也减少些不必要的风险和其他成本。
当然我一直做的是新需求,而且比较重要,且系统有点复杂,附加任务是维护老的功能。我实现功能主要是从复杂度和扩展性上面考虑,一般先把需求文档弄清楚,约定通信协议格式,把临时数据和需要持久化的数据定好,然后将整个关键点列出来然后逐一分解,而且策划需求总是变更,把可能会变的功能,跟基础功能分开,改动的比较少引入新bug可能性会小些。
后来也断断续续利用业余时间研究skynet源码,所以准备记录下来。我这里以“浅析”是因为对skynet框架还没熟练运用并理解里面的实现原理,这里能看懂源码,但对云风作者为什么要这么设计等当时的思考不知,虽然会参考他的博客,但是有些一步步走过来的坑还不知道。
我会带着几个问题去探索这个skynet设计以及运行原理,研究源码,并不是把代码给分析一遍,而是需要思考为什么这么设计,换一种方式是否可行?要带着why,去思考how和why,这样才有可能学到,并且可能进行二次开发等。
以下是几个问题,可能并不能全面理解所有实现,因为一篇文章是无法分析完的,当然可能有后续的分析,下面正式开始。
问题:
1)整个skynet框架的组成,以及各模块的作用,以及启动流程;
2)如何加载一个服务,以及从服务a发消息至服务b的流程,处理并返回;
3)当并发时,如何保证正确时序,以及如何使用协程处理消息(同步/异步/超时);
以上三个问题涉及到的东西比较多,有不明白的可以参考网上资料和源码。
这里不会详细介绍lua的东西,我会在后续博客中重点分析下lua的协程实现源码以及闭包实现,这是为了填以往博客的坑。也不会分析游戏中的框架,这里会用身边的场景来代入问题。这里的分析只考虑单点,不会考虑分布式节点。
首先说明的是,skynet是多线程框架,然后里面对应了一些服务(service),每个服务对应一个lua 虚拟机,而一个虚拟机中可以跑很多个协程,但同一时刻就一个协程,每条消息处理由协程来做,且运行在保护模式下,lua层实现了协程池和时序相关的队列,这里可以类比前面c++协程相关实现,关于虚拟机的原理以及如何和c/c++交互可以查阅资料。
skynet框架那些事儿
整个框架相关的源码在skynet-src目录下,下面分析时不会涉及到哪个目录哪个文件,会从启动流程开始,有些初始化会跳过不作详细分析,但重要的相关的会说明。
main启动时,会有个lua格式的config配置文件,里面配置了工作线程个数,要加载的lua服务,以及环境相关的参数信息等,部分代码如下,其中skynet_start是关键。

118 int 119 main(int argc, char *argv[]) { 135struct skynet_config config; 140interr =luaL_loadbufferx(L, load_config, strlen(load_config),"=[skynet config]", "t"); 152config.thread =optint("thread",8); 153config.module_path = optstring("cpath","./cservice/?.so"); 155config.bootstrap = optstring("bootstrap","snlua bootstrap"); 156config.daemon = optstring("daemon", NULL); 157config.logger = optstring("logger", NULL); 158config.logservice = optstring("logservice", "logger"); 163skynet_start(&config); 167return 0; 168 }

246 void 247 skynet_start(struct skynet_config * config) { 262skynet_mq_init(); 264skynet_timer_init(); 265skynet_socket_init(); 268struct skynet_context *ctx = skynet_context_new(config->logservice, config->logger); 274bootstrap(ctx, config->bootstrap); 276start(config->thread);

以上是部分实现代码,在skynet_start过程中,会先设置信号处理函数,判断是否作为daemon进程,初始化harbor是否作为分布式节点之一(这时只考虑有一个节点)。
代码行262初始化全局消息队列:
211 void 212 skynet_mq_init() { 213struct global_queue *q = skynet_malloc(sizeof(*q)); 214memset(q,0,sizeof(*q)); 215SPIN_INIT(q); 216Q=q; 217 } 35 struct global_queue { 36struct message_queue *head; 37struct message_queue *tail; 38struct spinlock lock; 39 };

skynet中的消息队列是非常重要的,服务之间通信正是通过消息来驱动的,这里的设计是有一个全局消息队列,然后每个服务在创建时有一个消息队列,是发往到该服务待处理的消息,然后挂载到全局队列中等工作线程处理,引用一张图如下:

浅析skynet底层框架上篇
文章图片
框架 关于把消息入队和出队在这里不做详细分析。
代码行264是初始化定时器相关的数据,数据结构如下:
46 struct timer { 47struct link_list near[TIME_NEAR]; 48struct link_list t[4][TIME_LEVEL]; 49struct spinlock lock; 50uint32_t time; 51uint32_t starttime; 52uint64_t current; 53uint64_t current_point; 54 };

其中为什么有这一行struct link_list t[4][TIME_LEVEL],当时我分析的时候也是一头雾水,会在后面说明原因,以及如何跟协程绑定和处理超时,会在后面说明。
代码行265是初始化socket相关的数据,主要结构如下:
100 struct socket_server { 101int recvctrl_fd; 102int sendctrl_fd; 103int checkctrl; 104poll_fd event_fd; 105int alloc_id; 106int event_n; 107int event_index; 108struct socket_object_interface soi; 109struct event ev[MAX_EVENT]; 110struct socket slot[MAX_SOCKET]; 111char buffer[MAX_INFO]; 112uint8_t udpbuffer[MAX_UDP_PACKAGE]; 113fd_set rfds; 114 };

初始化部分实现如下:
328 struct socket_server * 329 socket_server_create() { 331int fd[2]; 332poll_fd efd = sp_create(); 337if (pipe(fd)) { } 342if (sp_add(efd, fd[0], NULL)) { } 351struct socket_server *ss = MALLOC(sizeof(*ss)); 352ss->event_fd = efd; 353ss->recvctrl_fd = fd[0]; 354ss->sendctrl_fd = fd[1]; 371 }

以上这块设计的挺好的,每个字段作用从命名能知道一二,具体的流程会在代码中分析(不知道能写多少)。
【浅析skynet底层框架上篇】代码行268会先创建个log服务,struct skynet_context对应一个虚拟机:
125 struct skynet_context * 126 skynet_context_new(const char * name, const char *param) { 127struct skynet_module * mod = skynet_module_query(name); 132void *inst = skynet_module_instance_create(mod); 135struct skynet_context * ctx = skynet_malloc(sizeof(*ctx)); 136CHECKCALLING_INIT(ctx) 138ctx->mod = mod; 139ctx->instance = inst; 140ctx->ref =2; 141ctx->cb =NULL; 142ctx->cb_ud =NULL; 143ctx->session_id =0; 154ctx->handle =0; 155ctx->handle = skynet_handle_register(ctx); 156struct message_queue * queue = ctx->queue = skynet_mq_create(ctx->handle); 161int r = skynet_module_instance_init(mod, inst, ctx, param); 162CHECKCALLING_END(ctx) 163if (r == 0) { 164struct skynet_context * ret = skynet_context_release(ctx); 165if (ret) { 166ctx->init =true; 167} 168skynet_globalmq_push(queue); 172return ret; 173}else { 174//more code... 181} 182 }

以上这段实现非常重要,这里加载动态库的模块为logger.so,非snlua.so,在用snlua启动bootstrap服务时会说明其他部分。
这里skynet_module_query根据name加载动态库用以初始化各服务,没有加载过的话会dlopen(tmp, RTLD_NOW | RTLD_GLOBAL),并设置相关的接口:
92 static int 93 open_sym(struct skynet_module *mod) { 94mod->create = get_api(mod,"_create"); 95mod->init = get_api(mod,"_init"); 96mod->release = get_api(mod,"_release"); 97mod->signal = get_api(mod,"_signal"); 99return mod->init == NULL; 100 }

后面的逻辑就是调用logger_create,这里不对logger相关的接口说明,毕竟是次要的,重点会分析snlua的;其中ctx->cb =NULL; ctx->cb_ud =NULL; 是消息分发到lua层的回调函数和参数,ctx->handle = skynet_handle_register(ctx)是分配一个唯一的句柄handle与每个服务关联,通过handle可找到对应的服务,相当于地址;然后为每个服务创建服务消息队列,接着logger_init,最后把消息队列通过skynet_globalmq_push到全局队列,一方面接收新的消息,另一方面由工作线程依次处理。
代码行274通过snlua启动bootstrap第一个服务(其实logger也算是一个服务):
232 static void 233 bootstrap(struct skynet_context * logger, const char * cmdline) { 238struct skynet_context *ctx = skynet_context_new(name, args); 244 }

其中cmdlinesnlua bootstrap,然后解析后namesnluaargsbootstrap;同logger一样,这里加载的是snlua.so,其他逻辑一样,这时重点分析下snlua_createsnlua_init
180 struct snlua * 181 snlua_create(void) { 182struct snlua * l = skynet_malloc(sizeof(*l)); 183memset(l,0,sizeof(*l)); 186l->L = lua_newstate(lalloc, l); 187return l; 188 } 14 struct snlua { 15lua_State * L; 16struct skynet_context * ctx; 20 };

其中lua_State是一个虚拟机的上下文,每个服务都有一个,做到服务与服务之间隔离,具体的数据组成可以看下lua源码中的声明;
147 int 148 snlua_init(struct snlua *l, struct skynet_context *ctx, const char * args) { 152skynet_callback(ctx, l , launch_cb); 156skynet_send(ctx,0, handle, PTYPE_TAG_DONTCOPY,0, "bootstrap", 9); 158 }

这里设置服务的回调函数launch_cb,然后发第一条消息给自己,由launch_cb处理,处理完后,重新设置回调函数为lua层的,那么后面路由到该服务的消息就能正确的分发到对应的回调函数了:
134 static int 135 launch_cb(struct skynet_context * context, void *ud, int type, int session, uint32_t source , const void * msg, size_t sz) { 136assert(type ==0 && session == 0); 137struct snlua *l = ud; 138skynet_callback(context,NULL, NULL); 139int err = init_cb(l, context, msg, sz); 145 } 75 static int 76 init_cb(struct snlua *l, struct skynet_context *ctx, const char * args, size_t sz) { 104const char * loader = optstring(ctx, "lualoader", "./lualib/loader.lua"); 106int r = luaL_loadfile(L,loader); 113r = lua_pcall(L,1,0,1);

108 static int 109 lcallback(lua_State *L) { 110struct skynet_context * context = lua_touserdata(L, lua_upvalueindex(1)); 111int forward = lua_toboolean(L, 2); 119if (forward) { 120skynet_callback(context, gL, forward_cb); 121}else { 122skynet_callback(context, gL,_cb); 123} 125return 0; 126 } 55 static int 56 _cb(struct skynet_context * context, void * ud, int type, int session, uint32_t source, const void * msg, size_t sz) { 57lua_State *L = ud; 58int trace = 1; 59int r; 60int top = lua_gettop(L); 61if (top == 0) { 62lua_pushcfunction(L, traceback); 63lua_rawgetp(L, LUA_REGISTRYINDEX,_cb); 64}else { 65assert(top ==2); 66} 67lua_pushvalue(L,2); 69lua_pushinteger(L, type); 70lua_pushlightuserdata(L, (void *)msg); 71lua_pushinteger(L,sz); 72lua_pushinteger(L, session); 73lua_pushinteger(L, source); 75r = lua_pcall(L,5, 0 , trace); 97 98return 0; 99}

init_cb比较复杂,设置虚拟机的相关环境变量,加载lua文件等,怎么加载的看上面列的几行关键代码,具体为什么看下源码和lua的luaL_loadfile和c与lua的交互栈。
代码行276是启动线程:
181 static void 182 start(int thread) { 183pthread_t pid[thread+3]; 185struct monitor *m = skynet_malloc(sizeof(*m)); 186memset(m,0, sizeof(*m)); 187m->count = thread; 188m->sleep =0; 189 190m->m = skynet_malloc(thread *sizeof(struct skynet_monitor *)); 191int i; 192for (i=0; im[i] = skynet_monitor_new(); 194}204create_thread(&pid[0], thread_monitor, m); 205create_thread(&pid[1], thread_timer, m); 206create_thread(&pid[2], thread_socket, m); 208static int weight[] = { 209-1, -1, -1, -1, 0, 0, 0, 0, 2101, 1, 1, 1, 1, 1, 1, 1, 2112, 2, 2, 2, 2, 2, 2, 2, 2123, 3, 3, 3, 3, 3, 3, 3, }; 213struct worker_parm wp[thread]; 214for (i=0; i

以上是创建多个线程,有thread_monitor线程,用于判断相应服务的消息列表是否过载;创建定时器thread_timer线程,用于处理超时;主要实现如下:
172 static void 173 timer_update(struct timer *T) { 174SPIN_LOCK(T); 176// try to dispatch timeout 0 (rare condition) 177timer_execute(T); 179// shift time first, and then dispatch timer message 180timer_shift(T); 182timer_execute(T); 184SPIN_UNLOCK(T); 185 }

接着再启动thread_socket网络线程,主要功能在skynet_socket_poll实现中,处理读和写,重点是读事件,这部分会放在后面分析。
下面是处理消息的工作线程实现原理:
152 static void * 153 thread_worker(void *p) { 154struct worker_parm *wp = p; 155int id = wp->id; 156int weight = wp->weight; 160struct message_queue * q = NULL; 161while (!m->quit) { 162q = skynet_context_message_dispatch(sm, q, weight); 163//check q is null 177} 178return NULL; 179 }

上面是一个列循环,当m->quittrue时才退出,当没有消息时会进行pthread_cond_wait,然后就是一直skynet_context_message_dispatch,其中weight是权重,在队列消息数有一定数量的情况下,有些线程会根据weight尝试处理多条消息:
296 structmessage_queue * 297 skynet_context_message_dispatch(struct skynet_monitor *sm, struct message_queue *q, int weight){ 298//check q is null 299q = skynet_globalmq_pop(); 300//check q is null 304uint32_t handle = skynet_mq_handle(q); 305 306struct skynet_context * ctx = skynet_handle_grab(handle); 307if (ctx == NULL) { 308struct drop_t d = { handle }; 309skynet_mq_release(q, drop_message, &d); 310return skynet_globalmq_pop(); 311} 13int i,n=1; 314struct skynet_message msg; 315 316for (i=0; i= 0) { 321n = skynet_mq_length(q); 322n >>= weight; 323} 324int overload = skynet_mq_overload(q); 325if (overload) { 326skynet_error(ctx, "May overload, message queue length = %d", overload); 327} 328 329skynet_monitor_trigger(sm, msg.source , handle); 330 331if (ctx->cb == NULL) { 332skynet_free(msg.data); 333} else { 334dispatch_message(ctx, &msg); 335} 336 337skynet_monitor_trigger(sm, 0,0); 338} 40assert(q == ctx->queue); 341struct message_queue *nq = skynet_globalmq_pop(); 342if (nq) { 343// If global mq is not empty , push q back, and return next queue (nq) 344// Else (global mq is empty or block, don't push q back, and return q again (for next dispatch) 345skynet_globalmq_push(q); 346q = nq; 347} 348skynet_context_release(ctx); 349 350return q; 351 }

上面代码工作线程从全局队列中pop出一个服务的队列,然后根据队列的handle获取到对应服务的skynet_context,然后根据weight要处理多少条消息,主要逻辑在dispatch_message中,然后pop下一个服务的消息队列,这里算是公平吧,然后把原来的队列push到全局队列中,这里也有一些负载统计逻辑。
dispatch_message里面最终执行的是ctx->cb(ctx, ctx->cb_ud, type, msg->session, msg->source, msg->data, sz),就回到了上面说的调用lua的回调函数。
以上是skynet框架的整体实现,可能有些细节或遗漏的地方没有在这里分析。
总结下,主要引用连接中作者的设计思想: 1)把一个符合规范的 C 模块,从动态库(so 文件)中启动起来,绑定一个永不重复(即使模块退出)的数字 id 做为其 handle 。模块被称为服务(Service),服务间可以自由发送消息。每个模块可以向 Skynet 框架注册一个 callback 函数,用来接收发给它的消息。每个服务都是被一个个消息包驱动,当没有包到来的时候,它们就会处于挂起状态,对 CPU 资源零消耗。如果需要自主逻辑,则可以利用 Skynet 系统提供的 timeout 消息,定期触发。
2)简单说,Skynet 只负责把一个数据包从一个服务内发送出去,让同一进程内的另一个服务收到,调用对应的 callback 函数处理。它保证,模块的初始化过程,每个独立的 callback 调用,都是相互线程安全的。编写服务的人不需要特别的为多线程环境考虑任何问题。专心处理发送给它的一个个数据包。
3)它仅仅是把数据包的指针,以及你声称的数据包长度(并不一定是真实长度)传递出去。由于服务都是在同一个进程内,接收方取得这个指针后,就可以直接处理其引用的数据了。
这个机制可以在必要时,保证绝对的零拷贝,几乎等价于在同一线程内做一次函数调用的开销。
但,这只是 Skynet 提供的性能上的可能性。它推荐的是一种更可靠,性能略低的方案:它约定,每个服务发送出去的包都是复制到用 malloc 分配出来的连续内存。接收方在处理完这个数据块(在处理的 callback 函数调用完毕)后,会默认调用 free 函数释放掉所占的内存。即,发送方申请内存,接收方释放。
4)在 Skynet 启动时,建立了若干工作线程(数量可配置),它们不断的从主消息列队中取出一个次级消息队列来,再从次级队列中取去一条消息,调用对应的服务的 callback 函数进行出来。为了调用公平,一次仅处理一条消息,而不是耗净所有消息(虽然那样的局部效率更高,因为减少了查询服务实体的次数,以及主消息队列进出的次数),这样可以保证没有服务会被饿死。
用户定义的 callback 函数不必保证线程安全,因为在 callback 函数被调用的过程中,其它工作线程没有可能获得这个 callback 函数所熟服务的次级消息队列,也就不可能被并发了。一旦一个服务的消息队列暂时为空,它的消息队列就不再被放回全局消息队列了。这样使大部分不工作的服务不会空转 CPU 。
收发处理消息的那些事儿
这节会说明如何从在lua层,从服务发条消息到另一个服务,这里为了简化起见,考虑的是send调用,发的参数是string类型,顺便印证上个小结最后总结引用的设计思想。
当我们在lua层的业务逻辑中写这么一条语句skynet.send(agentAddr, "lua", "CallFunc", "hello world.")后会发生什么事情?
他调用的是:
416 function skynet.send(addr, typename, ...) 417local p = proto[typename] 418return c.send(addr, p.id, 0 , p.pack(...)) 419 end

其中"lua"是我们的协议类型, "CallFunc"和"hello world."表示的是方法名和参数,表示agentAddr对方服务handle,skynet.pack是对方法名和参数名编码,是调用C层的:
599 LUAMOD_API int 600 luaseri_pack(lua_State *L) { 601struct block temp; 602temp.next = NULL; 603struct write_block wb; 604wb_init(&wb, &temp); 605pack_from(L,&wb,0); 606assert(wb.head == &temp); 607seri(L, &temp, wb.len); 609wb_free(&wb); 611return 2; 612 }534 static void 535 seri(lua_State *L, struct block *b, int len) { 536uint8_t * buffer = skynet_malloc(len); 537uint8_t * ptr = buffer; 538int sz = len; 539while(len>0) { 540if (len >= BLOCK_SIZE) { 541memcpy(ptr, b->buffer, BLOCK_SIZE); 542ptr += BLOCK_SIZE; 543len -= BLOCK_SIZE; 544b = b->next; 545} else { 546memcpy(ptr, b->buffer, len); 547break; 548} 549} 550 551lua_pushlightuserdata(L, buffer); 552lua_pushinteger(L, sz); 553 }296 static void 297 pack_one(lua_State *L, struct write_block *b, int index, int depth) { 320case LUA_TSTRING: { 321size_t sz = 0; 322const char *str = lua_tolstring(L,index,&sz); 323wb_string(b, str, (int)sz); 324break; 325}

打包的时候,会进行一次拷贝,最后返回一个C指针和数据长度,接着调用C层的send函数,即lsendlsend调用send_message(L, 0, 2)
232 static int 233 send_message(lua_State *L, int source, int idx_type) { 234struct skynet_context * context = lua_touserdata(L, lua_upvalueindex(1)); 252int mtype = lua_type(L,idx_type+2); 253switch (mtype) { 267case LUA_TLIGHTUSERDATA: { 268void * msg = lua_touserdata(L,idx_type+2); 269int size = luaL_checkinteger(L,idx_type+3); 270if (dest_string) { 271session = skynet_sendname(context, source, dest_string, type | PTYPE_TAG_DONTCOPY, session, msg, size); 272} else { 273session = skynet_send(context, source, dest, type | PTYPE_TAG_DONTCOPY, session, msg, size); 274} 275break; 276} 285lua_pushinteger(L,session); 286return 1; 287 }

其中type或上PTYPE_TAG_DONTCOPY表示不要拷贝数据,因为msg是C层变量指针,会在适当的时候由C释放;最后会返回session用于可能后续的响应消息回来找到上下文(对于call调用);
699 int 700 skynet_send(struct skynet_context * context, uint32_t source, uint32_t destination , int type, int session, void * data, size_t sz) { 708_filter_args(context, type, &session, (void **)&data, &sz); 710if (source == 0) { 711source = context->handle; 712} 713 714if (destination == 0) { 715return session; 716} 717if (skynet_harbor_message_isremote(destination)) { 718//跟另外节点通讯 724} else { 725struct skynet_message smsg; 726smsg.source = source; 727smsg.session = session; 728smsg.data = https://www.it610.com/article/data; 729smsg.sz = sz; 730 731if (skynet_context_push(destination, &smsg)) { 732skynet_free(data); 733return -1; 734} 735} 736return session; 737 }229 int 230 skynet_context_push(uint32_t handle, struct skynet_message *message) { 231struct skynet_context * ctx = skynet_handle_grab(handle); 232if (ctx == NULL) { 233return -1; 234} 235skynet_mq_push(ctx->queue, message); 236skynet_context_release(ctx); 237 238return 0; 239 }

上面代码是把消息压入对方服务的消息队列,而_filter_args主要是(可能)分配一个session值,对长度进行编码,高八位存放type信息。
另外每个服务分配的session都是大于0的,每条消息唯一session,且当int变为负数时重置session为1,不大可能造成两条不同的消息而session相同。
当对方服务被工作线程处理时,会进行消息的回调,就回到了上面的实现。
工作中整理的问题:
1)如果处理某个服务的消息造成死循环或处理时间过久,那么可能导致底层一些服务队列得不到调度和处理,可能造成消息队列过大,占用更多内存,从而导致“雪崩”问题,后面处理的消息都可能是超时的。比如定时任务运行耗时过多;业务需求比如从一些道具列表中随机几个不同的道具,直到选到几个不同的才退出循环,没有选择适合的随机算法;有的业务逻辑不正确,导致使用协程数量过多等待,无法切换回来并释放。
2)协程的调度,切换回来后出现各种各样的问题,比如某个对象已经释放,虽然通过闭包引用着某个对象(地址),但是obj->isReleased()是true,所以处理了各种错误的数据。
3)用不到的对象本应该释放,不小心相互引用着对方,导致lua gc时不能够回收相应资源,造成内存泄漏。
4)不合理的使用call,导致在某些关键路径上任性的切换协程,而可能导致时序问题,因为使用协程后,有些是不确定的,即切出后什么时候切回来,如果玩家在登陆的时候请求其他服务数据导致切出协程,那什么时候切回来呢。
5)还有跟顺序有关的消息处理,引用云风作者举的例子“如果 B 是一个 lua 服务,当 A 向 B 发送了两条消息 x 和 y 。skynet 一定保证 x 先被 B 中的 lua 虚拟机收到,并为 x 消息生成了一个 coroutine X ,并运行这个 coroutine 。然后才会收到消息 y ,重新生成一个新的 coroutine Y ,接下来运行。”
如果处理X的时候,协程因为某些原因挂起,那么处理Y的时候可能会改变一些状态等。Skynet中Lua服务的消息处理
6)还有使用不适合的算法,比如时间复杂度的O(n)或更差实现等。
浅析skynet底层框架中篇主要分析skynet的定时器和网络实现部分,再加个消息队列,和本篇的第三个小问题。
下面是参考资料:
云风博客
skynet源码
Skynet 设计综述
skynet服务的过载保护

    推荐阅读