Nginx的事件循环

首先事件循环的起点就是监听端口获取连接,我们可以在ngx_event_core_module模块的ngx_event_process_init函数中看到如下的代码

    /* for each listening socket */
    /*为每个监听套接字从connection数组中分配一个连接,即一个slot*/    
    ls = cycle->listening.elts;   //监听套接字是在master进程那里继承过来的,已经初始化好了
    for (i = 0; i < cycle->listening.nelts; i++) {
    //为当前监听套接字的文件描述符分配一个connection,函数返回值c是当前监听套接字关联的connection
        c = ngx_get_connection(ls[i].fd, cycle->log);   

        if (c == NULL) {
            return NGX_ERROR;
        }

        c->log = &ls[i].log;

        c->listening = &ls[i];   //当前连接的监听端口
        ls[i].connection = c;   //当前监听端口的connection

        rev = c->read;   //rev指向当前connection的读事件

        rev->log = c->log;
        rev->accept = 1;    //表示当前的读事件是监听端口的accept事件,可以用于epoll区分是一般的读事件还是监听对口的accept事件

#if (NGX_HAVE_DEFERRED_ACCEPT)
        rev->deferred_accept = ls[i].deferred_accept;
#endif
        if (!(ngx_event_flags & NGX_USE_IOCP_EVENT)) {
            if (ls[i].previous) {
                /*
                 * delete the old accept events that were bound to
                 * the old cycle read events array
                 */

                old = ls[i].previous->connection;

                if (ngx_del_event(old->read, NGX_READ_EVENT, NGX_CLOSE_EVENT)
                    == NGX_ERROR)
                {
                    return NGX_ERROR;
                }

                old->fd = (ngx_socket_t) -1;
            }
        }

        /*注册监听套接口读事件的回调函数ngx_event_accept*/        rev->handler = ngx_event_accept;   //说白了就是从监听套接字来获取连接的socket

这部分代码在worker进程中,为每一个listening分配一个connection与之对应,并将该connection的读事件的处理函数设置为ngx_event_accept函数,也就是说用这个函数来处理listening的accept,好了接下来我们从这个函数看起(该函数定义在Ngx_event_accept.c):

    lc = ev->data;  //获取该事件对应的connection
    ls = lc->listening;
    ev->ready = 0;
    
  //因为是用的epoll的触发机制,所以这里要不断的循环,直到数据全部读取完了才行
    do {
        socklen = NGX_SOCKADDRLEN;

  //调用accept函数来获取连接的socket
        s = accept(lc->fd, (struct sockaddr *) sa, &socklen);

上部分的代码,首先从event变量中获取该事件对应的connection,接着就可以调用accept函数了,从监听的socket描述符中获取连接。

        /*accept到一个新的连接后,就重新计算ngx_accept_disabled的值 
               ngx_accept_disabled已经提及过了,它主要用来做负载均衡之用。 
                
               这里,我们能够看到它的求值方式是“总连接数的八分之一,减去 
               剩余的连接数”。总连接数是指每个进程设定的最大连接数,这个数字 
               可以在配置文件中指定。由此处的计算方式,可以看出:每个进程accept 
               到总连接数的7/8后,ngx_accept_disabled就大于0了,连接也就 
               超载了。 
              */  

        ngx_accept_disabled = ngx_cycle->connection_n / 8
                              - ngx_cycle->free_connection_n;
//为刚刚连接的socket分配connection
        c = ngx_get_connection(s, ev->log);

上述代码用于在获取连接之后,计算ngx_accept_disabled的值,它用来进行worker进程间的负载均衡,避免一个worker进程持有太多的connection,具体的以后会讲。然后就是为连接进来的socket描述符分配connection,接下来的代码就是初始化这个刚刚分配的connection,例如为其分配内存池,将socket描述符设置为非阻塞等等。

      //将当前新生成的连接加入
        if (ngx_add_conn && (ngx_event_flags & NGX_USE_EPOLL_EVENT) == 0) {
            if (ngx_add_conn(c) == NGX_ERROR) {
                ngx_close_accepted_connection(c);
                return;
            }
        }

        log->data = NULL;
        log->handler = NULL;

        /*这里的listen handler很重要,它将完成新连接的最后初始化工作 
            同时将accept到的新连接放入epoll中;挂在这个handler上的函数 
            就是ngx_http_init_connection(位于src/http/ngx_http_request.c中); 
            这个函数放在分析http模块的时候再看吧。 
          */  
        ls->handler(c);   

上面这部分代码是比较重要的,它首先调用ngx_add_conn函数将刚刚的连接加入到epoll当中去,我们可以看看ngx_add_conn的定义,在Ngx_event.h当中:

#define ngx_add_conn         ngx_event_actions.add_conn

其实这里看过前面的文章就会知道ngx_add_conn说白了就是调用实际事件模块的add_conn函数,如果实际使用的是epoll模块的话那么将会调用epoll模块的ngx_epoll_add_connection函数,接下来还有一句代码:

        ls->handler(c);   

这里就是用listening的handler对刚刚分配的connection进行处理,这里就会涉及到http部分的东西了,以后再说吧。

好了到这里ngx_event_accept函数说的就差不多了。接下来可以正式进入Nginx的事件循环了。我们先看事件循环的入口吧,在worker进程的执行函数ngx_worker_process_cycle中,有如此一句代码在每次循环中都会用到

//处理时间和定时,说白了这个函数不断的处理发生的事件
        ngx_process_events_and_timers(cycle);

嗯,ngx_process_events_and_timers函数就是事件循环的入口函数,其定义在Ngx_event.c当中,接下来我们来分析该函数:

    /*ngx_use_accept_mutex变量代表是否使用accept互斥体 
     默认是使用,accept_mutex off;指令关闭。 
     accept mutex的作用就是避免惊群,同时实现负载均衡。 
     */  
    if (ngx_use_accept_mutex) {
        if (ngx_accept_disabled > 0) {
            ngx_accept_disabled--;
        } else {
         /* ngx_accept_disabled小于0,连接数没超载*/  
              
            /*尝试锁accept mutex,只有成功获取锁的进程,才会将listen 
              套接字放入epoll中。因此,这就保证了只有一个进程拥有 
              监听套接口,故所有进程阻塞在epoll_wait时,不会出现惊群现象。 
            */  
            //这里的ngx_trylock_accept_mutex函数中,如果顺利的获取了锁,那么它会将监听端口注册到当前worker进程的epoll当中
            if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) {
                return;
            }
              /*获取锁的进程,将添加一个NGX_POST_EVENTS标志, 
                  此标志的作用是将所有产生的事件放入一个队列中, 
                  等释放锁后,再慢慢来处理事件。因为,处理事件可能 
                  会很耗时,如果不先释放锁再处理的话,该进程就长 
                  时间霸占了锁,导致其他进程无法获取锁,这样accept 
                  的效率就低了。 
                */  
            if (ngx_accept_mutex_held) {
                flags |= NGX_POST_EVENTS;  //获取了锁,那么就设置标志位
            } else {
                /*没有获得锁的进程,当然不需要NGX_POST_EVENTS标志了。 
                  但需要设置最长延迟多久,再次去争抢锁。 
                */  
                if (timer == NGX_TIMER_INFINITE
                    || timer > ngx_accept_mutex_delay)
                {
                    timer = ngx_accept_mutex_delay;
                }
            }
        }
    }

首先是判断是否使用了ngx_use_accept_mutex信号量,该信号量用于避免惊群的发生。只有当当前worker进程获取了该信号量之后才会将listening真正加入到自己的epoll当中,相应accept事件。这里也看到了上面提到的ngx_accept_disabled便用的作用,他也用于判断是否将listening加入到当前worker进程的epoll当中,这样可以做到负载均衡,避免一个worker进程持有了太多的connection。

   /*epoll开始wait事件了,ngx_process_events的具体实现是对应到 
                 epoll模块中的ngx_epoll_process_events函数。单独分析epoll 
                 模块的时候,再具体看看。 
           */  
    (void) ngx_process_events(cycle, timer, flags);

这句代码直接调用的是实际事件模块的process_events函数,来处理事件,还是来看其定义吧:

#define ngx_process_events   ngx_event_actions.process_events

嗯,一看就明白了,如果使用的是epoll模块的话,那么将会调用其的ngx_epoll_process_events函数。待会再细讲它吧。

       if (ngx_posted_accept_events) {
             /*ngx_posted_accept_events是一个事件队列 
              暂存epoll从监听套接口wait到的accept事件。 
              前文提到的NGX_POST_EVENTS标志被使用后,就会将 
              所有的accept事件暂存到这个队列。 
               
              这里完成对队列中的accept事件的处理,实际就是调用 
              ngx_event_accept函数来获取一个新的连接,然后放入 
              epoll中。 
            */  
        ngx_event_process_posted(cycle, &ngx_posted_accept_events);
    }

    /*所有accept事件处理完成,如果拥有锁的话,就赶紧释放了。 
       其他进程还等着抢了。 
     */  
    if (ngx_accept_mutex_held) {
        ngx_shmtx_unlock(&ngx_accept_mutex);
    }

该部分代码判断是否从listening监听中获取了accept事件,如果有的话,那么就要赶紧处理它,因为说明现在worker进程已经占有了ngx_accept_mutex信号量,处理完accept事件后就要赶紧释放掉该信号量,好让别的worker进程可以获取该锁,然后从listening中获取连接。

    /*处理普通事件(连接上获得的读写事件)队列上的所有事件, 
        因为每个事件都有自己的handler方法,该怎么处理事件就 
        依赖于事件的具体handler了。 
      */  
    if (ngx_posted_events) {
        if (ngx_threaded) {
            ngx_wakeup_worker_thread(cycle);

        } else {
            ngx_event_process_posted(cycle, &ngx_posted_events);
        }
    }

这部分就用于处理普通的事件了。这样ngx_process_events_and_timers函数中处理事件的部分就讲完了,但是该函数其实还有用于处理定时的部分,这个以后讲Nginx的定时函数处理的时候再说吧。

好,接下来分析感刚刚提到的epoll模块的ngx_epoll_process_events函数。

//这里是epoll的wait,将得到的事件存到event_list里面,最大的事件量是nevents
    /*一开始就是等待事件,最长等待时间为timer;nginx为事件 
    专门用红黑树维护了一个计时器。后续对这个timer单独分析。 
    */  
    events = epoll_wait(ep, event_list, (int) nevents, timer);    //这个超时事件是从红黑树里面获取的,当前最近的超时,这样可以保证epoll的wait能够在合适的时间内返回,保证定义的超时事件可以执行

首先就是调用epoll_wait函数从epoll中获取发生的事件,然后就可以遍历这些事件了:

//循环遍历所有产生的事件
    for (i = 0; i < events; i++) {
        c = event_list[i].data.ptr;  //获取该事件实际对应的connection

//instance 说白了就是个整形的变量
        instance = (uintptr_t) c & 1;
        c = (ngx_connection_t *) ((uintptr_t) c & (uintptr_t) ~1);

        rev = c->read;

        if (c->fd == -1 || rev->instance != instance) {
            /*
             * the stale event from a file descriptor
             * that was just closed in this iteration
             */
            ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                           "epoll: stale event %p", c);
            continue;
        }
      //获取发生的事件的类型
        revents = event_list[i].events;

        ngx_log_debug3(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                       "epoll: fd:%d ev:%04XD d:%p",
                       c->fd, revents, event_list[i].data.ptr);
//如果发生了错误事件
        if (revents & (EPOLLERR|EPOLLHUP)) {
            ngx_log_debug2(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                           "epoll_wait() error on fd:%d ev:%04XD",
                           c->fd, revents);
        }

#if 0
        if (revents & ~(EPOLLIN|EPOLLOUT|EPOLLERR|EPOLLHUP)) {
            ngx_log_error(NGX_LOG_ALERT, cycle->log, 0,
                          "strange epoll_wait() events fd:%d ev:%04XD",
                          c->fd, revents);
        }
#endif

        if ((revents & (EPOLLERR|EPOLLHUP))
             && (revents & (EPOLLIN|EPOLLOUT)) == 0)
        {
            /*
             * if the error events were returned without EPOLLIN or EPOLLOUT,
             * then add these flags to handle the events at least in one
             * active handler
             */

            revents |= EPOLLIN|EPOLLOUT;
        }
        /*该事件是一个读事件,并该连接上注册的读事件是active的*/  
        if ((revents & EPOLLIN) && rev->active) {

            if ((flags & NGX_POST_THREAD_EVENTS) && !rev->accept) {
                rev->posted_ready = 1;

            } else {
                rev->ready = 1;
            }

            if (flags & NGX_POST_EVENTS) {
//如果设置了NGX_POST_EVENTS,表示当前worker进程已经获取了锁,那么将获取的事件入队,因为可能是监听端口的accept事件,这里如果是监听端口的accept事件的话,那么该event的accept域会置为1 ,这个是在事件模块的worker进程初始化中会设置的
//这里持有了锁就应该将产生的事件放入队列中,是为了能够在锁释放了以后再处理这些事件,这样可以让别的worker进程能够尽快的获取锁
                queue = (ngx_event_t **) (rev->accept ?
                               &ngx_posted_accept_events : &ngx_posted_events); 

                ngx_locked_post_event(rev, queue);

            } else {
                rev->handler(rev);
            }
        }

        wev = c->write;
//如果是写事件,而且相应connection的写事件是激活的
        if ((revents & EPOLLOUT) && wev->active) {

            if (c->fd == -1 || wev->instance != instance) {

                /*
                 * the stale event from a file descriptor
                 * that was just closed in this iteration
                 */

                ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                               "epoll: stale event %p", c);
                continue;
            }

            if (flags & NGX_POST_THREAD_EVENTS) {
                wev->posted_ready = 1;

            } else {
                wev->ready = 1;
            }

            if (flags & NGX_POST_EVENTS) {
                ngx_locked_post_event(wev, &ngx_posted_events);

            } else {
                wev->handler(wev);
            }
        }
    }

上面的代码其实注释就已经说的很明白了,循环遍历所有的事件,判断该事件的类型,并获取该事件实际所属的connection,如果发生的是读事件,那么取出该connection的read事件,然后用read的handler来处理,如果是写事件,那么就获取该connection的write,然后用write的handler来处理。但是这里需要注意的是,

  if (flags & NGX_POST_EVENTS) {
//如果设置了NGX_POST_EVENTS,表示当前worker进程已经获取了锁,那么将获取的事件入队,因为可能是监听端口的accept事件,这里如果是监听端口的accept事件的话,那么该event的accept域会置为1 ,这个是在事件模块的worker进程初始化中会设置的
//这里持有了锁就应该将产生的事件放入队列中,是为了能够在锁释放了以后再处理这些事件,这样可以让别的worker进程能够尽快的获取锁
                queue = (ngx_event_t **) (rev->accept ?
                               &ngx_posted_accept_events : &ngx_posted_events); 

                ngx_locked_post_event(rev, queue);

            } else {
                rev->handler(rev);
            }

该段代码判断是否持有了信号量,前面已经说过了,如果持有的话,就要将这些事件放入到队列中,稍后在处理,这里是为了尽快能够释放信号量,并且还要判断该事件的类型,区分是accept事件还是普通的读事件,用于将它们放入不同的队列,嗯,event的accept域这个在以前已经说过了,就是为了这个判断的。

好了,ngx_epoll_process_events函数也已经基本讲完了,那么事件循环也就差不多了。

转自:http://www.xuebuyuan.com/2041521.html