16 воркеров (и выше):
Time per request: 2077.931 [ms] (mean)
Time per request: 207.793 [ms] (mean, across all concurrent
requests)
Вот тут не совсем понятно. По идее, если-бы параллельные запросы
раздавались сразу на все воркеры, то значения должны были-бы быть в
районе 1 секунды и 100 мс. В данном случае не совсем понятна логика
распределения запросов.
Игорь, можете прокомментировать эти данные?
Если не стоит "events { multi_accept on }" и используется epoll, то это
объясняется так: nginx принял одно соединение и добавил его в epoll, затем
опять вызвал epoll_wait(), он может вернуть два события: первое - новое
соединение и второе - готовность данных для первого соединения. Таким
образом,
nginx получил два соединения перед sleep().