Nginx-ru mailing list archive (nginx-ru@sysoev.ru)
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re[2]: небольшой оффтоп: device polling
Здравствуйте, Igor.
Вы писали 14 листопада 2007 р., 20:24:01:
> On Wed, Nov 14, 2007 at 07:35:50PM +0200, Pentarh Udi wrote:
>> Здравствуйте, Anton.
>>
>> Вы писали 14 листопада 2007 р., 19:00:38:
>>
>> > On 14.11.2007 19:47, Pentarh Udi wrote:
>> >>
>> >> Есть ряд вопросов по поллингу, я надеюсь не сочтут оффтопом.
>>
>> > polling имеет большой овехед, и при наличии хорошей сетевой карты
>> > (em, bge) его лучше не использовать совсем.
>>
>>
>> Врубил поллинг, сэкономил где то 20% загрузки процессора. И почему то
>> трафик пошел как сказать... эффективнее что ли. На сервере подросла
>> отдача мегабит на 20, а юзеры по сайту стали кликать активнее
>> (последнее я не знаю с чем связать, но кроме как с включением поллинга
>> - больше не с чем)
> Есть мнение, что при использовании polling'а idle считается неверно.
> Сколько ест процесс idle в "top -S" ?
> Кстати, что показывает
> sysctl kern.polling.idle_poll
Немного раздуплился и поставил такие значения:
kern.polling.idle_poll=1
kern.polling.user_frac=20
kern.polling.reg_frac=100
kern.polling.burst_max=1000
При этом скорость возрастания kern.polling.lost_polls значительно
уменьшилась при неизменном HZ 1000.
top -S:
PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND
33 root 1 171 52 0K 16K RUN 1 576:52 54.74% idlepoll
14 root 1 -44 -163 0K 16K CPU1 1 23.9H 39.75% swi1: net
10 root 1 171 52 0K 16K RUN 1 41.8H 26.07% idle: cpu1
23409 nginx 1 4 0 46836K 32076K kqread 0 110:42 12.74% nginx
11 root 1 171 52 0K 16K RUN 0 24.2H 12.60% idle: cpu0
23407 nginx 1 4 0 46828K 32068K kqread 0 111:15 11.91% nginx
23406 nginx 1 4 0 46836K 32076K kqread 0 112:18 9.13% nginx
23408 nginx 1 4 0 46832K 32072K kqread 1 112:56 8.84% nginx
23410 nginx 1 4 0 46828K 32068K kqread 0 113:45 8.74% nginx
3 root 1 -8 0 0K 16K - 0 64:57 1.12% g_up
25 root 1 -64 -183 0K 16K WAIT 0 50:34 1.07% irq20: atapc
--
С уважением,
Pentarh mailto:lists@xxxxxxxxxxx
|