Nginx-ru mailing list archive (nginx-ru@sysoev.ru)
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: fastcgi performance at 10K
- To: nginx-ru@xxxxxxxxx
- Subject: Re: fastcgi performance at 10K
- From: Konstantin Belov <belov1985@xxxxxxxxx>
- Date: Wed, 15 Apr 2009 15:47:02 +0300
- Dkim-signature: v=1; a=rsa-sha256; c=relaxed/relaxed; d=gmail.com; s=gamma; h=domainkey-signature:received:received:message-id:date:from :user-agent:mime-version:to:subject:references:in-reply-to :content-type:content-transfer-encoding; bh=Nh9l+MHjbTsEWVBVrI2O8hjC5scKSmcOQ1K+LsP9zgU=; b=O7wCmql7ZmdhIuSsjKwtGK5ao/Mkv2JINk0iQkvyY9A6+2k6orqHb6y43UITkUOI3A CZOhRzH7P4ZAY2YzHN3gA4Mp5RAhrWxry6RLwxvHMNBDx6aE+lHoJxECnSe1TvUKSyfR BaIhuQoiaWO07BkAe8Xed/VmJhSNdjUa6M/fc=
- Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=message-id:date:from:user-agent:mime-version:to:subject:references :in-reply-to:content-type:content-transfer-encoding; b=CZtt/MWCNdfdwdU8+dxCt6np7yXYKtZ1Y0Ks7TNd5fP1FWCyeljAUTKFGuEBD279c8 E61Y9uWuErQvJbeqPdM8t5qFA8c88rhjiEJM5VX1yzpOMPL3EjhZ+urp5CkmV4Q36QEL jbxkyLEFvD+nxLhjUqsvxAEGcZa7pMEl2Aq6Q=
- In-reply-to: <1315727496.20090415192616@xxxxxxxxxx>
- References: <fb7e57860904150255u77b79890jac1f769a47daf9e4@xxxxxxxxxxxxxx> <20090415113509.GD25999@xxxxxxxxxx> <1315727496.20090415192616@xxxxxxxxxx>
Denis F. Latypoff wrote:
Hello Maxim,
Wednesday, April 15, 2009, 6:35:09 PM, you wrote:
On Wed, Apr 15, 2009 at 12:55:53PM +0300, Alexander Dolgarev wrote
В спеке FastCGI указано, что соединения между веб-сервером и
fastcgi-сервером могут быть постоянными, при этом nginx в
FCGI_BEGIN_REQUEST не указывает флаг FCGI_KEEP_CONN, в результате чего
fastcgi-сервер закрывает соединение после ответа.
Существует ли возможность в nginx делать соединения с fastcgi-сервером
постоянными или это впринципе не реализовано?
Я так понимаю, что при тысячах запросов от клиентов nginx делает
тысячи попыток соединиться с fastcgi-сервером (1 запрос = 1 соединение
к fastcgi), которому приходится разгребать все эти соединения, а чаще
всего просто получаем ECONNREFUSED, не было бы лучше
мультиплексировать все запросы по нескольким постоянным соединениям?
Подскажите, как это сделать, если это сделать нельзя, то планируется
ли реализация такого поведения в будущем?
У меня есть работающий прототип поддержки keepalive для fastcgi.
Если очень хочется потестировать - могу поделиться патчами.
О! Раз пошла такая пьянка, то можно мне патчик? У меня есть самописный
сервер, разговаривающий по протоколу FastCGI (it uses libev). Я бы его
научил keepalive'у.
Если не секрет, то какие задачи у сервера и какие библиотеки использовали?
Сейчас просто занимаюсь разработкой чат-демона (наподобие voodoo chat),
но опыта
мало, а примеров в сети не так много нашел.
|