Что-то как-то намудрённо... Почему курл, если скрипт находится локально?
Почему не натравить парзер?
nginx@xxxxxxxx schrieb:
Например. Есть скрипт 1.php , который прежде чем выдаст ответ,
запрашивает инфу у 2.php (через curl)
запущено 50 обработчика php
Если обратится к 1.php в 51 и более паралельных запросов, все
обработчики полностью виснут. После этого приходится убивать php при
помощи
killall -9 php-cgi
иначе не убивается
пока просто отделили под 2.php несколько обработчиков на другом порту
хотя и сейчас местами наблюдаются подвисания, но обычно отвисает сам
Проблема похоже в php. Может кто-нибудь уже решил её?
Кстати пока разбирался с этим замерял производительность связки на
тестовой машине (средний домашний двухядерник).
eaccelerator включён
Скрипт с обычным phpinfo(); обрабатывается примерно 430 раз в секунду
Рабочие скрипты не больше 100 в секунду. Причём, касательно этих 100,
такое ощущение, что где-то, что-то нужно "подкрутить", т.к. общая
загрузка системы во время теста 65-70%
Причём пробовал apache 1.3.x + mod_php и получил примерно такую же
производительность php (ниже процентов на 10).
Действительно что-то нужно донастроить, или это нормальные показатели
для php?