Чтобы ещё меньше грешить на parser, попробовал запустить процесс, который жрёт много ресурсов и выполняется долго.
И зайти на любую страницу, страница не отдаётся пока не завершится предыдущий процесс. Как будто он лочится.
Такое может быть?
30 мая 2013 г., 10:35 пользователь Юрий Трушкин <i@xxxxxxxxxxx> написал:
Расшифровка:
В скрипте parser пробовал загрузить через ^file::load, ^curl::load, а также чтобы отвести подозрения от самого парсера, через запуск bash скрипта с попыткой перейти по url через wget.
Результат идентичен, т.е. умирает по timeout.
Что можно попробовать, чтобы изловить проблему?
30 мая 2013 г., 10:19 пользователь Daniel Podolsky <onokonem@xxxxxxxxx> написал:
> Если сделать load страницы по http/https на тестовый скрипт, который в свою
> очередь попробует загрузить страницу с клиента, последующие запросы
> подвисают и как бы ждут пока завершится первый.