Подумал я и решил пока(?) сделать хранение логов на файловой системе с
дальнейшей склейкой, благо есть готовый софт заточенный под скорость
работы, а именно:
http://mergelog.sourceforge.net/
но и тут не все так однозначно, поэтому интересно послушать каким путем
пошли те, кто это уже делал и какие грабли были. Так как мне видится
несколько вариантов:
1. Пишем все равно на NFS, но в разные файлы с разных машин. В этом случае
не требуется таскать файлы по ftp/http/.... Склеиваем на центральной
машине. Проблема только в том, что в этом случае сложно синхронизировать
склейку с ротацией файлов, так как после mv апач какое то время будет
перодолжать писать в файл, который для внешней программы как бы
проратейчен (если только после ротации делать поврорный mv уже с другим
именем). Видимо придется держать еще и смещения для каждого файла, на
которых прекращалась склейка. Но тогда при падении машины (или программы)
в момент записи смещения мы получим дублирование записей.
2. Пишется на локальную машину. Легко сделать ротацию, да и писать на
локальный диск быстрее, но потом надо скопировать файл, что в прочем не
так страшно. Но вот в чем вопрос, при kill -HUP apache , если я правильно
понимаю прибивает всех своих детей, а значит на какой то момент после kill
-HUP все начинает тормозить, так что часто такое делать не стоит,
получается что все равно писать смещение ? Может быть есть какой то другой
сигнал помимо kill -HUP которым можно переоткрыть логи апача, и при этом
более быстро нежели при kill -HUP?
Вопрос скорее даже не в записи на NFS или локальный диск, а в том хранить
ли смещения или делать регулярно KILL -1? Просто хотелось бы склеивать
логи несколько чаще чем раз в сутки.
---
Zherdev Anatoly.
=============================================================================
= Apache-Talk@lists.lexa.ru mailing list =
Mail "unsubscribe apache-talk" to majordomo@lists.lexa.ru if you want to quit.
= Archive avaliable at http://www.lexa.ru/apache-talk =