Дело не только в конфиге nginx - такой "try_files" придется делать в каждом скрипте, который работает с архивом, так что все же проще один раз собрать симлинками. Но это добавляет сложностей с заменами файлов и постоянно надо думать не об одном свободном месте, а о десяти! Раскладывание файлов практически ручное и временами еще приходится тюнить равномерное распределение популярных и не очень в зависимости от объема диска. Но это мы уже отклоняемся от темы. :)
2011/8/18 Igor Sysoev
<igor@xxxxxxxxx>RAID5, а также страйп, при чтении больших файлов хороши только
при последовательном доступе. При случайном доступе они работают по сути
со скоростью одного диска - файл размазан по дискам блоками по 128K (обычно).
Чтобы прочитать 1M, нужно читать со всех 5-ти дисков, то есть, все 5 дисков
заняты обслуживанием одного файла.
Звучит как приговор! :( Причем возразить нечего и идей по тюнингу тоже нет, весь фокус kern.ipc.sfreadahead нивелируется любым рейдом. :(
А знакомство с ZFS мне так понравилось! Сейчас попробую его пересоздать, не могу понять как избавиться от ошибок на текущем. Потестирую еще раз и отпишу.
P.S. Кто-нибудь знает - если я когда-нибудь одиночный диск, который я вижу сейчас в системе через adaptec -> single volume, подключу напрямую на маму, то увижу ли его содержимое?
Антон.