Здравствуйте Igor,
Monday, November 17, 2003, 2:47:19 PM, Вы писали:
IS> On Sun, 16 Nov 2003, Михаил Монашёв wrote:
>> ММ>> Что можно в этом случае сделать? Забить на посетителей со старыми
>> ММ>> браузерами конечно можно, но вот поисковики обязательно должны
>> ММ>> получать нормальный контент, или же Рамблер, Яндекс и Гугл умеют
>> ММ>> декомпрессировать сжатые странички?
>> AS> имхо сжимать должен акселератор, в зависимости от клиента, а
>> AS> хранить он должен соответственно неупакованные вариант.
>>
>> У Зенона, где лежит мой сайт, кэшируется всё, что имеет время
>> кэширования вне зависимости от юзер-агента, запрашиваемого енкодинга и
>> т.д. :-(
IS> Проблема будет не только с поисковиками и страными браузерами.
IS> MSIE 5.5 и 6, сконфигурённый работать через прокси, будет ходить
IS> по HTTP/1.0 (по умолчанию) и не будет передавать "Accept-Encoding".
IS> Хуже всего, что в этом случае он не понимает сжатый ответ (впрочем,
IS> вполне справедливо).
Так вроде ж Рамблер нормально чеез прокси работает.
IS> Но в данном случае проблем быть не должно, так как у Зенона, насколько
IS> я знаю, стоит Oops, который умеет разжимать сжатый ответ. Во всяком случае
IS> это легко проверить с помощью netcat или telnet.
Я не совсем понял. Т.е., Игорь, ты говоришь, что если я буду отдавать
mod_gzip (mod_deflate Зенон не даст поставить, т.к. нельзя патчить их
Апач), то всё будет ок? Акселератор будет сам разжимать контент, если
запрашивают несжатый конетент и отдавать именно его, а тем кто
запрашивает сжатый будет отдаваться конетн сжатым?
С уважением,
Михаил Монашёв, SoftSearch.ru
mailto:postmaster@softsearch.ru
ICQ# 166233339
http://softsearch.ru/
Без бэкапа по жизни.