On Mon, 17 Nov 2003, Михаил Монашёв wrote:
> IS> On Sun, 16 Nov 2003, Михаил Монашёв wrote:
>
> >> ММ>> Что можно в этом случае сделать? Забить на посетителей со старыми
> >> ММ>> браузерами конечно можно, но вот поисковики обязательно должны
> >> ММ>> получать нормальный контент, или же Рамблер, Яндекс и Гугл умеют
> >> ММ>> декомпрессировать сжатые странички?
> >> AS> имхо сжимать должен акселератор, в зависимости от клиента, а
> >> AS> хранить он должен соответственно неупакованные вариант.
> >>
> >> У Зенона, где лежит мой сайт, кэшируется всё, что имеет время
> >> кэширования вне зависимости от юзер-агента, запрашиваемого енкодинга и
> >> т.д. :-(
>
> IS> Проблема будет не только с поисковиками и страными браузерами.
> IS> MSIE 5.5 и 6, сконфигурённый работать через прокси, будет ходить
> IS> по HTTP/1.0 (по умолчанию) и не будет передавать "Accept-Encoding".
> IS> Хуже всего, что в этом случае он не понимает сжатый ответ (впрочем,
> IS> вполне справедливо).
>
> Так вроде ж Рамблер нормально чеез прокси работает.
Потому что на Рамблере практически везде насчёт прокси стоят настройки
по умолчанию - то есть, для проксированных запросов по HTTP/1.0 контент
не жмётся.
> IS> Но в данном случае проблем быть не должно, так как у Зенона, насколько
> IS> я знаю, стоит Oops, который умеет разжимать сжатый ответ. Во всяком случае
> IS> это легко проверить с помощью netcat или telnet.
>
> Я не совсем понял. Т.е., Игорь, ты говоришь, что если я буду отдавать
> mod_gzip (mod_deflate Зенон не даст поставить, т.к. нельзя патчить их
> Апач), то всё будет ок? Акселератор будет сам разжимать контент, если
> запрашивают несжатый конетент и отдавать именно его, а тем кто
> запрашивает сжатый будет отдаваться конетн сжатым?
Да, скорее всего, должно работать именно так. Но нужно проверять -
стопроцентно утверждать я не берусь.
Игорь Сысоев
http://sysoev.ru