Nginx-ru mailing list archive (nginx-ru@sysoev.ru)
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: Раздача контента с NFS share
- To: nginx-ru@xxxxxxxxx
- Subject: Re: Раздача контента с NFS share
- From: squirl <andriy.tovstik@xxxxxxxxx>
- Date: Tue, 19 Jan 2010 14:42:35 +0200
- Dkim-signature: v=1; a=rsa-sha256; c=relaxed/relaxed; d=gmail.com; s=gamma; h=domainkey-signature:received:received:content-type:mime-version :subject:from:in-reply-to:date:content-transfer-encoding:message-id :references:to:x-mailer; bh=8DH4Vp0TlhStnzutDjCKlCzEubNeG3lx/0ezXA4wfq0=; b=oHFp9D66pAw8hL/2LDvQDY/b/jThiCOzGsJdwap5okoYh/2f1bY9N4rhQ6CXV0qVMa x6xCEXDPF1IoxP/i06XHp4CByj5ktGg668zsdAvNoueGpGCME6wRPlC0syR0unz306/j bCiFMHGe266TVSo6Mg8ANJ5R66JDrUwZ4QEXY=
- Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=content-type:mime-version:subject:from:in-reply-to:date :content-transfer-encoding:message-id:references:to:x-mailer; b=prg2XIQLYdoT33X71IQ+V2I271IpekK2aMad7FO3Wnq9UYf/uh1bzgqYHQSGgcIIif bMzDBHhAiqRNv9udUBX0iU70swnE7iWnS6VW6H3aETRgRNz3L2a6ZqYLKe+wDd6OMdIU uC4SfLAoSmgwHMUNJrGKy5pdLHo2aDhNmrqrM=
- In-reply-to: <0778bd54205d6855ecd0d9bfd8222aed.NginxMailingListRussian@xxxxxxxxxxxxxxx>
- References: <0778bd54205d6855ecd0d9bfd8222aed.NginxMailingListRussian@xxxxxxxxxxxxxxx>
а зачем вам вообще использовать NFS share?
пусть CMS пишет файлики на обе машины по WebDAV, например.
19 янв. 2010, в 14:18, Timur Bakeyev написал(а):
> Доброго всем времени суток!
>
> Есть следующая задача - CMS пишет загружаемые веб-девелоперами файлики на NFS
> share, после чего эти файлики надо раздавать с двух load balanced машин с
> NGINX. Балансировка сделана частично для надежности, частично для
> распределения нагрузки на серверы. Файлики в большинстве своем мелкие -
> картинки, CSS, JS скрипты, мелкая HTML статика.
>
> Очевидно, что непосредственно раздавать контент с достаточно медленного NFS
> диска - это получать проблемы с производительностью, а трафик при этом
> достаточно большой. Посему рассматриваются 3 варианта, весь вопрос в том,
> какой из них даст наилучшую производительность и надежность.
>
> 1. То, что используется сейчас. На каждой машине NGINX сконфигурирован с
> двумя виртуальными серверами. Один слушает на локальном IP адресе(запустить
> на unix sockets так и не удалось) и раздает контент с NFS диска. Второй
> виртуальный сервер выступает в роли кеширующего прокси для первого и раздает
> контент для внешних пользователей.
>
> 2. Реализовать схему с 2 отдельными процессами NGINX, как описано в
> http://forum.nginx.org/read.php?21,33543. В принципе, она близка к 1-ой, за
> исключением использования по одному процессу на каждую из задач.
>
> 3. Использовать сторонний модуль nginx_ngx_slowfs_cache (
> http://labs.frickle.com/nginx_ngx_slowfs_cache/ ), который, в принципе, и
> создан для подобных конфигураций.
>
> Вопрос, какой из этих вариантов предпочтительнее и надежнее.
>
> С уважением,
> Тимур Бакеев.
>
> Posted at Nginx Forum:
> http://forum.nginx.org/read.php?21,42981,42981#msg-42981
>
>
> _______________________________________________
> nginx-ru mailing list
> nginx-ru@xxxxxxxxx
> http://nginx.org/mailman/listinfo/nginx-ru
---
WBR, Andriy Tovstik
UNIX System Administrator
Skype: andriy.tovstik
JabberID: squirl@xxxxxxxxxxxxxx
Nick-handle: SQ22-UANIC
_______________________________________________
nginx-ru mailing list
nginx-ru@xxxxxxxxx
http://nginx.org/mailman/listinfo/nginx-ru
|