Прежде чем надеяться, я плотно мониторил логи в течение месяца где-то.
В данном конкретном случае роботы не балуют и используют именно этот паттерн ничего не переставляя.
То есть, буде такая возможность для location, то оно решило бы проблему.
И по моему опыту, роботы если и переставляют/добавляют к урлу параметры, то только от кривого кода в html или комбинируя всякие чекбоксы и селект боксы.
Ну а если какой лихой робот и переставил бы, то и фиг с ним(в моем случае).
99% этих бесполезных запросов nginx бы отдал из кэша и одному из PHP и этим бы решил проблему.
Но видимо не судьба.
Насколько я понял, это решаемо только путем предварительного вычисления условий с помощью perl_set внутри общего location.
Пока отщелкиваю подобные запросы от ботов на бэкенде, как это не прискорбно.
SC> Пытаюсь организовать кэширование страниц с uri начинающегося со следующих
SC> символов:
SC> /index.php?main_page=nocachedajax&q=savelocation
Боюсь вас разочаровать, но для URL'ов в таком виде многие роботы частенько
переставляют параметры запроса, как им угодно, так что на выполнение условия
"начинается с" я бы на вашем месте надеяться не стал.