вторник, 3 июля 2012 г.

Разные robots.txt

Зачастую бывает так, что несколько сайтов указывают в 1 каталог. Чаще всего это характерно для поддоменов. И бывает нужно отдавать на разные домены разные robots.txt.
Решения задачи:
0) передавать на обработку этого файла апачу, который уже скриптом будет отдавать нужный текст.

1) под каждый поддомен создать свой server c разными root

2) rewrite + map
map $host $robots {
    default robots.txt;
    one.domain.com one.domain.robots.txt;
    ...
}

server {
    location = /robots.txt {
        alias /path/to/$robots;
    }
    ...
}
(линк), "для любителей граблей"

3) через try_files
location = /robots.txt {
    try_files /$host.robots.txt /robots.txt =404;
}
Для работы должен быть определён root. Можно и в блоке robots, если например эти файлы вынесены в отдельное место.

Комментариев нет:

Отправить комментарий