Robots.txt differenziato in caso di multi-installazione

Linux
Utilità
di in Linux, Utilità il 10 Maggio 2011

 

Supponiamo di avere una installazione unica del CMS con cui gestiamo diversi siti dislocati in differenti domini.

Supponiamo inoltre di avere l’esigenza di disporre di un robots.txt differenziato per dominio.

Il robots.txt risiede (come la favicon) nella root e per differenziarlo dobbiamo usare  una regola apposita scritta nel file .htaccess

Si deve creare un file robots.txt (chiamandolo diversamente) per ogni sito che vogliamo differenziare

SITO FILE ROBOTS
www.tuodominioA.com robots-a.txt
www.tuodominioB.com robots-b.txt

Nel file .htaccess in root scriviamo

 

1stonthenet è la discarica dei miei deliri digitali.
(cit. Paolo Attivissimo)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *