Drupal utilizza un motore metodo di blocco di ricerca comune a tutti i server Web per evitare che i motori di ricerca a includere le pagine Web che serve in un database di ricerca . Questo è comunemente utilizzato per i siti web che non dispongono di dati accessibili al pubblico , o per evitare che i motori di ricerca da richiedere traffico eccessivo da un sito web . Istruzioni
1
Individuare il file " robots.txt " nella cartella principale del tuo sito web Drupal . La cartella principale è anche la posizione della vostra home page, ma la sua posizione sul server Web può variare in base al sistema operativo in uso per l'esecuzione di Drupal .
2
Crea un file vuoto di nome "robot . txt " nella cartella principale , se non esiste già. Drupal versione 5 e successivamente verrà creato un file robots.txt per impostazione predefinita, ma è possibile anche aggiungere questo file se non è già presente .
3
Aprire il file robots.txt in un . editor di testo
4
Sostituire il contenuto del file robots.txt con il seguente :
User-agent : *
Disallow : /Eventi < p > Questo dice a tutti i motori di ricerca Web per ignorare tutti i contenuti . User agent significa che il motore di ricerca , il "*" è un carattere jolly , ossia da tutti . La " /": la radice , o "top " del tuo sito web . Pertanto , non consentendo la radice , tutti i contenuti di tutte le pagine del sito - che sono gerarchicamente " inferiore" rispetto alla radice - sarà saltato
5
Salvare il file robots.txt . . Se il server Web utilizza una cache di pagina Web , ripristinarlo in modo che la nuova pagina viene inviato ai motori di ricerca quando chiedono alla pagina robots.txt .