Slik bruker du Robots.Txt for å blokkere underdomener

Et nettsted er en god måte å markedsføre småbedrifter, samt presentere dine produkter og unike kvalifikasjoner. Hvis du administrerer et stort nettsted, bruker du sannsynligvis noen få underdomener, og hvert underdomene har sin egen mappe på webverten din. Hvis du ikke vil at robotsøkeprogrammer for søkemotorer skal analysere og indeksere bestemte underdomener, kan du bruke robots.txt-filen til å blokkere dem.

1.

Klikk på Start-knappen nederst til venstre på skjermen.

2.

Skriv "Notisblokk" i søkeboksen nederst på Start-menyen.

3.

Klikk "Notisblokk" i Programmer-delen øverst på Start-menyen for å starte Notisblokk. Et nytt dokument opprettes automatisk i Notisblokk.

4.

Sett inn disse to linjene i Notisblokk dokumentet for å blokkere alle roboter fra å analysere underdomenet:

Brukeragent: * Tillat: /

5.

Trykk "Ctrl-S" for å åpne vinduet "Lagre som".

6.

Skriv "robots.txt" i "Filnavn" -boksen, velg en mappe der du vil lagre filen og klikk "Lagre" for å lagre den.

7.

Last opp robots.txt-filen du lagret i rotkatalogen til hvert domene som du vil beskytte fra søkemotorer. Rottekatalogen er toppnivåkatalogen.

Tips

  • Du kan laste opp filen ved hjelp av en hvilken som helst FTP-klientprogramvare eller til og med vertens webfilbehandling.

Populære Innlegg