Opgaven med at fjerne individuelle sider eller hele webstedet fra søgemaskiner står over for en webmaster, når han ændrer information, ændrer et domæne, kombinerer flere ressourcer og en række andre grunde. Der er flere måder at løse problemet på, afhængigt af det ønskede resultat.
Instruktioner
Trin 1
Slet den side, der skal de-indekseres, så serveren returnerer en fejlmeddelelse, når den forsøger at navigere til den valgte webside HTTP / 1.1 404 ikke fundet. For at anvende de valgte ændringer skal du vente på, at robotten får adgang til den krævede side igen.
Trin 2
Brug robotens rodfil robots.txt til at udelukke valgte sektioner eller sider fra søgemaskineindeksering. For at forhindre visning af admin-panelet i søgemaskinen skal du bruge kommandoen: User-Agent: * Diaallow: / admin / Eller for at udelukke den valgte side fra indeksering skal du indtaste værdien: User-Agent: * Disallow: / selected_page.html # For at anvende ændringerne skal robotten besøge den valgte side igen.
Trin 3
Brug metatagningsmetoden til at tilføje en regel specificeret i HTML-kode til alle de krævede sider: Dette er nødvendigt for at ekskludere uønskede sider fra søgemaskinen.
Trin 4
Vælg en metode til oprettelse af X-Robots-Tag til introduktion af kommandoer i http-headeren, der ikke vises i sidekoden: X-Robots-Tag: noindex, nofollow Denne metode er mest nyttig til at udelukke udvalgte sider eller sektioner fra indeksering af udenlandske søgemaskiner.
Trin 5
Brug en speciel webmasterkontrolside i Yandex: https://webmaster.yandex.ru/deluri.xml eller i Google: https://www.google.com/webmasters/tools. Dette gøres for at forhindre visning af den ønskede side, sektion eller hele webstedet i den valgte søgemaskine.