Mængden af information gemt på Internettet er enorm. Det er umuligt at finde noget manuelt blandt disse data. Søgemaskiner opfordres til at automatisere processen. De er computersystemer, der organiserer data og søger efter forespørgsler.
Instruktioner
Trin 1
Søgemaskineserverne kører konstant programmer kaldet bots. Bot er forkortelse for robot. I deres opførsel ligner de virkelig robotter. Ved regelmæssigt at besøge hvert sted fra listen, der er gemt på serveren, bringer de lokale kopier af alle tekster på linje med de aktuelle versioner af de samme tekster på websider. Bots følger alle de links, de støder på, og hvis de finder en nyoprettet side, tilføjer de den til listen og opretter også en lokal kopi. Kopier offentliggøres ikke på Internettet - de er kun integrerede dele af processen med at få en liste over websteder. Dette betyder, at krænkelse af ophavsretten ikke forekommer.
Trin 2
Prøv at indtaste den samme sætning flere gange i den samme søgemaskine. Du vil opdage, at resultaterne stemmer overens i den samme rækkefølge hver gang. Det ændrer sig sjældent, ikke oftere end en gang om dagen. Årsagen til dette er enkel - rækkefølgen af søgeresultaterne bestemmes af en ret kompleks algoritme. Beregningen tager højde for hyppigheden af brugen af bestemte ord på siderne, antallet af links til denne side, der findes på andre websteder, samt et antal andre faktorer.
Trin 3
Webstedejere, der stræber efter at bringe deres ressourcer til toppen af denne liste, optimerer de tekster, der er lagt på dem. Denne optimering kan være "hvid" - direkte tilladt efter reglerne for "søgemaskiner", "grå" - ikke tilladt, men ikke forbudt, samt "sort" - direkte forbudt. I sidstnævnte tilfælde forsvinder webstedet muligvis snart fra listen for evigt. Optimeringsalgoritmer er ofte mere komplicerede end algoritmer til sortering af søgeresultater.
Trin 4
Efter indtastning af et nøgleord eller en sætning søger programmet på serveren efter matches i alle lokale kopier af teksterne. Resultaterne sorteres derefter ved hjælp af ovenstående komplekse algoritme. Indholdsstyringssystemet genererer derefter automatisk en side, der sendes til browseren. På brugerens anmodning kan de følgende sider på listen genereres: anden, tredje osv.