Zoekmachines hebben 2 belangrijke functies: het internet doorzoeken en een index opbouwen met webpagina’s en de meest relevante webpagina’s tonen aan gebruikers van een zoekmachine als deze een zoekopdracht intoetsen.
Webpagina’s die reeds geindexeerd zijn worden regelmatig bezocht door de spiders (ook wel robots of crawlers genoemd) van een zoekmachine (het zogenaamde crawlen). Op het moment dat er op de pagina een link staat, zal de spider deze volgen. Is de pagina nog niet in de index van de zoekmachine opgenomen dan zal de spider kijken of het de broncode kan lezen en indien dit het geval is, zal de zoekmachine informatie van de pagina in een gigantische database opslaan. Deze data wordt gebruikt als bezoekers een zoekopdracht uitvoeren.
Zoekmachines geven antwoorden
Een zoekmachine geeft antwoord op de zoekopdracht die een gebruiker gebruikt. Er wordt gezocht naar het beste resultaat voor de zoekopdracht. In den beginne waren de zoekmachines alleen in staat om te kijken naar de opgegeven zoekwoorden van de gebruiken en deze te matchen aan de zoekwoorden die op de pagina staan. Tegenwoordig zijn zoekmachines veel intelligenter en kunnen ze verbanden leggen tussen bijvoorbeeld eerder uitgevoerde zoekopdrachten, de locatie waar iemand zich bevindt en door zoekopdrachten beter te kunnen interpreteren.
Hoe wordt bepaald welke pagina de beste is?
Een zoekmachine gaat er van uit dat hoe populairder een website, pagina of document is, hoe waardevoller de informatie op de pagina moet zijn. En dat is precies het doel van een zoekmachine. De gebruiker het beste resultaat tonen. Om te bepalen welke pagina het hoogste moet komen in de zoekresultaten, wordt er een geheim algoritme gebruikt. Dit algoritme bestaat uit enkele honderden variabelen die te samen bepalen hoe relevant de pagina is.
Alhoewel de preciese werking van het algoritme geheim is, zijn er wel veel best practices waarvan bewezen is dat deze werken. Een overzicht van de ranking factoren kun je op de website van MOZ ranking factors bekijken.