Hvordan Søgemaskiner Arbejde - webcrawlerne af Fahrizal Wibowo

itis de søgemaskiner, som endelig sætter dit websted til noticeof de potentielle kunder. Derfor er det bedre at vide, hvordan thesesearch motorer rent faktisk arbejder, og hvordan de præsenterer information til thecustomer indlede en søgning.

Thereare grundlæggende to typer af søgemaskiner. Den første er ved robotscalled crawlere eller edderkopper.

søgemaskiner

usespiders til indeks hjemmesider. Når du indsender dit websted til at asearch motoren ved at udfylde deres nødvendige indsendelse side, thesearch motor spider vil indeksere hele dit websted. En 'edderkop' isan automatiseret program, der køres af søgemaskinen system. Spidervisits en hjemmeside, kan du læse indholdet på den aktuelle lokalitet, de site'sMeta tags og også følge links, at webstedet forbinder. Thespider returnerer derefter alle disse oplysninger tilbage til en centraldepository, hvor data er indekseret. Det vil besøge hver link youhave på dit websted og indeksere disse websteder som godt. Nogle edderkopper willonly indeksere en række sider på dit websted, så du skal ikke createa site med 500 sider!

Thespider vil periodisk vende tilbage til de steder, for at tjekke for anyinformation, der er ændret. Den hyppighed, hvormed dette happensis bestemt af moderatorerne i søgemaskinen.

Aspider er næsten som en bog, når den indeholder indholdsfortegnelsen, det faktiske indhold og links og henvisninger til alle de websitesit finder under sin søgning, og det kan indeksere op til en million sider adag

Eksempel:.. Excite, Lycos, AltaVista og Google Vejviser whenyou bede en søgemaskine til at finde information, er det actuallysearching gennem indekset, som det har skabt og ikke actuallysearching internettet. Forskellige søgemaskiner producere differentrankings fordi ikke alle søgemaskine bruger den samme algoritme tosearch gennem indeksene.

oneof de ting, som en søgemaskine algoritme scanner for er thefrequency og placering af søgeord på en webside, men det kan alsodetect kunstig søgeord udstopning

eller spamdexing.

Så algoritmer analyserer den måde, at sider henviser til andre sider underprogrammet Web. Ved at kontrollere, hvordan sider henviser til hinanden, kan en motor bothdetermine hvad en side handler om, hvis de søgeord i den sammenkædede pagesare ligner de søgeord på den oprindelige side.