Søgemaskine vs Browser
Internettet er blevet en integreret del af vores liv. Da behovet for information bliver større med samfundsudviklingen, steg internet til at udfylde rollen som informationsudbyder. Internettet fungerer som en platform til at dele og udgive information fra hvor som helst i verden. Dette niveau af adgang er en af grundene til, at hidtil uset mængde hypertekst og hypermedier akkumuleres på nettet. Problemet med denne effekt er vanskeligheden med at undgå uønsket og finde de nødvendige oplysninger fra internettet.
Mere om webbrowser
Webbrowseren er en softwareapplikation installeret på brugerens computer til at indhente, fortolke og præsentere oplysninger fra World Wide Web. Den første webbrowser, der blev udviklet af opfinderen af internettet, sir Tim Bernes lee, i 1990'erne hedder WorldWide Web (blev senere nexus). Mosaic (senere Netscape) browser udviklet af Marc Andressen revolutionerede imidlertid browserne ved at gøre den mere brugervenlig.
Grundlæggende betjening af webbrowseren er som følger. Webressource findes ved hjælp af en bestemt identifikation kaldet Universal Resource Locator (URL). Første del af URL'en kaldet "Universal Resource Identifier" bestemmer, hvordan URL'en skal fortolkes. Dette er normalt protokollen for den ressource, browseren prøver at få adgang til, såsom http, https eller FTP. Når oplysningerne er hentet fra kilden, konverterer browserkomponenten kaldet "layoutmotor" http til HTML-markering for at vise det interaktive hypertekst hypermedia-dokument. Browsere kan tilbyde yderligere funktioner som flashvideoer og Java-applets ved at installere respektive plug-ins i browseren, så indholdet kan ses, selvom indholdet ikke er hypertekst.
Mere om søgemaskine
Søgemaskinen er en webapplikation, der søger og lokaliserer oplysningerne eller ressourcerne på Internettet. Med væksten af ressourcerne på www blev indeksering af indholdet på en let tilgængelig måde mere og mere vanskelig. Løsningen til dette problem er websøgemaskinen.
Websøgemaskine fungerer på følgende tre trin. Webcrawling, indeksering og søgning. Webcrawling er processen med at indsamle information og data, der er tilgængelige på World Wide Web. Dette gøres normalt med automatiseret software kaldet en webcrawler (også kendt som en edderkop). Webcrawleren er et program, der udfører en algoritme for at hente oplysninger fra hver webside og automatisk følge de relaterede links. De hentede oplysninger vil blive indekseret og gemt i databaser til senere forespørgsler. Webcrawlerne henter og indekserer oplysninger om indholdet af siden, såsom ord fra teksten, URL til hyperlinks og specialfelt på siden kaldet metatags.
Når der foretages en anmodning eller en søgeforespørgsel efter en bestemt detalje eller en side på internettet via en webbrowser, henter søgemaskinen relaterede oplysninger fra de indekserede databaser og viser resultaterne som en liste over relaterede ressourcer i webbrowseren.
Browser og søgemaskine
• Webbrowseren er en applikation installeret på brugerens computer, mens en søgemaskine er en webapplikation, der fungerer på en server, der er forbundet til internettet.
• Webbrowseren er et program til at hente og vise oplysninger fra internettet, mens en webbrowser er et program til at finde oplysninger på nettet.