Disclosure: din support hjælper med at holde siteebstedet kørende! Vi tjener et henvisningsgebyr for nogle af de tjenester, vi anbefaler på denne side. Lær mere

Der er tre værktøjer, der er centrale for funktionaliteten i enhver moderne søgemaskine. Hvad er de tre værktøjer?,

  1. En måde at opdage nyt indhold automatisk og kontinuerligt;
  2. En måde at indeksere indhold som det er opdaget;
  3. En måde at søge gennem indekseret indhold til at finde stumper og stykker, som en søgemaskine brugeren er på udkig efter.

Ved denne definition er en søgemaskine et ret simpelt koncept. Imidlertid, i praksis, sætte disse tre bits af teknologi sammen har vist sig lettere sagt end gjort, og tidlige søgemaskiner kun opfyldt en eller to af disse krav.

i dag er førende søgemaskiner nogle af de mest synlige og værdifulde teknologiselskaber rundt., Og teknologier, der er banebrydende af søgemaskiner, implementeres på næsten alle moderne websebsteder.

det var dog ikke altid på denne måde. Dagens søgemaskiner kommer fra ydmyg begyndelse, og søgningen er kommet langt i de sidste par årtier.

søgemaskiner før internettet

historien om søgemaskinen starter faktisk ved Cornell University, før internettet endda var blevet oprettet. I 1960 ‘ erne udviklede Gerard Salton og hans kolleger hos Cornell det smarte informationssøgningssystem.,smart står enten for System til mekanisk analyse og hentning af tekst eller Saltons magiske automatiske Retriever af tekst afhængigt af hvem du spørger.

det var et tidligt informationssøgningssystem, der etablerede mange af de konceptuelle underlag, som søgemaskiner bygger på, herunder term vægtning, relevans feedback, term afhængighed og meget mere.

fra SMART går vi videre til den første generation af internetbaserede søgemaskiner. Internettet er virkelig bare et system af computernetværk, der er forbundet via TCP / IP-kommunikationsprotokoller., Det blev udviklet mere end et årti før Tim Berners-Lee skabte Worldorld .ide .eb, eller bare Internettet.

flere forskellige kommunikationsprotokoller blev brugt til at overføre data over internetforbindelser, før internettet blev født. Og de tidligste søgemaskiner var designet til at blive brugt over nogle af disse ældre protokoller.

hvemer det?

protocolhois-protokollen, som stadig bruges i dag, debuterede i 1982 og var et af de første værktøjer, der blev brugt til at forespørge databaser over Internettet.,

oprindeligt var searcheshois-søgninger ret magtfulde og kunne bruges til at finde en hel del information om en blok internetressourcer eller til at spore alle de ressourcer, der er forbundet med en enkelt person eller organisation.

i dag er searchhois-søgeparametre meget mere begrænsede, og WHOHOIS bruges til at lokalisere den registrerede ejer af en enkelt ressource, eller ganske almindeligt, til at lokalisere den privatlivstjeneste, der bruges til at skjule ejerskabet af en enkelt ressource.,

Archie

Offentlige FTP-servere, som er dokument lagring og genfinding servere, som alle kan få adgang til via en internetforbindelse, blev almindelig i slutningen af 1980’erne og begyndelsen af 1990’erne.

Men, der var ingen nem måde at finde information på offentlige FTP-server, medmindre du vidste serverens placering og navnet på og placeringen af det dokument, du ville have adgang til. Alt dette ændrede sig, da Archie blev frigivet i 1990.Archie betragtes ofte som den første rigtige søgemaskine., Mens der var søgeteknologier som WHOHOIS, der blev udviklet tidligere, var Archie bemærkelsesværdig, fordi det var det første værktøj, der kunne bruges til at søge efter indhold snarere end brugere.Archie bestod af to komponenter:

  1. en Archie-server, der indekserede indholdet af offentlige FTP-servere.
  2. et søgeværktøj, der bruges til at forespørge navnene på de filer, der blev indekseret på Archie-serveren.

efter moderne standarder var Archie et ret råt værktøj. På det tidspunkt var Archie imidlertid et stort skridt fremad i brugen af internettet til informationssøgning., Sådan fungerede systemet:

  • når en ny offentlig FTP-server kom online, ville ejeren af serveren komme i kontakt med administratoren af en Archie-server og bede om at få deres FTP-server inkluderet i Archie-indekset.
  • en gang om måneden, mere eller mindre, ville hver af disse servere tage et øjebliksbillede af navnene på de filer, der er gemt på hver kortlagt FTP-server.
  • Archie-servere blev forbundet sammen, og indholdet af hver blev periodisk spejlet til alle de andre Archie-servere.,
  • på denne måde indeholdt hver Archie-server et relativt komplet og opdateret indeks over indholdet af hver FTP-server, der blev kortlagt af systemet.

Indholdet af en Archie-server kunne søges på et par forskellige måder. Hvis en bruger havde direkte adgang til en server, kunne de bruge et søgeprogram installeret direkte på serveren.

Kommandolinjeforbindelser kunne oprettes for at søge på en Archie-server via en Telnet-internetforbindelse. Senere, forespørgsler kunne foretages ved at sende en korrekt formateret e-mail til serveren eller ved hjælp af en .ebbaseret søgegrænseflade.,

Archies venner

hvad Archie var at FTP-servere, Archies ven, Veronica, var at Gopher servere.

Gopher var en internetkommunikationsprotokol udviklet i begyndelsen af 1990 ‘ erne af Mark McCahill ved University of Minnesota. Det var meget mere som internettet end FTP. Men der var også mange forskelle.gopher var en ret streng protokol sammenlignet med webebens HTTP-protokol. Entusiaster ville sige, at det var hurtigere og mere organiseret end internettet, mens kritikere måske kalder det restriktive og begrænsende.,

Gopher lignede mere en filhåndtering (tænk: Windowsindo .s Stifinder) end en Fileebside. Hver Gopher server bestod af en række menuer og undermenuer, som blev brugt til at organisere de dokumenter, der er gemt på serveren.

oprindeligt kræves det at finde oplysninger på en Gopher-server manuelt at navigere gennem en række menuer og undermenuer baseret på titler og beskrivelser, der er knyttet til hver menu, indtil den ressource, du ledte efter, blev fundet.Veronica tilbød snart et alternativ til denne manuelle navigationsproces.,Veronica var dybest set anvendelsen af Archie-modellen til Gopher-protokollen. Oplysninger om Gopher-servere blev gemt på Veronica-servere, og Veronica-serverne blev spurgt for at finde oplysninger om dokumenter, der er gemt på de indekserede Gopher-servere.

ikke længe efter udviklingen af Veronica dukkede Jughead op. Selv om det var også en Gopher værktøj, Jughead var et andet dyr helt. Jughead kunne kun bruges til at søge gennem menuer og undermenuer for en meget begrænset del af Gopher-normalt kun en enkelt server.,

nogle avancerede søgeoperatører kunne bruges med Jughead, hvilket gør det til et kraftfuldt værktøj til sigtning og lokalisering af indholdet på en enkelt Gopher-server.

Hvad er der i et navn?

Jeg er sikker på, at du på dette tidspunkt undrer dig over navnene på disse tre søgemaskiner: Archie, Veronica og Jughead.Archie kom først og havde intet at gøre med den populære tegneserie. Navnet blev oprettet ved at tage wordord-arkivet og fjerne bogstavet v. navnene Veronica og Jughead var en simulatan henvisning til deres forhold til Archie og et nikk til tegneserien.,

for at foregive som navnene Veronica og Jughead havde nogen form for Betydning ud over en legende henvisning til Archie, blev der senere oprettet akronymer (backronymer).Veronica siges at være kort for meget let Gnaverorienteret net-dækkende indeks til Computerarkiver. Og Jughead var Jon .ys universelle Gopherhierarki udgravning og udstilling.

Problemet med Archie og Hans Venner

Mens Archie, Veronica, og Jughead var alle nyttige og avancerede værktøjer på det tidspunkt, de alle har lidt under visse begrænsninger.,

for det første opfyldte alle tre ikke det første krav i en moderne søgemaskine: at have en måde at opdage nyt indhold automatisk og kontinuerligt på. Mens Archie og Veronica indekserede indhold på en bred vifte af servere, måtte nye servere føjes til indekset manuelt.

Der var ingen mekanisme til automatisk opdagelse af nye servere. Jughead, på den anden side, var begrænset til blot en enkelt server.for det andet var alle tre søgemaskiner kun i stand til at søge titler og beskrivelser., Ingen af de tre indekserede indholdet af nogen af de dokumenter, der er inkluderet i deres indeks.

mens alle tre af disse søgemaskiner var vigtige skridt på vejen til at opbygge en moderne søgemaskine, var alle tre af disse værktøjer effektivt manuelle indekser med begrænset søgefunktionalitet.

Hvad skete der med Gopher?

Gopher ekspanderede hurtigt gennem midten af 1990 ‘ erne. i 1993 besluttede University of Minnesota, der ejede de intellektuelle ejendomsrettigheder til Gopher, imidlertid at begynde at opkræve licensgebyrer for hver Gopher-installation.,

Worldorld .ide .eb, der var blevet lanceret efter Gopher og var bagud, var blevet frigivet som en helt gratis platform. Som et resultat begyndte brugerne efter 1993 at flokkes til internettet for at undgå licensgebyrer, der er knyttet til Gopher.mens Gopher til sidst blev frigivet som GPL-soft .are i år 2000, og der er et par aktive Gopher-servere i dag, er Gopher stort set et hobbyprojekt, der holdes i LIVE af Gopher-entusiaster.,

internettets første søgemaskiner

da internettet blev oprettet, var der ingen søgemaskiner designet til at fungere via internettets kommunikationsprotokol, HTTP. Oprindeligt vedligeholdt og opdaterede Tim Berners-Lee en mappe med alle webebservere manuelt.

men i 1993 var Internettet vokset til det punkt, at det ikke længere var muligt at holde en omfattende manuel mappe, og behovet for gode søgemaskiner var tydeligt at se.,

som det blev nævnt i introduktionen, skal en searchebsøgemaskine gøre tre ting for at være virkelig nyttige:

  • indholdsopdagelse: computerprogrammer kaldet webebcra .lere skal bruges til automatisk og systematisk at gennemgå internettet, der søger nyt eller opdateret indhold.
  • indeksering af indhold: et indeks for det opdagede indhold skal oprettes og vedligeholdes.
  • Søg: indekset skal være tilgængeligt med et søgeværktøj, der sammenligner søgeord med indholdet af indekset og returnerer nyttige resultater.,

tidlige informationsindhentningsværktøjer som WHOHOIS, Archie, Veronica og Jughead opfyldte ikke alle tre krav.

hvor de alle kom til kort var, at de manuelt blev oprettet mapper med begrænset søgefunktionalitet, der ikke havde en mekanisme til automatisk at finde og indeksere nyt indhold.

søgbare manuelle Direcotries

de tidligste searchebsøgemaskiner var søgbare mapper svarende til Archie og Veronica.

W3Catalog, den allerførste searchebsøgemaskine, lignede meget Archie eller Veronica i koncept., Da det blev oprettet i 1993, var der flere højkvalitets kuraterede websiteebstedsindekser, som hver dækkede en begrænset del af internettet. Hvad did3catalog gjorde var:

  • brug et computerprogram til at trække oplysningerne fra de forskellige indekser;
  • omformatere indholdet, så listerne blev præsenteret konsekvent uanset indekset, hvorfra de stammer;
  • Giv et forespørgselsværktøj, som kan bruges til at søge efter relevante lister.,

Ali .eb fulgte hurtigt på hælene på Ali3catalog og var et andet indekssøgningsværktøj i samme vene som Archie, Veronica og .3catalog.

selvom while3catalog kun hentede oplysninger fra et par kuraterede websiteebstedsindeks, kunne enhver .ebmaster indsende deres websiteebsted til notering på Ali .eb.

Indekser som W3Catalog og Aliweb, også kaldet web mapper, fortsatte med at være populær i hele 1990’erne. Den mest succesfulde af disse web mapper blev Yahoo!

Yahoo!

Yahoo! blev grundlagt i 1994., Et af dets største bidrag til søgning var dets katalogtjeneste: en stor samling autoritative sitesebsteder, der blev brugt til deres søgeresultater.

Yahoo! selv startede som et bibliotek af weebsider uden at bruge en crawebcra .ler. Yahoo! Directory var ikke den første, men det sandsynligvis den største.

Yahoo! var-og stadig er-en af de mest genkendelige søgemaskine navne. I de tidlige dage var dens søgefunktion bare en frontend for resultater, der kom fra andre crawebcra .lere.

virksomheden forgrenede sig til andre områder af informationsdistribution som Yahoo! Gruppe., Men det var først i 2003, at Yahoo! blev sin egen selvcra crawlingling søgemaskine. Forud for dette, Inktomi, efterfulgt af Google, drevet Yahoo! Ironisk nok ville Google senere blive deres største konkurrent.

derudover Yahoo! købt flere søgemaskine virksomheder: Inktomi, allthe .eb, og Overture.

Yahoo! introduceret eller gjort populært, en række elementer, som mange søgemaskiner stadig bruger. Det er tilladt for lodrette søgeresultater, som er en søgning inden for en bestemt kategori.

en person kunne køre en søgning bare for billeder, bare for nyheder, og så videre. Yahoo!, er stadig i drift, men ligesom i fortiden, en anden søgning selskab beføjelser søgeresultaterne. I dag er det Bing.

Webcrawlere med at Automatisere og Fremskynde Indekseringen

Det første web-crawler blev oprettet i juni 1993, og som er opkaldt World Wide Web Vandringsmand, eller bare Wanderer for kort.

det blev oprettet af Matthe.Gray for at generere et indeks kaldetandande., som i det væsentlige var et mål for størrelsen på nettet. Wananderer holdt .ande.opdateret indtil slutningen af 1995, men indekset blev aldrig brugt til informationssøgning.,

JumpStation

den første anvendelse af en crawebcra .ler til at oprette et søgemaskineindeks var JumpStation.

der er Oprettet i December 1993 ved University of Stirling i Skotland af Jonathan Fletcher, “faderen til moderne søg,” JumpStation anvendes webcrawlere til at skabe et søgbart indeks på websiden titler og overskrifter.

inden for mindre end et år, mens du kører på en enkelt delt server i Skotland, havde Jumpstations webebcra .lere indekseret 275.000 poster.,

Fletcher var imidlertid ikke i stand til at overbevise universitetet om at investere yderligere ressourcer eller yde finansiering til projektet, og da Fletcher forlod universitetet i slutningen af 1994 blev JumpStation lukket ned.

WebCrawler

WebCrawler, udgivet kort tid efter JumpStation, var den første crawler-baseret søgemaskine til at gennemgå hele teksten af alle indekserede web-side.

i Løbet af de efterfølgende to-tre år, mange crawler-baserede alt-tekst søgemaskiner som Magellan, Northern Light, Infoseek, HotBot, MSN Search, og Inktomi blev lanceret, købt, solgt, lukker, og fusionerede.,

Lycos

Lycos startede som et forskningsprojekt. Det blev lanceret i 1994 og blev den mest populære destinationebdestination i 1999.i modsætning til andre søgemaskiner var Lycos en fuld forretningsvirksomhed ud af porten. Det tjente penge, og det gjorde det så hurtigt. Hovedårsagen til dens popularitet som søgemaskine var dens enorme katalog over indekserede dokumenter.

det indekseret omkring 400,000 dokumenter om måneden ved lanceringen og ramped op til at indeksere i alt 60,000,0000 dokumenter på mindre end to år — mere indekserede sider end nogen anden søgemaskine. Lycos gennemgik flere opkøb og salg.,

som virksomhed ejede det mange andre virksomheder og sitesebsteder. Som en søgemaskine eksisterer den stadig i dag.

e Exccite

E Exccite startede i 1995. Det var den første søgemaskine, der brugte ordforhold og statistisk analyse for at gøre søgeresultaterne mere relevante.

i dag er det kendt mere for, hvad det ikke gjorde. I 1999 havde mulighed for at købe Google — to gange! For det første blev det tilbudt for en million dollars. Senere blev prisen reduceret til kun $ 750.000. E .cite afviste begge tilbud.,

AltaVista

i slutningen af 1995 lancerede Digital e .uipment Corporation Altavista. Mens det ikke var den første søgemaskine, det forbedret på sine forgængere, i sidste ende at blive en af de mest populære søgemaskiner af sin tid.

AltaVista var den første, der gav mulighed for søgeforespørgsler på naturligt sprog, hvilket betyder, at folk simpelthen kunne skrive, hvad de ledte efter, i stedet for at bruge forespørgselsstrenge. Det indekserede også meget mere af internettet, end folk endda vidste eksisterede på det tidspunkt.

endelig var det en af de første søgemaskiner, der brugte boolske operatører., Det blev til sidst en del af Yahoo!

spørg Jeeves

Ask.com startede som Ask Jeeves i 1996. Søgemaskinen drives på et spørgsmål-og-svar platform, hvor brugerne kunne stille et spørgsmål ved hjælp af naturligt sprog og søgemaskinen ville finde et svar.et af Ask ‘ s vigtigste bidrag til søgning er deres egen side-ranking algoritme, e .pertrank. E .pertrank arbejder med fagspecifik Popularitet. Hvis et websiteebsted om et specifikt emne har backlinks fra andre sitesebsteder om det samme emne, er det mere relevant.

Spørg til sidst stoppede med at fokusere på søgning., Det eksisterer stadig som en søgemaskine, men dets kerneprodukt er dets søgbare database med spørgsmål besvaret af brugerne.

Bing

Microsofts Bing blev lanceret i 2009, men det er faktisk ikke så nyt. Bing eksisterede som MSN Search og Liveindo .s Live Search — dateres tilbage til 1998. Tredjeparter drevet sine tidlige søgninger.omkring 2004 begyndte Microsoft at bruge sine egne søgeresultater. Dette drev den eventuelle ændring fra MSN Search til Liveindo .s Live Search og endelig Bing. Selvom det ikke er så populært som Google, har Bing formået at skabe sig en anstændig del af søgemaskinemarkedet.,samme år, som Microsoft kom ind i søgemaskinevirksomheden (1998), blev Google lanceret. Det ville snart revolutionere søgningsverdenen.

PageRank: en revolutionerende id.

selvom det er umuligt at tilskrive Googles succes til en enkelt faktor, er det også svært at overdrive, hvor vigtig PageRank var for Googles tidlige succes. Så hvad er PageRank?

Google bruger flere algoritmer til at bestemme, i hvilken rækkefølge søgeresultaterne skal præsenteres. PageRank var den første af disse algoritmer, der blev brugt af Google., Det er fortsat en vigtig del af Googles samlede resultater ranking metode. Der er to grundlæggende ideer bag PageRank:

  1. når mange websebsteder linker til en weebside, antyder det, at weebsiden er nyttig og pålidelig.
  2. Links fra en nyttig og troværdig weebside er mere værdifulde og troværdige end links fra en upålidelig weebside.

disse to ideer kombineres for at skabe et hierarki af trustebstedssikkerhed og brugbarhed kendt som PageRank.

som du kan se, fodrer disse ideer ind i hinanden., Tilstedeværelsen af flere indgående links betyder, at et .ebsted er mere troværdigt, og links fra pålidelige .ebsteder er mere værdifulde end links fra sitesebsteder, der ikke har mange indgående links.

hvad der sker er, at hvert link fra et websiteebsted til et andet tildeles en bestemt vægt, som typisk kaldes linkjuice i SEO-cirkler. Denne vægt er baseret på PageRank på det websiteebsted, hvorfra linket stammer, og antallet af udgående links fra det oprindelige websiteebsted.,

Google tilføjer alle de linkjuice, der strømmer fra oprindelses websebsteder, til den pågældende weebside og bruger disse oplysninger til at beslutte, hvilken PageRank der skal tildeles weebsiden.PageRank viste sig at være en fantastisk måde at identificere nyttige websebsteder på, og brugerne indså hurtigt, at Googles søgeresultater var mere nyttige end dem, der blev genereret af nogen anden søgemaskine. Som et resultat, brugere hurtigt strømmet til Google og andre søgemaskiner blev efterladt scrambling at indhente.,

Af 2002, Google var steget til fremtrædende plads i søgemaskinen marked takket være deres innovative PageRank teknologi, og at det strømlinede design af Google-startside, der stod i skærende kontrast til de reklamer og indhold tunge web-portaler, der gennemføres af stort set alle andre søgemaskiner.

Søg vokser op og får et Job

i 1990 ‘ erne var investering i søgning en spekulativ indsats. Alle vidste, at søgning var værdifuld, men ingen tjente virkelig penge med søgning.,

det forhindrede dog ikke investorer i at pumpe enorme summer til innovative søgemaskiner, hvilket gjorde søgeinvesteringer til en væsentlig medvirkende faktor til Dot-com-boblen.

i slutningen af 1990 ‘ erne begyndte indsatsen for alvor at tjene penge på søgning.

søgemaskiner indså, at de havde adgang til webebbrugere, der fortalte dem nøjagtigt, hvad de ønskede. Alt, hvad der var tilbage, var for købmænd at placere annoncer, der ville blive vist til de brugere, der ledte efter deres produkter og tjenester.,

Overture tjener penge på søgning

i 1996 var Open te .t den første, der forsøgte at kommercialisere søgningen ved at tilbyde betalte søgefortegnelser. Imidlertid, reaktionen på at se betalte annonceplaceringer var hurtig fordømmelse, og ideen undlod at starte.to år senere tog GoTo, som senere blev omdøbt til ouverture, et andet skud på betalte søgeplaceringer, og konceptet blev accepteret. Dette skyldtes i vid udstrækning, at internettet var modnet betydeligt mellem 1996 og 1998 og skiftet fra at være primært en akademisk platform til en kommercielt understøttet platform.,kort efter lanceringen i begyndelsen af 1998 lånte Google ideen om betalte søgeplaceringer fra Overture og blev hurtigt omdannet fra en kæmpende opstart til en af de mest rentable internetvirksomheder.

som det kunne have været forudsagt, tog ouverture ikke for venligt til Google med at vælge deres id., og ouverture sagsøgte Google for at krænke deres patenterede intellektuelle ejendomsret i 2002.

Yahoo! blev involveret i retssagen, da de købte Overture i 2003 og derefter fortsatte med at bilægge sagen. Google tjente en evig licens til at bruge Overture patenter i bytte for 2.,7 millioner aktier i Google common stock.

i dag er reklame i søgeresultater den primære finansieringsmekanisme, der bruges af søgemaskiner og genererer milliarder af dollars i årlige indtægter.

det moderne Søgemaskinelandskab

dagens søgemaskinemarked domineres af kun fire konkurrenter, hvis kombinerede søgevolumen udgør cirka 98% af det samlede globale søgemaskinemarked.

  • Google kommandoer omkring 70% af det globale søgemaskinemarked.
  • Bing kommer på andenpladsen med lidt mere end 10% af markedet.,
  • Baidu kommer på tredjepladsen med lidt mindre end 10% af markedet.
  • Yahoo! kommer i bundet til tredje med Baidu.

mens andre søgemaskiner, såsom AOL og Ask, stadig bruges millioner af gange hver dag, er deres samlede markedsandel betydeligt mindre end 1% af det globale søgemaskinemarked.

YouTube?!

en bemærkelsesværdig udeladelse fra de fleste lister over top søgemaskiner er YouTube., Mens YouTube ikke er en søgemaskine i traditionel forstand, søger flere og flere brugere YouTube efter, hvordan man videoer, produktinformation, musik, nyheder og andre emner, der tidligere blev fundet primært gennem søgemaskiner.

Hvis YouTubes søgevolumen sammenlignes med listen over søgemaskiner, kan YouTube, der ejes af Google, faktisk være den næststørste søgemaskine på nettet.

kun for dine øjne

et hurtigt voksende segment af søgemaskinemarkedet er det private søgesegment. Dette segment består af søgemaskiner som DuckDuckGo, Startpage af i, ,uick, og Qrobe.it.,

det er attraktivt for privatlivssindede personer, der ikke gør, hvad deres søgevaner spores og sælges til annoncører. Mens disse søgemaskiner stadig bruge en reklame-baseret søgemodel, de ikke indsamle, gemme eller sælge identificerbare brugerdata.

Mens DuckDuckGo ‘ s nuværende gennemsnit på omkring 10 millioner forespørgsler om dagen blegner i sammenligning med de 3,5 milliarder forespørgsler behandles hver dag af Google, og det repræsenterer en 100-fold stigning i den samlede søgevolumen mellem 2011 og 2016.,

søgemaskine raffinement

tendensen i de seneste par år i udviklingen af søgeteknologi har været mod større raffinement. Eksempler på innovation i søgning siden 2010 inkluderer:

  • hurtigere søgeydelse takket være autofuldførelse og øjeblikkeligt genererede søgeresultater, en innovation kaldet Øjeblikkelig søgning.
  • brugen af Schema.org markup for at producere rige søgeresultater, såsom produktvurderinger baseret på et 5-stjernet ratingsystem, der vises direkte på søgeresultatsiden.,
  • stadig mere målrettede nedbrud på spam, duplikering af indhold, indhold af lav kvalitet og websebsteder, der gør overdreven brug af reklamer.
  • søgemaskinens evne til at behandle enhedskonverteringer, valutakonverteringer, enkle matematiske beregninger, term definitioner, sprogoversættelse og lignende opgaver og vise resultaterne på søgemaskinens resultatside.
  • visningen af public domain encyclopedic information direkte i søgeresultater, en funktion kaldet viden graf.,

det er klart, at førende søgemaskiner ikke længere er tilfredse med blot at fortælle dig, hvor du kan finde de oplysninger, du søger efter.

de tjener i stigende grad disse oplysninger selv og leverer dem direkte til brugerne, mens de samtidig leverer yderligere visninger til betalende annoncører.

fremtiden for søgning på nettet

hvor søgningen er på vej er nogens gæt., Privat søgning, en klar pushback mod reklame-og sporingspraksis fra brancheledere som Google, eksploderer i vækst, men repræsenterer stadig kun en lille brøkdel af det samlede marked.

Google er på den anden side vokset til et selskab til en værdi af hundreder af milliarder dollars og genererede næsten 75 milliarder dollars i omsætning i 2015 alene.

samtidig vokser antallet af internetforbundne enheder, husholdninger og brugere fortsat, og søgning repræsenterer den grundlæggende mekanisme, der bruges til at finde information på internettet.,

mens fremtiden for søgning kan være nogens gæt, af en ting, vi kan være sikre på: søgning går ikke væk når som helst snart.

Articles

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *