Avsløring: Din støtte bidrar til å holde nettstedet kjører! Vi tjener en henvisning avgift for noen av tjenestene som vi anbefaler på denne siden. Finn ut mer

Det er tre verktøy som er sentrale for funksjonalitet av alle moderne søkemotor. Hva er de tre verktøyene?,

  1. En måte å oppdage nytt innhold automatisk og kontinuerlig;
  2. En måte å indeksere innhold som det er oppdaget;
  3. En måte å søke gjennom indeksert innhold for å finne biter og stykker som en søkemotor brukeren er på jakt etter.

Etter at definisjon, en søkemotor er et ganske enkelt konsept. Men, i praksis, å sette de tre biter av teknologi sammen har vist seg lettere sagt enn gjort, og tidlig søkemotorer bare møtt en eller to av disse kravene.

i Dag, ledende søkemotorer er noen av de mest synlige og verdifullt teknologi for bedrifter rundt., Og teknologier som er utviklet av søkemotorer er implementert på nesten alle moderne nettsteder.

Men det var ikke alltid denne måten. Dagens søkemotorer kommer fra en beskjeden begynnelse og søk har kommet en lang vei i den siste tiårene.

Søkemotorer Før Web

historien om søkemotor faktisk starter ved Cornell University før internett hadde selv blitt opprettet. I 1960-årene, Gerard Salton og hans kolleger ved Cornell utviklet SMART Information Retrieval System.,

SMART enten står for System for Mekanisk Analyse og Gjenfinning av Tekst eller Salton Magiske Automatisk Retriever av Tekst-avhengig av hvem du spør.

Det ble en tidlig information retrieval system som er etablert mange av de konseptuelle grunnlaget som er søkemotorer basert, inkludert begrepet vekting, relevans tilbakemeldinger, begrepet avhengighet, og mye mer.

Fra SMART, beveger vi oss videre til den første generasjon av internett-baserte søkemotorer. Internett er egentlig bare et system av datanettverk som er koblet over TCP/IP-kommunikasjon protokoller., Det ble utviklet mer enn et tiår før Tim Berners-Lee skapte World Wide Web, eller bare internett.

Flere forskjellige kommunikasjonsprotokoller ble brukt til å overføre data over internett-tilkoblinger før internett ble født. Og de tidligste søkemotorer ble utformet for å brukes over noen av disse eldre protokoller.

WHOIS Det?

WHOIS-protokollen, som brukes fortsatt til denne dag, debuterte i 1982, og var en av de første verktøyene som brukes til å søke databaser over internett.,

Først, WHOIS-søk var ganske kraftige, og kan brukes til å finne en god del informasjon om en blokk av internett-ressurser, eller for å spore opp alle de ressurser som er knyttet til en enkelt person eller organisasjon.

i Dag, WHOIS-søk parametere er mye mer begrenset og WHOIS er benyttet for å finne den som er registrert eier av en enkelt ressurs, eller ganske ofte, for å finne privacy service som brukes til å skjule eierskapet av en enkelt ressurs.,

Archie

Offentlige FTP-servere, som dokument lagring og gjenfinning servere som alle kan få tilgang til over en internett-tilkobling, var vanlige i slutten av 1980-tallet og tidlig på 1990-tallet.

Men det var ingen enkel måte å finne informasjon på et offentlig FTP server med mindre du visste plasseringen av serveren, og navnet og plasseringen til dokumentet du ønsket å få tilgang. Alt dette forandret seg når Archie ble utgitt i 1990.

Archie er ofte tenkt som den første virkelige søkemotor., Mens det var søke teknologier som WHOIS som ble utviklet tidligere, Archie var bemerkelsesverdig, fordi det var den første verktøyet som kan brukes til å søke etter innhold i stedet for at brukerne.

Archie besto av to komponenter:

  1. Et Archie server som er indeksert innholdet av offentlige FTP-servere.
  2. Et søk verktøyet brukes til å søke i navn på filer som er indeksert på Archie server.

Etter moderne standarder, Archie var en ganske rå verktøyet. Men, på den tiden, Archie var et stort skritt fremover i bruk av internett for henting av informasjon., Her er hvordan systemet fungerte:

  • Når en ny offentlig FTP-serveren kom på nett, eieren av serveren vil komme i kontakt med administratoren av en Archie serveren og ber om å få sin FTP-server inkludert i Archie indeks.
  • en Gang i måneden, mer eller mindre, hver av disse serverne vil ta et øyeblikksbilde av navnene på filene som er lagret på hver tilordnet FTP-server.
  • Archie servere ble i nettverk sammen, og innholdet i hvert ble periodevis speilet til alle de andre Archie servere.,
  • På denne måten, hver Archie server inneholdt en relativt komplett og oppdatert oversikt over innholdet i hver FTP-serveren som ble kartlagt av systemet.

innholdet av en Archie server kan søkes i et par forskjellige måter. Hvis en bruker har direkte tilgang til en server, kan de bruke en søk-programmet som er installert direkte på serveren.

Kommando linje tilkoblinger kan gjøres for å søke etter en Archie en Telnet-server over internett-tilkobling. Senere, søk kan gjøres ved å sende en riktig formatert e-post til server eller ved hjelp av et web-basert grensesnitt for søk.,

Archie ‘s Venner

Hva Archie var til FTP-servere, Archie’ s venn, Veronica, var å Gopher-tjenere.

Gopher var et internett-kommunikasjon-protokollen ble utviklet tidlig på 1990-tallet av Mark McCahill ved University of Minnesota. Det var mye mer som web enn FTP. Men det var også mange forskjeller.

Gopher var en ganske streng protokoll i forhold til web HTTP-protokollen. Entusiaster vil si det var raskere og mer organisert enn nettet mens kritikere kan kalle det restriktive og kapitler.,

Gopher så mer ut som en File Manager (tenk: Windows Explorer (Windows utforsker) enn en web-side. Hver Gopher server besto av en rekke menyer og undermenyer, som ble brukt til å organisere dokumenter som er lagret på serveren.

Først, finne informasjon på en Gopher-server som kreves for manuelt å navigere gjennom en rekke menyer og undermenyer basert på titler og beskrivelser som er knyttet til hver meny til ressursen du var ute etter var funnet.

Veronica snart tilbudt et alternativ til denne bruksanvisningen navigasjon prosessen.,

Veronica var i utgangspunktet anvendelse av Archie modellen til Gopher-protokollen. Informasjon om Gopher-tjenere var lagret på Veronica servere, og Veronica servere ble avhørt for å finne informasjon om dokumenter som er lagret på den indekserte Gopher-tjenere.

Ikke lenge etter utviklingen av Veronica, Jughead dukket opp. Selv om det også var en Gopher-verktøyet, Jughead var et helt annet dyr. Jughead kan bare brukes til å søke gjennom menyer og undermenyer en svært begrenset del av Gopher-vanligvis bare en enkelt server.,

Noen avanserte søkeoperatorer kan brukes med Jughead, noe som gjør det et kraftig verktøy for sikting og finne innholdet på en enkelt Gopher-server.

Hva ligger i et Navn?

jeg er sikker på at på dette punktet du lurer på om navnene på disse tre søkemotorer: Archie, Veronica, og Jughead.

Archie kom først, og hadde ingenting å gjøre med den populære tegneserien. Navnet ble opprettet ved å ta ordet arkiv og fjerne bokstaven v. navn Veronica og Jughead var en simulataneous referanse til deres forhold til Archie og et nikk til tegneserier serien.,

I interesse av å late som navn Veronica og Jughead hadde noen form for betydning utover en leken referanse til Archie, akronymer ble senere opprettet (backronyms).

Veronica ble sagt å være kort for Veldig Lett Gnager-Orientert Netto-brede Indeksen til Datamaskinen Arkiver. Og Jughead var Jonzy Universelle Gopher Hierarki Utgraving og Skjerm.

Problemet med Archie og Hans Venner

Mens Archie, Veronica, og Jughead alle var nyttig og cutting-edge verktøy på den tiden, de alle slet med visse begrensninger.,

for det Første, alle tre klarte ikke å oppfylle det første kravet til en moderne søkemotor: å ha en måte å oppdage nytt innhold automatisk og kontinuerlig. Mens Archie og Veronica gjorde indeksere innholdet på et bredt spekter av servere, nye servere måtte bli lagt til i indeksen manuelt.

Det var ingen mekanisme for automatisk oppdaging av nye servere. Jughead, på den annen side, var begrenset til bare en enkelt server.

Andre, alle tre søkemotorer var bare i stand til å søke titler og beskrivelser., Ingen av de tre indeksert innholdet i noen av dokumentene som er inkludert i sine indekser.

Mens alle tre av disse søkemotorene var et viktig skritt på veien til å bygge et moderne søkemotor, alle tre av disse verktøyene var effektivt manuell indekser med begrenset søk-funksjonen.

Hva Skjedde med Gopher?

Gopher ekspandert raskt gjennom midten av 1990-tallet. Imidlertid, i 1993, University of Minnesota, som eide den immaterielle rettigheter til Gopher, bestemte seg for å starte ladingen lisensavgifter for hver Gopher installasjon.,

World Wide Web, som hadde blitt lansert etter Gopher og var henger etter, hadde blitt gitt ut som en helt gratis-plattformen. Som et resultat, etter 1993-brukere begynte å flokk til nettet for å unngå lisensavgifter forbinder med Gopher.

Mens Gopher til slutt ble utgitt som GPL-programvare i år 2000, og det er et par aktive Gopher-tjenere i dag, Gopher er i stor grad et hobby prosjekt holdt i live av en Gopher-entusiaster.,

Web Første Søkemotorer

Når nettet først ble opprettet var det ingen søkemotorer designet for å fungere over internett ‘ s communication protocol, HTTP. I utgangspunktet, Tim Berners-Lee vedlikeholdt og manuelt oppdatert katalog av alle web-servere.

Imidlertid av 1993, web-hadde vokst til det punktet at det å holde en omfattende manual directory var ikke lenger er mulig, og behovet for gode søkemotorer var vanlig å se.,

Som nevnt i innledningen, en web søkemotor behov for å gjøre tre ting for å være genuint nyttige:

  • Innhold oppdagelse: dataprogrammer, såkalte søkeroboter må brukes til å automatisk og systematisk gjennomsøker nettet oppsøke nye eller oppdaterte innholdet.
  • Innhold indeksering: en indeks av de oppdaget innholdet må være laget og vedlikeholdt.
  • Søk: indeksen må være tilgjengelig med et søkeverktøy som sammenligner søkeord til innholdet i indeksen, og returnerer nyttige resultater.,

Tidlig information retrieval verktøy som WHOIS, Archie, Veronica, og Jughead ikke klarte å møte alle de tre kravene.

Hvor de falt alle kort var at de var manuelt opprettede mapper med begrenset søkefunksjon som ikke har en mekanisme for automatisk å finne og indeksere nytt innhold.

Søkbar Manuell Direcotries

Den tidligste web søkemotorer var søkbare kataloger lik Archie og Veronica.

W3Catalog, den aller første web søkemotor, var svært lik Archie eller Veronica i konseptet., Da det ble opprettet i 1993, var det flere med høy kvalitet, kuratert, nettside indekser som hver dekket av en begrenset del av nettet. Hva W3Catalog gjorde var:

  • Bruke et dataprogram for å trekke ut informasjon fra de ulike indeksene;
  • Formatere innholdet slik at oppføringene ble presentert konsekvent, uavhengig av indeksen som de stammer;
  • Sørge for en spørring verktøy som kan brukes til å søke etter relevante oppføringer.,

Aliweb fulgte raskt på hælene av W3Catalog og var en annen index-søk tool i samme retning som Archie, Veronica, og W3Catalog.

Imidlertid, mens W3Catalog bare trakk informasjon i fra et par kuratert nettstedet indekser, noen webmaster kan sende inn deres nettside for notering på Aliweb.

Indekser som W3Catalog og Aliweb, også kalt web-kataloger, fortsatte å være populær over hele 1990-tallet. Den mest vellykkede av disse web-kataloger ble Yahoo!

Yahoo!

Yahoo! ble stiftet i 1994., En av sine største bidrag for å søke var katalogen sin tjeneste: en stor samling av autoritative nettsteder som brukes for sine søkeresultater.

Yahoo! selv startet som en katalog av websider uten å bruke en web-crawler. Yahoo! Katalogen var ikke den første, men det er sannsynligvis den største.

Yahoo! var — og fortsatt er — en av de mest gjenkjennelige søkemotor navn. I de tidlige dager, sin søkefunksjonen var bare en front end for resultatene som kom fra andre søkeroboter.

selskapet forgrenet seg inn i andre områder av informasjon distribusjon, slik som Yahoo! Gruppe., Men det var ikke før i 2003 som Yahoo! ble sin egen selv-gjennomgang søkemotor. Før dette, Inktomi, etterfulgt av Google, drevet av Yahoo! Ironisk nok, Google som senere skulle bli deres største konkurrent.

I tillegg, Yahoo! har kjøpt flere søkemotoren selskaper: Inktomi, AlltheWeb, og Overture.

Yahoo! innført eller gjort populært, en rekke elementer som mange søkemotorer er fortsatt i bruk. Det er tillatt for vertikal søkeresultater, som er et søk i en bestemt kategori.

En person som kan kjøre et søk kun for bilder, bare for nyheter, og så videre. Yahoo!, er fortsatt i drift, men akkurat som i det siste, nytt søk selskapet krefter søkeresultatene. I dag, det er Bing.

Søkeroboter Automatisere og Hastighet Opp indekseringsprosessen

Den første web-crawler ble opprettet i juni 1993, og er oppkalt World Wide Web Wanderer, eller bare Vandrer for kort.

Det ble skapt av Matteus Grå for å generere en indeks som kalles Wandex, som i hovedsak var et mål på størrelsen på web. Wanderer holdt Wandex oppdatert før sent i 1995, men indeksen ble aldri brukt til informasjonsinnhenting formål.,

JumpStation

Det første programmet av en web-crawler for å opprette en søkemotor indeksen var JumpStation.

Opprettet i desember 1993 ved Universitetet i Stirling i Skottland av Jonathan Fletcher, «father of modern søk» JumpStation brukt søkeroboter for å lage en søkbar indeks av nettsiden titler og overskrifter.

i Løpet av mindre enn et år, mens du kjører på en enkelt felles server i Skottland, JumpStation er søkeroboter hadde indeksert 275,000 oppføringer.,

Imidlertid Fletcher var ikke i stand til å overbevise Universitetet for å investere ytterligere ressurser, eller gi økonomisk støtte til prosjektet, og når Fletcher venstre Universitetet i slutten av 1994 JumpStation ble stengt ned.

WebCrawler

WebCrawler, utgitt kort tid etter JumpStation, var den første crawler-basert søkemotor for å gjennomsøke hele teksten i hver indeksert web-side.

i Løpet av de påfølgende to-tre årene og mange crawler-basert alt-tekst søkemotorer som Magellan, Northern Light, Infoseek, HotBot, MSN Søk, og Inktomi ble lansert, kjøpte, solgte, lukket, og slått sammen.,

Lycos

Lycos startet som et forskningsprosjekt. Den ble lansert i 1994 og ble den mest populære Web reisemål av 1999.

i Motsetning til andre søkemotorer, Lycos var en full-corporate business ut av porten. Det gjorde penger, og det gjorde det så raskt. Den viktigste grunnen for sin popularitet som en søkemotor som ble den store katalog av indekserte dokumenter.

Det indekserte rundt 400.000 dokumenter per måned ved lansering og skaleres opp til å indeksere en total av 60,000,0000 dokumenter i mindre enn to år — mer indekserte sider enn noen annen søkemotor. Lycos gikk gjennom flere oppkjøp og salg.,

Som et selskap, er det eid mange andre selskaper og nettsteder. Som en søkemotor, er det fortsatt eksisterer i dag.

Opphisse

Opphisse startet i 1995. Det var den første søkemotor for å bruke ordet relasjoner og statistisk analyse for å gjøre søk mer relevante resultater.

i Dag, det er kjent mer for hva det gjorde det ikke. I 1999, hadde muligheten til å kjøpe Google — to ganger! For det første, det ble tilbudt for en million dollar. Senere, prisen var redusert til bare $750,000. Opphisse slått ned begge tilbudene.,

AltaVista

På slutten av 1995, Digital Equipment Corporation lanserte AltaVista. Mens det ikke var den første søkemotor, det bedre på sine forgjengere, og til slutt blir en av de mest populære søkemotorer for sin tid.

AltaVista var den første til å tillate naturlig-språk-søk, som betyr at folk kan rett og slett hva de var ute etter i stedet for å bruke spørringen strenger. Det er også indeksert mye mer av nettet enn folk engang visste eksisterte på den tiden.

til Slutt, det var en av de første søkemotorer for å bruke Boolske operatorer., Det ble til slutt en del av Yahoo!

Ask Jeeves

Ask.com startet som Ask Jeeves i 1996. Søkemotoren drives på en spørsmål-og-svar-plattformen, hvor brukerne kan stille et spørsmål ved hjelp av naturlig språk-og søkemotoren vil finne svar på.

En av Be ‘ s viktigste bidrag til å søke er sin egen side-rangering algoritme, ExpertRank. ExpertRank arbeider med fagspesifikke popularitet. Hvis et nettsted på et bestemt emne har tilbakekoblinger fra andre nettsteder om samme emne, så er det mer relevant.

Spør til slutt stoppet med fokus på søk., Det eksisterer fortsatt som en søkemotor, men kjernen i produktet er dens søkbar database med spørsmål besvart av brukere.

Bing

Microsofts Bing lansert i 2009, men det er faktisk ikke som nye. Bing eksistert som MSN Søk-og Windows Live-Søk — dateres tilbake til 1998. Tredjeparter drevet sin tidlige søk.

Rundt 2004, Microsoft begynte å bruke sin egen søkeresultater. Denne drevet eventuell endring fra MSN Søk til Windows Live-Søk og til slutt Bing. Selv om ikke på langt nær så populær som Google, Bing har klart å skjære ut en anstendig del av søkemotoren markedet.,

Som samme år som Microsoft fikk i søkemotoren business (1998), Google ble lansert. Det snart skulle revolusjonere verden av søket.

PageRank: En Revolusjonerende Idé

Mens det er umulig å tillegge Googles suksess til en enkelt faktor, er det også vanskelig å overdrive hvor viktig PageRank var å Google ‘ s tidlige suksess. Så, hva er PageRank?

Google bruker flere algoritmer for å bestemme i hvilken rekkefølge søk resultater skal presenteres. PageRank var den første av disse algoritmene som brukes av Google., Det er fortsatt en viktig del av Googles totale resultater ranking metodikk. Det er to grunnleggende ideene bak PageRank:

  1. Når mange nettsteder lenke til en nettside det tyder på at nettsiden er nyttig og troverdig.
  2. Koblinger fra et nyttig og troverdig nettside er mer verdifull og troverdig enn koblinger fra en ikke-klarert nettside.

Disse to ideene er kombinert for å skape et hierarki av nettstedet troverdighet og nytteverdi kjent som PageRank.

Som du kan se, har disse ideene feed inn i hverandre., Tilstedeværelsen av flere innkommende koblinger betyr at et nettsted ikke er mer troverdig, og linker fra pålitelige nettsteder som er mer verdifullt enn lenker fra nettsteder som ikke har mange innkommende linker.

det som skjer er at hver link fra en nettside til en annen er tildelt en viss vekt, noe som er typisk kalt link juice i SEO sirkler. Som vekt er basert på PageRank av nettstedet link stammer og antall utgående linker fra det opprinnelige nettstedet.,

Google legger opp alle link juice strømme stammer fra nettsteder til websiden i spørsmålet og bruker denne informasjonen til å bestemme PageRank å tildele til den websiden.

PageRank viste seg å være en flott måte å identifisere nyttige nettsteder, og brukere skjønte raskt at Google søk-resultater var mer nyttig enn de som er generert av noen annen søkemotor. Som et resultat kan brukere raskt strømmet til Google og andre søkemotorer som var igjen desperat å fange opp.,

Etter 2002, Google hadde steget til prominence i søkemotoren markedet delvis takket være sin innovative PageRank teknologi og strømlinjeformet design av Google-startsiden som stod i sterk kontrast til reklame og innhold som er tunge internett-portaler som er implementert av praktisk talt alle andre søkemotorer.

Søk Vokser Opp og Får en Jobb

I 1990-årene, er å investere i søket var en spekulativ affære. Alle visste at søket var verdifull, men ingen var egentlig å gjøre noen penger med søk.,

Imidlertid at var ikke stoppe investorer fra å pumpe store summer til innovative søkemotorer, noe som gjør søk investering er en betydelig medvirkende faktor til dot-com-boblen.

I slutten av 1990-tallet, arbeidet begynte for alvor å tjene penger på søk.

søkemotorer innså at de hadde tilgang til internett-brukere som skulle fortelle dem nøyaktig hva de ønsket. Alle som var att var for selgere til å plassere annonser som skulle vises for brukere som leter etter sine produkter og tjenester.,

Overture Monetizes Søk

I 1996, Åpne Teksten ble den første til å forsøke å kommersialisere søk ved å tilby betalt søk oppføringer. Men reaksjonen til å se betalt annonseplasseringer var rask fordømmelse og ideen unnlatt å ta av.

To år senere, GoTo, som senere ble omdøpt til Overture, tok en andre sjanse på betalt søk plasseringer, og konseptet ble akseptert. Dette skyldes i stor del til det faktum at internett hadde modnet betydelig mellom 1996 og 1998, og gått fra å være primært en faglig plattform for å et kommersielt støttet plattform.,

Kort tid etter lanseringen tidlig i 1998, Google lånt ideen om betalt søk plasseringer fra Overture og raskt forvandlet fra en sliter med oppstart i en av de mest lønnsomme bedrifter på internett.

Som kunne ha vært forutsett, Overture ikke ta altfor vennlig til Google co-opt-sin idé, og Overture saksøkt Google for brudd på deres patenterte intellektuell eiendom i 2002.

Yahoo! fikk involvert i søksmål når de kjøpte Overture i 2003, og fortsatte deretter å avgjøre saken. Google fikk en evigvarende lisens til å bruke Overture er patenter i bytte for 2.,7 millioner aksjer i Google felles lager.

i Dag, annonsering i søkeresultatene er den primære finansiering mekanisme som brukes av søkemotorer og genererer milliarder av dollar i årlige inntekter.

De Moderne Søkemotor Landskapet

i Dag er søkemotoren markedet er dominert av bare fire konkurrenter som kombinert søk volum utgjør ca 98% av den totale globale søkemotoren markedet.

  • Google-kommandoer om 70% av den globale søkemotoren markedet.
  • Bing kommer i andre med litt mer enn 10% av markedet.,
  • Baidu kom på tredje med litt mindre enn 10% av markedet.
  • Yahoo! kommer med uavgjort for tredje med Baidu.

Mens andre søkemotorer, som for eksempel AOL og Spør, blir fortsatt brukt millioner av ganger hver dag, deres samlede markedsandel er betydelig mindre enn 1% av den globale søkemotoren markedet.

YouTube?!

En bemerkelsesverdig unnlatelse fra de fleste lister over toppen søkemotorer, er YouTube., Mens YouTube er ikke en søkemotor i tradisjonell forstand, flere og flere brukere søke på YouTube for Hvordan videoer, produktinformasjon, musikk, nyheter og andre emner som tidligere er funnet i hovedsak gjennom søkemotorer.

Hvis YouTube-søk volum er i forhold til listen over søkemotorer, YouTube, som eies av Google, som faktisk kan være den nest største søkemotoren på internett.

Kun For Dine Øyne

En raskt voksende segmentet av søkemotoren markedet er den private søk segmentet. Dette segmentet består av søkemotorer som DuckDuckGo, Startpage av Ixquick, og Qrobe.det.,

Det er attraktivt å privacy-tenkende individer som ikke hva deres søk vaner sporet og selges til annonsører. Mens disse søkemotorene gjør fortsatt bruk en reklame-basert søk-modell, er de ikke samle inn, lagre, selge eller identifiserbar bruker data.

Mens DuckDuckGo gjeldende gjennomsnitt på rundt 10 millioner søk per dag blekner i sammenligning med 3,5 milliarder kroner spørsmål behandles hver dag av Google, det representerer en 100-fold økning i antall søk volum mellom 2011 og 2016.,

Søk Motor Raffinement

trenden over de siste par år i utvikling av søk-teknologi har vært mot større raffinement. Eksempler på innovasjon i søk siden 2010 inkluderer:

  • Raskere søk ytelse takket autofullfør og umiddelbart generert søkeresultater, en innovasjon som heter Instant Search.
  • bruk av Schema.org markup å produsere rike søkeresultater, slik som produktet rangeringer basert på en 5-stjerners rating-systemet vises til høyre på siden med søkeresultater.,
  • Stadig mer målrettet crackdowns på spam, innhold kopiering, lav kvalitet innhold, og nettsteder som gjør overdreven bruk av reklame.
  • evne til søkemotorer til å behandle unit konverteringer, valuta, enkle matematiske beregninger, sikt definisjoner, language translation, og lignende, og vise resultatene i søkemotoren resultater siden.
  • visning av offentlig domene encyclopedic informasjon direkte i søkeresultatene, en funksjon som kalles knowledge graph.,

Klart, ledende søkemotorer er ikke lenger fornøyd med å bare fortelle deg hvor du kan finne den informasjonen du søker etter.

De er i økende grad tjene opp som informasjon selv og levere det direkte til brukerne, mens de samtidig levere flere visninger for betalende annonsører.

Fremtiden for Søk på Nettet

Hvor søker er på vei er noen gjette., Eget søk, en klar pushback mot reklame og sporing praksis i bransjen, som for eksempel Google, eksploderer i vekst, men fortsatt representerer bare en liten brøkdel av det totale markedet.

Google, på den andre siden, har vokst til et selskap verdt hundrevis av milliarder av dollar og genererte nesten $75 milliarder i omsetning i 2015 alene.

På samme tid, antall internett-tilkoblede enheter, husholdninger, og brukere fortsetter å vokse og søker representerer de grunnleggende mekanisme som brukes for å finne informasjon på internett.,

Mens fremtiden for søk kan være noen gjette, på en ting vi kan være sikker på: søk ikke kommer bort helst snart.

Articles

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *