Disclosure: uw ondersteuning helpt de site draaiende te houden! We verdienen een referral fee voor sommige van de diensten die we op deze pagina aanbevelen.

er zijn drie tools die centraal staan in de functionaliteit van elke moderne zoekmachine. Wat zijn die drie gereedschappen?,

  1. een manier om automatisch en continu nieuwe inhoud te ontdekken;
  2. een manier om inhoud te indexeren zoals deze wordt ontdekt;
  3. een manier om door geïndexeerde inhoud te zoeken naar bits en stukken die een zoekmachine-gebruiker zoekt.

volgens die definitie is een zoekmachine een vrij eenvoudig concept. Echter, in de praktijk, het samenvoegen van deze drie bits van technologie is gebleken gemakkelijker gezegd dan gedaan, en vroege zoekmachines slechts voldoen aan een of twee van deze eisen.

tegenwoordig behoren toonaangevende zoekmachines tot de meest zichtbare en waardevolle technologiebedrijven., En technologieën die zijn ontwikkeld door zoekmachines worden geïmplementeerd op bijna alle moderne websites.

echter, het was niet altijd zo. De huidige zoekmachines komen van bescheiden begin en zoeken is een lange weg in de afgelopen decennia gekomen.

zoekmachines voor het Web

Het verhaal van de zoekmachine begint eigenlijk op Cornell University voordat het internet zelfs maar was gemaakt. In de jaren zestig ontwikkelden Gerard Salton en zijn collega ‘ s bij Cornell het SMART Information Retrieval System.,

SMART staat voor System for the Mechanical Analysis and Retrieval of Text of Salton ‘ s Magical Automatic Retriever of Text, afhankelijk van wie je het vraagt.

het was een vroeg systeem voor het opvragen van informatie dat veel van de conceptuele onderbouwing vaststelde waarop zoekmachines zijn gebaseerd, waaronder term weging, relevantie feedback, term dependency, en nog veel meer.

van SMART gaan we over naar de eerste generatie Internet-gebaseerde zoekmachines. Het Internet is eigenlijk gewoon een systeem van computernetwerken verbonden via TCP / IP communicatieprotocollen., Het werd ontwikkeld meer dan een decennium voordat Tim Berners-Lee creëerde het World Wide Web, of gewoon het web.

verschillende communicatieprotocollen werden gebruikt om gegevens over internetverbindingen te verzenden voordat het web werd geboren. De vroegste zoekmachines werden ontworpen om gebruikt te worden voor sommige van deze oudere protocollen.

wie is dat?

het WHOIS-protocol, dat tot op de dag van vandaag nog steeds wordt gebruikt, debuteerde in 1982 en was een van de eerste tools die werden gebruikt om databases via internet te bevragen.,

aanvankelijk waren WHOIS-zoekopdrachten vrij krachtig en konden ze gebruikt worden om veel informatie over een blok internetbronnen te vinden of om alle bronnen te vinden die geassocieerd zijn met een enkele persoon of organisatie.

vandaag de dag zijn WHOIS-zoekparameters veel beperkter en wordt WHOIS gebruikt om de geregistreerde eigenaar van een enkele bron te lokaliseren, of vrij algemeen om de privacydienst te lokaliseren die wordt gebruikt om het eigendom van een enkele bron te verdoezelen.,

Archie

publieke FTP-servers, die documentopslag-en ophaalservers zijn waar iedereen via een internetverbinding toegang toe heeft, waren gebruikelijk tijdens de late jaren 1980 en vroege jaren 1990.

Er was echter geen eenvoudige manier om informatie op een openbare FTP-server te vinden tenzij u de locatie van de server en de naam en locatie van het document wist dat u wilde openen. Dat veranderde toen Archie in 1990 uitkwam.

Archie wordt vaak gezien als de eerste echte zoekmachine., Hoewel er zoektechnologieën zoals WHOIS waren die eerder werden ontwikkeld, was Archie opmerkelijk omdat het de eerste tool was die kon worden gebruikt om te zoeken naar inhoud in plaats van gebruikers.

Archie bestond uit twee componenten:

  1. Een Archie-server die de inhoud van publieke FTP-servers indexeerde.
  2. een zoekgereedschap dat gebruikt wordt om de namen te achterhalen van de bestanden die geïndexeerd zijn op de Archie-server.

naar moderne maatstaven was Archie een vrij ruwe tool. Echter, op het moment, Archie was een enorme stap voorwaarts in het gebruik van het internet voor het ophalen van informatie., Dit is hoe het systeem werkte:

  • wanneer een nieuwe publieke FTP-server online kwam, zou de eigenaar van de server contact opnemen met de beheerder van een Archie-server en vragen om hun FTP-server op te nemen in de Archie-index.
  • eenmaal per maand, min of meer, zou elk van deze servers een snapshot maken van de namen van de bestanden die zijn opgeslagen op elke toegewezen FTP-server.
  • Archie servers waren met elkaar verbonden en de inhoud van elke server werd periodiek gespiegeld naar alle andere Archie servers.,
  • op deze manier bevatte elke Archie-server een relatief volledige en up-to-date index van de inhoud van elke FTP-server die door het systeem werd toegewezen.

de inhoud van een Archie-server kan op een paar verschillende manieren worden doorzocht. Als een gebruiker directe toegang tot een server had, kon hij een zoektoepassing gebruiken die direct op de server was geïnstalleerd.

Commandoregelverbindingen kunnen gemaakt worden om een Archie server te doorzoeken via een Telnet internetverbinding. Later, query ‘ s kunnen worden gemaakt door het verzenden van een goed geformatteerde e-mail naar de server of met behulp van een web-based zoekinterface.,

Archie ’s vrienden

Wat Archie was voor FTP-servers, Archie’ s vriend, Veronica, was voor Gopher-servers.

Gopher is een internet communicatie protocol ontwikkeld in de vroege jaren 1990 door Mark McCahill aan de Universiteit van Minnesota. Het leek veel meer op het web dan FTP. Maar er waren ook veel verschillen.

Gopher was een vrij strikt protocol vergeleken met het HTTP-protocol van het web. Enthousiastelingen zouden zeggen dat het sneller en meer georganiseerd was dan het web, terwijl critici het beperkend en beperkend zouden kunnen noemen.,

Gopher leek meer op een bestandsbeheerder (denk: Windows Verkenner) dan op een webpagina. Elke gopher-server bestond uit een reeks menu ’s en submenu’ s die werden gebruikt om de documenten op de server te organiseren.

aanvankelijk was het voor het vinden van informatie op een Gopher-server nodig om handmatig door een reeks menu ’s en submenu’ s te navigeren op basis van de titels en beschrijvingen die aan elk menu zijn gekoppeld totdat de bron die u zocht werd gevonden.

Veronica bood al snel een alternatief voor dit handmatige navigatieproces.,

Veronica was in principe de toepassing van het Archie-model op het Gopher-protocol. Informatie over Gopher-servers werd opgeslagen op Veronica-servers, en de Veronica-servers werden opgevraagd om informatie te vinden over documenten die zijn opgeslagen op de geà ndexeerde Gopher-servers.

niet lang na de ontwikkeling van Veronica verscheen Jughead. Hoewel het ook een Gopher Gereedschap was, was Jughead een heel ander dier. Jughead kon alleen worden gebruikt om te zoeken door de menu ’s en submenu’ s van een zeer beperkt deel van Gopher-meestal slechts een enkele server.,

sommige geavanceerde zoekoperators kunnen worden gebruikt met Jughead, waardoor het een krachtig hulpmiddel is voor het zeven en lokaliseren van de inhoud op een enkele gopher-server.

Wat zit er in een naam?

Ik weet zeker dat je je op dit moment afvraagt wat de namen zijn van deze drie zoekmachines: Archie, Veronica en Jughead.

Archie kwam op de eerste plaats en had niets te maken met de populaire stripserie. De naam werd gecreëerd door het woord Archief te nemen en de letter V te verwijderen. de namen Veronica en Jughead waren een simulatane verwijzing naar hun relatie met Archie en een knipoog naar de stripserie.,

In het belang van het doen alsof de namen Veronica en Jughead een andere betekenis hadden dan een speelse verwijzing naar Archie, werden later acroniemen gecreëerd (backroniemen).Veronica zou een afkorting zijn van Very Easy knaagdier-Oriented Net-wide Index to Computer Archives. En Jughead was Jonzy ‘ s universele Gopher hiërarchie Opgraving en Display.

het probleem met Archie en zijn vrienden

hoewel Archie, Veronica en Jughead toentertijd allemaal nuttige en geavanceerde tools waren, leden ze allemaal aan bepaalde beperkingen.,

ten eerste voldeden alle drie niet aan de eerste vereiste van een moderne zoekmachine: het bezitten van een manier om automatisch en continu nieuwe inhoud te ontdekken. Hoewel Archie en Veronica inhoud indexeerden op een breed scala van servers, moesten nieuwe servers handmatig aan de index worden toegevoegd.

Er was geen mechanisme voor automatische ontdekking van nieuwe servers. Jughead, aan de andere kant, was beperkt tot slechts een enkele server.

ten tweede waren alle drie de zoekmachines alleen in staat om titels en beschrijvingen te zoeken., Geen van de drie indexeerde de inhoud van een van de documenten in hun index.

hoewel alle drie deze zoekmachines belangrijke stappen waren op weg naar het bouwen van een moderne zoekmachine, waren alle drie deze tools in feite handmatige indices met beperkte zoekfunctionaliteit.

Wat is er gebeurd met Gopher?in 1993 besloot de Universiteit van Minnesota, die eigenaar was van de intellectuele eigendomsrechten van Gopher, om voor elke Gopher-installatie licentiekosten in rekening te brengen. ,

het World Wide Web, dat na Gopher werd gelanceerd en achterop liep, was als een volledig vrij platform uitgebracht. Als gevolg daarvan, na 1993 gebruikers begonnen te massaal naar het web om de licentiekosten associëren met Gopher te vermijden.

terwijl Gopher uiteindelijk werd uitgebracht als GPL software in het jaar 2000, en er zijn een paar actieve gopher servers vandaag, Gopher is grotendeels een hobby project in leven gehouden door Gopher liefhebbers.,

de eerste zoekmachines van het Web

toen het web voor het eerst werd gemaakt, waren er geen zoekmachines ontworpen om te werken via het communicatieprotocol van het web, HTTP. Aanvankelijk, Tim Berners-Lee onderhouden en handmatig bijgewerkt een directory van alle webservers.

in 1993 was het web echter zo gegroeid dat het bijhouden van een uitgebreide handmatige directory niet langer mogelijk was en dat de behoefte aan goede zoekmachines duidelijk was.,

zoals in de inleiding werd vermeld, moet een webzoekmachine drie dingen doen om echt nuttig te zijn:

  • Content discovery: computerprogramma ‘ s genaamd web crawlers moeten worden gebruikt om automatisch en systematisch het web te doorzoeken op zoek naar nieuwe of bijgewerkte content.
  • Inhoudsindexering: een index van de gevonden inhoud moet worden aangemaakt en onderhouden.
  • zoeken: de index moet toegankelijk zijn met een zoekgereedschap dat zoektermen vergelijkt met de inhoud van de index en nuttige resultaten oplevert.,

hulpmiddelen voor het ophalen van vroege informatie, zoals WHOIS, Archie, Veronica en Jughead, voldeden niet aan alle drie de vereisten.

waar ze allemaal tekort kwamen was dat ze handmatig aangemaakt werden mappen met beperkte zoekfunctionaliteit die geen mechanisme hadden voor het automatisch vinden en indexeren van nieuwe inhoud.

doorzoekbare handmatige directories

De vroegste webzoekmachines waren doorzoekbare mappen vergelijkbaar met Archie en Veronica.

W3Catalog, de allereerste zoekmachine op het web, leek qua concept sterk op Archie of Veronica., Toen het werd opgericht in 1993, waren er verschillende hoge kwaliteit, samengesteld, website indexen die elk een beperkt deel van het web. Wat W3Catalog deed was:

  • gebruik een computerprogramma om de informatie uit de verschillende indexen te halen;
  • formatteer de inhoud zodat de lijsten consistent werden gepresenteerd, ongeacht de index waaruit ze afkomstig zijn;
  • Geef een query tool die kan worden gebruikt om naar relevante lijsten te zoeken.,

Aliweb volgde snel op de hielen van W3Catalog en was een ander index-zoektool in dezelfde geest als Archie, Veronica en W3Catalog.

echter, terwijl W3Catalog alleen informatie uit een paar samengestelde website indices haalde, kon elke webmaster zijn website indienen voor vermelding op Aliweb.

indexen zoals W3catalog en Aliweb, ook wel webmappen genoemd, bleven populair gedurende de jaren negentig. de meest succesvolle van deze webmappen was Yahoo!

Yahoo!

Yahoo! opgericht in 1994., Een van de grootste bijdragen aan het zoeken was de directory service: een grote verzameling van gezaghebbende sites gebruikt voor hun zoekresultaten.

Yahoo! zelf begon als een directory van webpagina ‘ s zonder gebruik te maken van een web crawler. De Yahoo! Directory was niet de eerste, maar waarschijnlijk de grootste.

Yahoo! was – en is — een van de meest herkenbare zoekmachine namen. In de vroege dagen, de zoekfunctie was slechts een front-end voor resultaten die afkomstig zijn van andere web crawlers.

het bedrijf vertakt zich in andere gebieden van informatiedistributie zoals Yahoo! Groep., Maar het was niet tot 2003 dat Yahoo! werd zijn eigen zelfkruipende zoekmachine. Voorafgaand aan deze, Inktomi, gevolgd door Google, aangedreven Yahoo! Ironisch genoeg zou Google later hun grootste concurrent worden.

bovendien Yahoo! kocht verschillende zoekmachine bedrijven: Inktomi, AlltheWeb, en Overture.

Yahoo! introduceerde, of populair gemaakt, een aantal elementen die veel zoekmachines nog steeds gebruiken. Het toegestaan voor verticale zoekresultaten, Dat is een zoekopdracht binnen een specifieke categorie.

een persoon kan een zoekopdracht uitvoeren alleen voor afbeeldingen, alleen voor nieuws, enzovoort. Yahoo!, is nog steeds in werking, maar net als in het verleden, een ander zoekbedrijf de bevoegdheden van de zoekresultaten. Vandaag is het Bing.

webcrawlers automatiseren en versnellen het Indexeerproces

de eerste webcrawler werd in juni 1993 gemaakt en heette World Wide Web Wanderer, of gewoon Wanderer in het kort.

Het is gemaakt door Matthew Gray om een index te genereren genaamd Wandex, die in wezen een maat was voor de grootte van het web. Wanderer hield Wandex bijgewerkt tot eind 1995, maar de index werd nooit gebruikt voor het ophalen van informatie.,

JumpStation

De eerste toepassing van een webcrawler om een zoekmachine index aan te maken was JumpStation.JumpStation werd in december 1993 aan de Universiteit van Stirling in Schotland opgericht door Jonathan Fletcher, de “vader van modern search” en gebruikte webcrawlers om een doorzoekbare index van webpagina-titels en-koppen te maken.

binnen minder dan een jaar, tijdens het draaien op een gedeelde server in Schotland, hadden de webcrawlers van JumpStation 275.000 items geïndexeerd.,Fletcher was echter niet in staat om de universiteit te overtuigen om extra middelen te investeren of financiering te bieden voor het project, en toen Fletcher eind 1994 de universiteit verliet, werd JumpStation gesloten.

WebCrawler

WebCrawler, kort na JumpStation uitgebracht, was de eerste crawler-gebaseerde zoekmachine die de volledige tekst van elke geïndexeerde webpagina doorzocht.in de daaropvolgende twee tot drie jaar werden veel op crawler gebaseerde all-text zoekmachines zoals Magellan, Northern Light, Infoseek, HotBot, MSN Search en Inktomi gelanceerd, gekocht, verkocht, gesloten en samengevoegd.,

Lycos

Lycos begon als een onderzoeksproject. Het werd gelanceerd in 1994 en werd de meest populaire webbestemming in 1999.

In tegenstelling tot andere zoekmachines was Lycos een volledig bedrijf buiten de poort. Het verdiende geld, en het deed het zo snel. De belangrijkste reden voor zijn populariteit als zoekmachine was de enorme catalogus van geïndexeerde documenten.

het indexeerde ongeveer 400.000 documenten per maand bij de lancering en steeg tot een totaal van 60.000.0000 documenten in minder dan twee jaar — meer geïndexeerde pagina ‘ s dan elke andere zoekmachine. Lycos ging door verschillende acquisities en verkopen.,

als bedrijf was het eigenaar van vele andere bedrijven en sites. Als zoekmachine bestaat het nog steeds.

Excite

Excite begon in 1995. Het was de eerste zoekmachine die woordrelaties en statistische analyse gebruikte om zoekresultaten relevanter te maken.

tegenwoordig is het meer bekend om wat het niet deed. In 1999, had de mogelijkheid om Google te kopen — twee keer! Eerst werd het aangeboden voor een miljoen dollar. Later werd de prijs verlaagd tot slechts $ 750.000. Excite wees beide deals af.,

AltaVista

eind 1995 lanceerde de Digital Equipment Corporation AltaVista. Hoewel het niet de eerste zoekmachine, het verbeterde op zijn voorgangers, uiteindelijk steeds een van de meest populaire zoekmachines van zijn tijd.

AltaVista was de eerste die zoekopdrachten in natuurlijke taal toestond, wat betekent dat mensen gewoon konden typen waar ze naar op zoek waren in plaats van query strings te gebruiken. Het indexeerde ook veel meer van het web dan mensen zelfs wisten dat er bestond op het moment.

ten slotte was het een van de eerste zoekmachines die Booleaanse operators gebruikte., Het werd uiteindelijk onderdeel van Yahoo!

Ask Jeeves

Ask.com begon als Ask Jeeves in 1996. De zoekmachine werkte op een vraag-en-antwoordplatform, waar gebruikers een vraag konden stellen met behulp van natuurlijke taal en de zoekmachine een antwoord zou vinden.

een van Ask ‘ s belangrijkste bijdragen aan het zoeken is hun eigen pagina-ranking algoritme, ExpertRank. ExpertRank werkt met onderwerpspecifieke Populariteit. Als een website over een specifiek onderwerp backlinks heeft van andere sites over hetzelfde onderwerp, dan is het relevanter.

Ask focust uiteindelijk niet meer op ZOEKEN., Het bestaat nog steeds als een zoekmachine, maar het kernproduct is de doorzoekbare database van vragen beantwoord door gebruikers.

Bing

Microsoft ‘ s Bing gelanceerd in 2009, maar het is eigenlijk niet zo nieuw. Bing bestond als MSN Search en Windows Live Search-daterend uit 1998. Derden powered zijn vroege zoekopdrachten.

rond 2004 begon Microsoft zijn eigen zoekresultaten te gebruiken. Dit aangedreven de uiteindelijke verandering van MSN Search naar Windows Live Search en uiteindelijk Bing. Hoewel niet zo populair als Google, Bing is erin geslaagd om carve uit een fatsoenlijk deel van de zoekmachine markt.,in hetzelfde jaar dat Microsoft in de zoekmachine business kwam (1998), werd Google gelanceerd. Het zou al snel een revolutie betekenen in de wereld van zoeken.

PageRank: een revolutionair idee

hoewel het onmogelijk is om het succes van Google toe te schrijven aan een enkele factor, is het ook moeilijk om te overschatten hoe belangrijk PageRank was voor het vroege succes van Google. Dus, wat is PageRank?

Google gebruikt meerdere algoritmen om de volgorde te bepalen waarin zoekresultaten moeten worden gepresenteerd. PageRank was de eerste van deze algoritmen die door Google werden gebruikt., Het blijft een belangrijk onderdeel van Google ‘ s algemene resultaten ranking methodologie. Er zijn twee basisideeën achter PageRank:

  1. wanneer veel websites naar een webpagina linken, suggereert dit dat de webpagina nuttig en betrouwbaar is.
  2. Links van een nuttige en betrouwbare webpagina zijn waardevoller en betrouwbaarder dan links van een niet-vertrouwde webpagina.

deze twee ideeën worden gecombineerd om een hiërarchie van website betrouwbaarheid en nut bekend als PageRank te creëren.

zoals u kunt zien, worden deze ideeën in elkaar gezet., De aanwezigheid van meer inkomende links betekent dat een site betrouwbaarder is, en links van betrouwbare sites zijn waardevoller dan links van sites die niet veel inkomende links hebben.

wat er gebeurt is dat aan elke link van de ene website naar de andere een bepaald gewicht wordt toegekend, wat in SEO-kringen typisch link-sap wordt genoemd. Dat gewicht is gebaseerd op de PageRank van de website van waaruit de link afkomstig is en het aantal uitgaande links van de oorspronkelijke website.,

Google voegt alle koppelingen die van de oorspronkelijke websites naar de webpagina in kwestie stromen, samen en gebruikt die informatie om te bepalen welke PageRank aan de webpagina moet worden toegewezen.

PageRank bleek een geweldige manier om nuttige websites te identificeren, en gebruikers snel besefte dat Google zoekresultaten waren nuttiger dan die gegenereerd door een andere zoekmachine. Als gevolg daarvan, gebruikers snel stroomden naar Google en andere zoekmachines werden achtergelaten klauteren om in te halen.,

in 2002 was Google een prominente plaats gaan innemen op de zoekmachinemarkt, onder meer dankzij hun innovatieve pagerank-technologie en het gestroomlijnde ontwerp van de Google-homepage, dat in schril contrast stond met de webportalen voor advertenties en inhoud die door vrijwel alle andere zoekmachines worden geïmplementeerd.

Search groeit op en krijgt een baan

in de jaren negentig was investeren in search een speculatieve onderneming. Iedereen wist dat zoeken waardevol was, maar niemand verdiende er echt geld mee.,

dit weerhield investeerders er echter niet van om enorme bedragen in innovatieve zoekmachines te pompen, waardoor zoekinvesteringen een belangrijke factor waren die bijdroeg aan de dot-com-zeepbel.

eind jaren negentig begonnen serieuze inspanningen om het zoeken te gelde te maken.

zoekmachines realiseerden zich dat ze toegang hadden tot webgebruikers die hen precies vertelden wat ze wilden. Alles wat overbleef was voor handelaren om advertenties te plaatsen die zouden worden weergegeven aan de gebruikers die op zoek waren naar hun producten en diensten.,

Overture Monetizes Search

in 1996 was Open Text de eerste die probeerde om zoekopdrachten te commercialiseren door het aanbieden van betaalde zoeklijsten. Echter, de reactie op het zien van betaalde advertentie plaatsingen was een snelle veroordeling en het idee niet van start te gaan.

twee jaar later nam Goto, die later omgedoopt werd tot Overture, een tweede kans op paid search plaatsingen en het concept werd geaccepteerd. Dit was voor een groot deel te wijten aan het feit dat het web aanzienlijk gerijpt tussen 1996 en 1998 en de overgang van primair een academisch platform naar een commercieel ondersteund platform.,

kort na de lancering in het begin van 1998, heeft Google het idee van paid search plaatsingen van Overture overgenomen en snel getransformeerd van een worstelende startup in een van de meest winstgevende internetbedrijven.

zoals voorspeld, Nam ouverture het niet te Vriendelijk op om Google mee te kiezen, en Ouverture klaagde Google aan voor inbreuk op hun gepatenteerde intellectuele eigendom in 2002.

Yahoo! raakte betrokken bij de rechtszaak toen ze Overture kochten in 2003 en vervolgens overgegaan tot het oplossen van de zaak. Google verdiende een eeuwigdurende licentie om Overture ‘ s patenten te gebruiken in ruil voor 2.,7 miljoen aandelen van Google common stock.

tegenwoordig is reclame in zoekresultaten Het primaire financieringsmechanisme dat door zoekmachines wordt gebruikt en genereert het miljarden dollars aan jaarlijkse inkomsten.

het moderne Zoekmachinelandschap

de huidige zoekmachinemarkt wordt gedomineerd door slechts vier concurrenten waarvan het gecombineerde zoekvolume ongeveer 98% van de totale wereldwijde zoekmachinemarkt uitmaakt.

  • Google commandeert ongeveer 70% van de wereldwijde zoekmachinemarkt.
  • Bing komt op de tweede plaats met iets meer dan 10% van de markt.,Baidu staat op de derde plaats met iets minder dan 10% van de markt.
  • Yahoo! staat gelijk voor de derde plaats met Baidu.

terwijl andere zoekmachines, zoals AOL en Ask, nog steeds miljoenen keren per dag worden gebruikt, is hun gezamenlijke marktaandeel aanzienlijk minder dan 1% van de wereldwijde zoekmachinemarkt.

YouTube?!

een opmerkelijke omissie in de meeste lijsten van top zoekmachines is YouTube., Terwijl YouTube is geen zoekmachine in de traditionele zin, meer en meer gebruikers Zoeken YouTube voor hoe om video ‘ s, productinformatie, muziek, nieuws, en andere onderwerpen eerder gevonden voornamelijk via zoekmachines.

als het zoekvolume van YouTube wordt vergeleken met de lijst met zoekmachines, kan YouTube, eigendom van Google, de op een na grootste zoekmachine op het web zijn.

alleen voor uw ogen

een snelgroeiend segment van de zoekmachinemarkt is het Private search segment. Dit segment bestaat uit zoekmachines zoals DuckDuckGo, Startpage door Ixquick, en Qrobe.it.,

Het is aantrekkelijk voor privacy-minded individuen die niet doen wat hun zoekgewoonten bijgehouden en verkocht aan adverteerders. Hoewel deze zoekmachines nog steeds gebruik maken van een reclame-gebaseerde zoekmodel, ze niet verzamelen, opslaan, of verkopen identificeerbare gebruikersgegevens.

terwijl DuckDuckGo ’s huidige gemiddelde van ongeveer 10 miljoen query’ s per dag verbleekt in vergelijking met de 3,5 miljard query ‘ s die dagelijks door Google worden verwerkt, betekent dit een 100-voudige toename van het totale zoekvolume tussen 2011 en 2016.,

zoekmachine verfijning

De laatste jaren is de ontwikkeling van de zoektechnologie steeds geavanceerder geworden. Voorbeelden van innovatie in de zoekopdracht sinds 2010 zijn:

  • snellere zoekprestaties dankzij autocomplete en direct gegenereerde zoekresultaten, een innovatie genaamd Instant Search.
  • het gebruik van Schema.org markup om rijke zoekresultaten te produceren, zoals productbeoordelingen op basis van een 5-sterren beoordelingssysteem dat direct op de pagina met zoekresultaten wordt weergegeven.,
  • steeds meer gericht optreden tegen spam, duplicatie van inhoud, inhoud van lage kwaliteit en websites die overmatig gebruik maken van advertenties.
  • het vermogen van zoekmachines om eenheidsomrekeningen, valutaomrekeningen, eenvoudige wiskundige berekeningen, termdefinities, taalvertalingen en soortgelijke taken te verwerken en de resultaten weer te geven op de pagina met zoekmachineresultaten.
  • de weergave van Public domain encyclopedische informatie direct in zoekresultaten, een functie genaamd knowledge graph.,

Het is duidelijk dat toonaangevende zoekmachines niet langer tevreden zijn om u te vertellen waar u de informatie kunt vinden waarnaar u zoekt.

zij bieden die informatie steeds meer zelf aan en leveren deze rechtstreeks aan gebruikers, terwijl zij tegelijkertijd extra impressies leveren aan betalende adverteerders.

de toekomst van het zoeken op het Web

waar het zoeken naartoe gaat is een gok., Private search, een duidelijke pushback tegen de reclame en tracking praktijken van de industrie leiders zoals Google, explodeert in de groei, maar vertegenwoordigt nog steeds slechts een klein deel van de totale markt.

Google, aan de andere kant, is uitgegroeid tot een bedrijf ter waarde van honderden miljarden dollars en genereerde bijna $75 miljard aan omzet in 2015 alleen al.

tegelijkertijd blijft het aantal met internet verbonden apparaten, huishoudens en gebruikers groeien en is zoeken het fundamentele mechanisme dat wordt gebruikt om informatie op het web te vinden.,

hoewel de toekomst van zoeken iedereen kan raden, van één ding kunnen we zeker zijn: zoeken gaat niet snel weg.

Articles

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *