Es gibt drei Tools, die für die Funktionalität jeder modernen Suchmaschine von zentraler Bedeutung sind. Was sind diese drei Werkzeuge?,
- Eine Möglichkeit, neue Inhalte automatisch und kontinuierlich zu entdecken;
- Eine Möglichkeit, Inhalte so zu indizieren, wie sie entdeckt werden;
- Eine Möglichkeit, indizierte Inhalte zu durchsuchen, um Teile und Teile zu finden, nach denen ein Suchmaschinenbenutzer sucht.
Nach dieser Definition ist eine Suchmaschine ein ziemlich einfaches Konzept. In der Praxis hat sich das Zusammensetzen dieser drei Technologiebits jedoch als einfacher erwiesen als getan, und frühe Suchmaschinen erfüllten nur eine oder zwei dieser Anforderungen.
Heute gehören führende Suchmaschinen zu den sichtbarsten und wertvollsten Technologieunternehmen weltweit., Und Technologien, die von Suchmaschinen Pionierarbeit geleistet haben, werden auf fast allen modernen Websites implementiert.
es war Jedoch nicht immer so. Die heutigen Suchmaschinen kommen von bescheidenen Anfang und die Suche hat einen langen Weg in den letzten Jahrzehnten kommen.
Suchmaschinen vor dem Web
Die Geschichte der Suchmaschine beginnt tatsächlich an der Cornell University, bevor das Internet überhaupt erstellt wurde. In den 1960er Jahren entwickelten Gerard Salton und seine Kollegen bei Cornell das SMART Information Retrieval System.,
der SMART steht entweder für das System für die Mechanische Analyse und Abruf von Text-oder Salton Magische Automatische Retriever Text-je nachdem, wen Sie Fragen.
Es war eine frühe information-retrieval-system, dass viele der konzeptionellen Grundlagen, auf denen Suchmaschinen basieren, einschließlich Begriff Gewichtung, Relevanz-feedback, Begriff Abhängigkeit, und viele mehr.
Von SMART gehen wir zur ersten Generation internetbasierter Suchmaschinen über. Das Internet ist wirklich nur ein System von Computernetzwerken, die über TCP/IP-Kommunikationsprotokolle verbunden sind., Es wurde mehr als ein Jahrzehnt entwickelt, bevor Tim Berners-Lee das World Wide Web oder nur das Web schuf.
Mehrere verschiedene Kommunikationsprotokolle wurden verwendet, um Daten über Internetverbindungen zu übertragen, bevor das Web geboren wurde. Und die frühesten Suchmaschinen wurden entwickelt, um über einige dieser älteren Protokolle verwendet werden.
WHOIS Dass?
Das WHOIS-Protokoll, das noch heute verwendet, debütierte im Jahr 1982 und war eines der ersten Werkzeuge, die zur Abfrage von Datenbanken über das internet.,
Anfangs waren WHOIS-Suchvorgänge sehr leistungsfähig und konnten verwendet werden, um viele Informationen über einen Block von Internetressourcen zu finden oder alle Ressourcen aufzuspüren, die einer einzelnen Person oder Organisation zugeordnet sind.
Heutzutage sind WHOIS-Suchparameter viel eingeschränkter und WHOIS wird verwendet, um den registrierten Eigentümer einer einzelnen Ressource zu finden, oder ganz allgemein, um den Datenschutzdienst zu finden, der verwendet wird, um das Eigentum an einer einzelnen Ressource zu verschleiern.,
Archie
Öffentliche FTP-Server, auf die jeder über eine Internetverbindung zugreifen kann, waren in den späten 1980er und frühen 1990er Jahren üblich.
Es gab jedoch keine einfache Möglichkeit, Informationen auf einem öffentlichen FTP-Server zu finden, es sei denn, Sie kannten den Standort des Servers sowie den Namen und den Speicherort des Dokuments, auf das Sie zugreifen wollten. All das änderte sich, als Archie 1990 veröffentlicht wurde.
Archie wird oft als die erste echte Suchmaschine., Während es Suchtechnologien wie WHOIS gab, die früher entwickelt wurden, war Archie bemerkenswert, da es das erste Tool war, mit dem nach Inhalten und nicht nach Benutzern gesucht werden konnte.
Archie bestand aus zwei Komponenten:
- Ein Archie-Server, der den Inhalt öffentlicher FTP-Server indizierte.
- Ein Suchwerkzeug, mit dem die Namen der Dateien abgefragt werden, die auf dem Archie-Server indiziert wurden.
Nach modernen Maßstäben war Archie ein ziemlich grobes Werkzeug. Zu dieser Zeit war Archie jedoch ein großer Schritt vorwärts bei der Nutzung des Internets zum Abrufen von Informationen., So funktionierte das System:
- Wenn ein neuer öffentlicher FTP-Server online ging, meldete sich der Besitzer des Servers mit dem Administrator eines Archie-Servers und bat darum, seinen FTP-Server in den Archie-Index aufzunehmen.
- Einmal im Monat, mehr oder weniger, würde jeder dieser Server eine Momentaufnahme der Namen der Dateien auf jedem zugeordneten FTP-Server gespeichert nehmen.
- Archie-Server wurden miteinander vernetzt und der Inhalt jedes einzelnen wurde regelmäßig auf alle anderen Archie-Server gespiegelt.,
- Auf diese Weise enthielt jeder Archie-Server einen relativ vollständigen und aktuellen Index des Inhalts jedes FTP-Servers, der vom System abgebildet wurde.
Der Inhalt eines Archie-Servers kann auf verschiedene Arten durchsucht werden. Wenn ein Benutzer direkten Zugriff auf einen Server hat, kann er eine Suchanwendung verwenden, die direkt auf dem Server installiert ist.
Befehlszeilenverbindungen können hergestellt werden, um einen Archie-Server über eine Telnet-Internetverbindung zu durchsuchen. Später können Abfragen durchgeführt werden, indem eine ordnungsgemäß formatierte E-Mail an den Server gesendet oder eine webbasierte Suchoberfläche verwendet wird.,
Archie ‚ s Freunde
Was ist mit Archie war zu FTP-Servern, Archie Freund, Veronica, war die Gopher-Server.Gopher war ein Internet-Kommunikationsprotokoll, das Anfang der 1990er Jahre von Mark McCahill an der University of Minnesota entwickelt wurde. Es war viel mehr wie das Web als FTP. Aber es gab auch viele Unterschiede.
Gopher war ein ziemlich strenges Protokoll im Vergleich zum HTTP-Protokoll des Webs. Enthusiasten würden sagen, dass es schneller und organisierter war als das Web, während Kritiker es als restriktiv und einschränkend bezeichnen könnten.,
Gopher sah eher aus wie ein Dateimanager (denken Sie: Windows Explorer) als eine Webseite. Jeder Gopher-Server bestand aus einer Reihe von Menüs und Untermenüs, mit denen die auf dem Server gespeicherten Dokumente organisiert wurden.
Das Auffinden von Informationen auf einem Gopher-Server erforderte zunächst eine manuelle Navigation durch eine Reihe von Menüs und Untermenüs basierend auf den Titeln und Beschreibungen, die jedem Menü zugeordnet waren, bis die gesuchte Ressource gefunden wurde.
Veronica bot bald eine Alternative zu diesem manuellen Navigationsprozess an.,
Veronica war im Grunde die Anwendung des Archie-Modells auf das Gopher-Protokoll. Informationen zu Gopher-Servern wurden auf Veronica-Servern gespeichert, und die Veronica-Server wurden abgefragt, um Informationen zu Dokumenten zu finden, die auf den indizierten Gopher-Servern gespeichert sind.
Nicht lange nach der Entwicklung von Veronica erschien Jughead. Obwohl es auch ein Gopher-Werkzeug war, war Jughead ein ganz anderes Tier. Jughead konnte nur verwendet werden, um die Menüs und Untermenüs eines sehr begrenzten Teils von Gopher zu durchsuchen-normalerweise nur eines einzelnen Servers.,
Einige erweiterte Suchoperatoren könnten mit Jughead verwendet werden, was es zu einem leistungsstarken Tool zum Sichten und Auffinden der Inhalte auf einem einzelnen Gopher-Server macht.
Was ist in einem Namen?
ich bin sicher, an diesem Punkt sind Sie sich über die Namen dieser drei Suchmaschinen: Archie, Veronica und Jughead.
Archie stand an erster Stelle und hatte nichts mit der beliebten Comic-Serie zu tun. Der Name wurde erstellt, indem das Wort Archiv genommen und der Buchstabe v entfernt wurde.Die Namen Veronica und Jughead waren ein simulierter Verweis auf ihre Beziehung zu Archie und eine Anspielung auf die Comicserie.,
Im Interesse der vorgibt, wie die Namen Veronica und Jughead hatte irgendeine Art von Sinn über eine spielerische Referenz an Archie, Akronyme wurden später erstellt (backronyms).
Veronica sollte kurz für einen sehr einfachen nagetierorientierten netzweiten Index für Computerarchive sein. Und Jughead war Jonzys universelle Gopher-Hierarchie Ausgrabung und Anzeige.
Das Problem mit Archie und Seine Freunde
Während Archie, Veronica und Jughead waren alle sinnvoll und cutting-edge tools an der Zeit, Sie alle litten bestimmte Einschränkungen.,
Zunächst haben alle drei die erste Anforderung einer modernen Suchmaschine nicht erfüllt: eine Möglichkeit zu haben, neue Inhalte automatisch und kontinuierlich zu entdecken. Während Archie und Veronica Inhalte auf einer Vielzahl von Servern indizierten, mussten neue Server manuell zum Index hinzugefügt werden.
Es gab keinen Mechanismus für die automatische Erkennung neuer Server. Jughead hingegen beschränkte sich auf einen einzigen Server.
Zweitens waren alle drei Suchmaschinen nur in der Lage, Titel und Beschreibungen zu suchen., Keiner der drei indizierte den Inhalt eines der in ihren Indizes enthaltenen Dokumente.
Während alle drei dieser Suchmaschinen wichtige Schritte auf dem Weg zum Aufbau einer modernen Suchmaschine waren, waren alle drei Tools effektiv manuelle Indizes mit eingeschränkter Suchfunktion.
Was Passiert ist Gopher?
Gopher expandierte rasch durch die Mitte der 1990er Jahre. Allerdings, im Jahr 1993, der University of Minnesota, die im Besitz der geistigen Eigentumsrechte an Backenhörnchen, die beschlossen, zu starten, lade den Lizenzgebühren für jeden Gopher-installation.,
Das World Wide Web, das nach Gopher gestartet worden war und hinterherhinkte, war als völlig kostenlose Plattform veröffentlicht worden. Infolgedessen strömten Benutzer nach 1993 ins Internet, um die mit Gopher verbundenen Lizenzgebühren zu vermeiden.
Während Gopher im Jahr 2000 schließlich als GPL-Software veröffentlicht wurde und es heute einige aktive Gopher-Server gibt, ist Gopher weitgehend ein Hobby-Projekt, das von Gopher-Enthusiasten am Leben erhalten wird.,
das Web Der Ersten Suchmaschinen
Wenn die web-zuerst erstellt wurde, gab es keine Suchmaschinen entworfen zu bedienen über die web-Kommunikation-Protokoll, HTTP. Zunächst pflegte Tim Berners-Lee ein Verzeichnis aller Webserver und aktualisierte es manuell.
Bis 1993 war das Web jedoch so weit gewachsen, dass die Führung eines umfassenden manuellen Verzeichnisses nicht mehr möglich war und der Bedarf an guten Suchmaschinen deutlich zu erkennen war.,
Wie in der Einleitung erwähnt, muss eine Websuchmaschine drei Dinge tun, um wirklich nützlich zu sein:
- Inhaltserkennung: Computerprogramme namens Webcrawler müssen verwendet werden, um das Web automatisch und systematisch nach neuen oder aktualisierten Inhalten zu durchsuchen.
- Inhaltsindizierung: Ein Index des entdeckten Inhalts muss erstellt und gepflegt werden.
- Suche: Auf den Index muss mit einem Suchwerkzeug zugegriffen werden können, das Suchbegriffe mit dem Inhalt des Index vergleicht und nützliche Ergebnisse zurückgibt.,
Frühe Tools zum Abrufen von Informationen wie WHOIS, Archie, Veronica und Jughead erfüllten nicht alle drei Anforderungen.
Wo sie alle zu kurz kamen, war, dass sie manuell erstellte Verzeichnisse mit eingeschränkter Suchfunktion waren, die keinen Mechanismus zum automatischen Auffinden und Indizieren neuer Inhalte hatten.
Durchsuchbare manuelle Direcotries
Die frühesten Web-Suchmaschinen waren durchsuchbare Verzeichnisse ähnlich Archie und Veronica.
W3Catalog, die allererste Web – Suchmaschine, war Archie oder Veronica im Konzept sehr ähnlich., Als es 1993 erstellt wurde, gab es mehrere hochwertige, kuratierte Website-Indizes, die jeweils einen begrenzten Teil des Webs abdeckten. Was W3Catalog Tat, war:
- Verwenden Sie einen computer-Programm, ziehen Sie die Informationen aus den verschiedenen Indizes;
- Formatieren Sie die Inhalte, so dass die Angebote wurden vorgestellt, die konsequent unabhängig von der index, aus dem Sie entstanden ist;
- Bieten ein Abfrage-tool, das verwendet werden könnte, um Suche für relevante Inserate.,
Aliweb folgte schnell auf den Fersen von W3Catalog und war ein weiteres Indexsuchwerkzeug in der gleichen Richtung wie Archie, Veronica und W3Catalog.
Während W3Catalog jedoch nur Informationen aus einigen kuratierten Websiteindizes abgerufen hat, kann jeder Webmaster seine Website zur Auflistung auf Aliweb einreichen.
Indizes wie W3Catalog und Aliweb, auch Webverzeichnisse genannt, waren in den 1990er Jahren weiterhin beliebt. Das erfolgreichste dieser Webverzeichnisse war Yahoo!
Yahoo!
Yahoo! wurde 1994 gegründet., Einer der größten Beiträge zur Suche war der Verzeichnisdienst: Eine große Sammlung maßgeblicher Websites, die für ihre Suchergebnisse verwendet wurden.
Yahoo! selbst als Verzeichnis von Webseiten gestartet, ohne einen Webcrawler zu verwenden. Die Yahoo! Verzeichnis war nicht das erste, aber es wahrscheinlich das größte.
Yahoo! war — und ist immer noch-einer der bekanntesten Suchmaschinennamen. In den frühen Tagen war seine Suchfunktion nur ein Frontend für Ergebnisse, die von anderen Webcrawlern kamen.
Das Unternehmen verzweigte sich in andere Bereiche der Informationsverteilung wie Yahoo! Gruppen., Aber es war nicht bis 2003, dass Yahoo! wurde seine eigene selbstkriechende Suchmaschine. Davor, Inktomi, gefolgt von Google, angetrieben Yahoo! Ironischerweise würde Google später ihr größter Konkurrent werden.
Zusätzlich Yahoo! gekauft mehrere Suchmaschinen-Unternehmen: Inktomi, AlltheWeb, und Overture.
Yahoo! eingeführt oder populär gemacht, eine Reihe von Elementen, die viele Suchmaschinen noch verwenden. Es erlaubte vertikale Suchergebnisse, bei denen es sich um eine Suche innerhalb einer bestimmten Kategorie handelt.
Eine Person könnte eine Suche nur nach Bildern, nur nach Nachrichten usw. durchführen. Yahoo!, ist noch in Betrieb, aber genau wie in der Vergangenheit, ein anderes Suchunternehmen treibt die Suchergebnisse. Heute ist es Bing.
Webcrawler automatisieren und beschleunigen den Indexierungsprozess
Der erste Webcrawler wurde im Juni 1993 mit dem Namen World Wide Web Wanderer oder kurz Wanderer erstellt.
Es wurde von Matthew Gray erstellt, um einen Index namens Wandex zu generieren, der im Wesentlichen ein Maß für die Größe des Webs war. Wanderer hielt Wandex bis Ende 1995 auf dem neuesten Stand, aber der Index wurde nie zum Abrufen von Informationen verwendet.,
JumpStation
Die erste Anwendung eines Webcrawlers zum Erstellen eines Suchmaschinenindex war JumpStation.
Erstellt im Dezember 1993 an der University of Stirling in Schottland von Jonathan Fletcher, dem „Vater der modernen Suche“, verwendete JumpStation Webcrawler, um einen durchsuchbaren Index von Webseiten-Titeln und-überschriften zu erstellen.
Innerhalb von weniger als einem Jahr hatten die Webcrawler von JumpStation auf einem einzigen freigegebenen Server in Schottland 275.000 Einträge indiziert.,
Fletcher konnte die Universität jedoch nicht davon überzeugen, zusätzliche Ressourcen zu investieren oder Mittel für das Projekt bereitzustellen, und als Fletcher die Universität Ende 1994 verließ, wurde die JumpStation geschlossen.
WebCrawler
Der kurz nach JumpStation veröffentlichte WebCrawler war die erste Crawler-basierte Suchmaschine, die den gesamten Text jeder indizierten Webseite crawlte.
In den folgenden zwei bis drei Jahren wurden viele Crawler-basierte Volltextsuchmaschinen wie Magellan, Northern Light, Infoseek, HotBot, MSN Search und Inktomi gestartet, gekauft, verkauft, geschlossen und zusammengeführt.,
Lycos
Lycos begann als ein Forschungsprojekt. Es wurde 1994 gestartet und wurde 1999 zum beliebtesten Webziel.
Im Gegensatz zu anderen Suchmaschinen war Lycos ein vollwertiges Unternehmen aus dem Tor. Es hat Geld verdient,und es hat so schnell. Der Hauptgrund für seine Beliebtheit als Suchmaschine war der riesige Katalog indizierter Dokumente.
Es indiziert etwa 400.000 Dokumente pro Monat beim Start und Ramped bis zu insgesamt 60.000.0000 Dokumente in weniger als zwei Jahren zu indizieren-mehr indizierte Seiten als jede andere Suchmaschine. Lycos durchlief mehrere Akquisitionen und Verkäufe.,
Als Unternehmen besaß es viele andere Unternehmen und Standorte. Als Suchmaschine existiert sie noch heute.
Excite
Excite begann 1995. Es war die erste Suchmaschine, die Wortbeziehungen und statistische Analysen verwendete, um Suchergebnisse relevanter zu machen.
Heute ist es mehr dafür bekannt, was es nicht getan hat. Im Jahr 1999 hatte die Möglichkeit, Google zu kaufen — zweimal! Zuerst wurde es für eine Million Dollar angeboten. Später wurde der Preis auf nur $750.000 reduziert. Excite lehnte beide Angebote ab.,
AltaVista
Ende 1995 lancierte die Digital Equipment Corporation AltaVista. Obwohl es nicht die erste Suchmaschine war, verbesserte es sich gegenüber seinen Vorgängern und wurde schließlich zu einer der beliebtesten Suchmaschinen seiner Zeit.
AltaVista erlaubte als erstes Suchanfragen in natürlicher Sprache, was bedeutet, dass Benutzer einfach eingeben konnten, wonach sie suchten, anstatt Abfragezeichenfolgen zu verwenden. Es indizierte auch viel mehr vom Web, als die Leute damals wussten.
Schließlich war es eine der ersten Suchmaschinen, die Boolesche Operatoren verwendete., Es wurde schließlich Teil von Yahoo!
Fragen Sie Jeeves
Ask.com begann als Ask Jeeves in 1996. Die Suchmaschine arbeitete auf einer Frage-und-Antwort-Plattform, auf der Benutzer eine Frage in natürlicher Sprache stellen und die Suchmaschine eine Antwort finden konnte.
Einer der Hauptbeiträge von Ask zur Suche ist der eigene Page-Ranking-Algorithmus ExpertRank. ExpertRank arbeitet mit fachspezifischen Themen. Wenn eine Website zu einem bestimmten Thema Backlinks von anderen Websites zu demselben Thema enthält, ist dies relevanter.
Ask hörte schließlich auf, sich auf die Suche zu konzentrieren., Es existiert immer noch als Suchmaschine, aber sein Kernprodukt ist seine durchsuchbare Datenbank mit Fragen, die von Benutzern beantwortet werden.
Bing
Microsofts Bing startete im Jahr 2009, aber es ist nicht wirklich so neu. Bing existierte als MSN Search und Windows Live Search-aus dem Jahr 1998. Die ersten Durchsuchungen erfolgten durch Dritte.
Um 2004 begann Microsoft mit eigenen Suchergebnissen. Dies ermöglichte den späteren Wechsel von MSN Search zu Windows Live Search und schließlich Bing. Obwohl nicht annähernd so beliebt wie Google, hat Bing es geschafft, einen anständigen Teil des Suchmaschinenmarktes zu schnitzen.,
Im selben Jahr, in dem Microsoft in das Suchmaschinengeschäft einstieg (1998), wurde Google gestartet. Es würde bald die Welt der Suche revolutionieren.
PageRank: Eine Revolutionäre Idee
Während es unmöglich ist zu Attribut, Google ‚ s Erfolg mit einer einzigen Faktor, es ist auch schwer zu überschätzen, wie wichtig PageRank wurde von Google Anfang Erfolg. Also, was ist PageRank?
Google verwendet mehrere Algorithmen, um die Reihenfolge zu bestimmen, in der Suchergebnisse angezeigt werden sollen. PageRank war der erste dieser von Google verwendeten Algorithmen., Es bleibt ein wichtiger Teil der Gesamtergebnisranking-Methodik von Google. Es gibt zwei grundlegende Ideen hinter PageRank:
- Wenn viele Websites auf eine Webseite verlinken, deutet dies darauf hin, dass die Webseite nützlich und vertrauenswürdig ist.
- Links von einer nützlichen und vertrauenswürdigen Webseite sind wertvoller und vertrauenswürdiger als Links von einer nicht vertrauenswürdigen Webseite.
Diese beiden Ideen werden kombiniert, um eine Hierarchie der Vertrauenswürdigkeit und Nützlichkeit der Website zu erstellen, die als PageRank bezeichnet wird.
Wie Sie sehen, fließen diese Ideen ineinander., Das Vorhandensein von mehr eingehenden Links bedeutet, dass eine Website vertrauenswürdiger ist und Links von vertrauenswürdigen Websites wertvoller sind als Links von Websites, die nicht viele eingehende Links enthalten.
Was passiert, ist, dass jedem Link von einer Website zur anderen ein bestimmtes Gewicht zugewiesen wird, das in SEO-Kreisen normalerweise als Link-Saft bezeichnet wird. Dieses Gewicht basiert auf dem PageRank der Website, von der der Link stammt, und der Anzahl der ausgehenden Links von der ursprünglichen Website.,
Google addiert den gesamten Link-Saft, der von den ursprünglichen Websites auf die betreffende Webseite fließt, und verwendet diese Informationen, um den PageRank zu bestimmen, der der Webseite zugewiesen werden soll.
PageRank erwies sich als eine großartige Möglichkeit, nützliche Websites zu identifizieren, und die Benutzer erkannten schnell, dass Google-Suchergebnisse nützlicher waren als die von jeder anderen Suchmaschine generierten. Infolgedessen strömten die Nutzer schnell zu Google und andere Suchmaschinen mussten aufholen.,
Bis 2002 war Google im Suchmaschinenmarkt zum Teil dank seiner innovativen PageRank-Technologie und der optimierten Gestaltung der Google-Homepage, die in krassem Gegensatz zu den werbe-und Content-schweren Webportalen von praktisch allen anderen Suchmaschinen stand, in den Vordergrund gerückt.
Suche wächst auf und bekommt einen Job
In den 1990er Jahren war die Investition in die Suche ein spekulatives Unterfangen. Jeder wusste, dass die Suche wertvoll war, aber niemand verdiente wirklich Geld mit der Suche.,
Das hinderte Investoren jedoch nicht daran, riesige Summen in innovative Suchmaschinen zu pumpen, was Suchinvestitionen zu einem bedeutenden Faktor für die Dotcom-Blase machte.
In den späten 1990er Jahren begannen die Bemühungen ernsthaft, die Suche zu monetarisieren.
Suchmaschinen erkannten, dass sie Zugriff auf Webbenutzer hatten, die ihnen genau sagten, was sie wollten. Alles, was blieb, war für Händler, Anzeigen zu schalten, die den Benutzern angezeigt wurden, die nach ihren Produkten und Dienstleistungen suchten.,
Ouvertüre monetarisiert Suche
Open Text war 1996 der erste Versuch, die Suche mit kostenpflichtigen Suchangeboten zu kommerzialisieren. Die Reaktion auf bezahlte Anzeigenplatzierungen war jedoch schnell Verurteilung und die Idee konnte nicht starten.
Zwei Jahre später machte GoTo, das später in Overture umbenannt wurde, einen zweiten Versuch bei bezahlten Suchplatzierungen und das Konzept wurde akzeptiert. Dies war zum großen Teil darauf zurückzuführen, dass das Web zwischen 1996 und 1998 erheblich gereift war und von einer akademischen Plattform zu einer kommerziell unterstützten Plattform überging.,
Kurz nach dem Start Anfang 1998 lieh sich Google die Idee bezahlter Suchplatzierungen von Overture und verwandelte sich schnell von einem kämpfenden Startup in eines der profitabelsten Internetunternehmen.
Wie vorhergesagt, hat Overture Google nicht zu freundlich genommen, um ihre Idee zu kooptieren, und Overture verklagte Google wegen Verletzung ihres patentierten geistigen Eigentums im Jahr 2002.
Yahoo! wurde in der Klage beteiligt, wenn sie Overture im Jahr 2003 gekauft und ging dann den Fall zu regeln. Google erwarb eine unbefristete Lizenz zur Nutzung der Overture-Patente im Austausch für 2.,7 Millionen Aktien von Google Stammaktien.
Werbung in Suchergebnissen ist heute der primäre Finanzierungsmechanismus, der von Suchmaschinen verwendet wird, und generiert einen Jahresumsatz in Milliardenhöhe.
Die moderne Suchmaschinenlandschaft
Der heutige Suchmaschinenmarkt wird von nur vier Wettbewerbern dominiert, deren kombiniertes Suchvolumen rund 98% des gesamten globalen Suchmaschinenmarktes ausmacht.
- Google beherrscht etwa 70% des globalen Suchmaschinenmarktes.
- Bing kommt an zweiter Stelle mit etwas mehr als 10% des Marktes.,
- Baidu liegt mit etwas weniger als 10% des Marktes an dritter Stelle.
- Yahoo! kommt in gebunden für Dritte mit Baidu.
Während andere Suchmaschinen wie AOL und Ask immer noch millionenfach täglich genutzt werden, liegt ihr kombinierter Marktanteil deutlich unter 1% des globalen Suchmaschinenmarktes.
YouTube?!
Eine bemerkenswerte Auslassung aus den meisten Listen der Top-Suchmaschinen ist YouTube., Während YouTube keine Suchmaschine im traditionellen Sinne ist, suchen immer mehr Nutzer YouTube nach Videos, Produktinformationen, Musik, Nachrichten und anderen Themen, die zuvor hauptsächlich über Suchmaschinen gefunden wurden.
Wenn das Suchvolumen von YouTube mit der Liste der Suchmaschinen verglichen wird, ist YouTube im Besitz von Google möglicherweise die zweitgrößte Suchmaschine im Web.
Nur für Ihre Augen
Ein schnell wachsendes Segment des Suchmaschinenmarktes ist das private Suchsegment. Dieses segment besteht aus Suchmaschinen wie DuckDuckGo, Startpage by Ixquick und Qrobe.es.,
Es ist attraktiv für Privatpersonen, die ihre Suchgewohnheiten nicht verfolgen und an Werbetreibende verkaufen. Diese Suchmaschinen verwenden zwar weiterhin ein werbebasiertes Suchmodell, sammeln, speichern oder verkaufen jedoch keine identifizierbaren Benutzerdaten.
Während Duckduckgos aktueller Durchschnitt von rund 10 Millionen Abfragen pro Tag im Vergleich zu den täglich von Google verarbeiteten 3,5 Milliarden Abfragen verblasst, ist dies ein 100-facher Anstieg des gesamten Suchvolumens zwischen 2011 und 2016.,
Search Engine Raffinesse
Der trend in den letzten paar Jahren in der Entwicklung von such-Technologie wurde zu mehr Raffinesse. Beispiele für Innovationen in der Suche seit 2010 sind:
- Schnellere Suchleistung dank automatischer Vervollständigung und sofort generierter Suchergebnisse, eine Innovation namens Instant Search.
- Die Verwendung von Schema.org markup zur Erstellung umfangreicher Suchergebnisse, z. B. Produktbewertungen basierend auf einem 5-Sterne-Bewertungssystem, das direkt auf der Suchergebnisseite angezeigt wird.,
- Zunehmend gezieltes Vorgehen gegen Spam, Vervielfältigung von Inhalten, minderwertige Inhalte und Websites, die Werbung übermäßig nutzen.
- Die Fähigkeit von Suchmaschinen, Einheitenkonvertierungen, Währungsumrechnungen, einfache mathematische Berechnungen, Begriffsdefinitionen, Sprachübersetzungen und ähnliche Aufgaben zu verarbeiten und die Ergebnisse auf der Ergebnisseite der Suchmaschine anzuzeigen.
- Die Anzeige von Public Domain enzyklopädische Informationen direkt in den Suchergebnissen, eine Funktion namens Knowledge Graph.,
Offensichtlich sind führende Suchmaschinen nicht mehr zufrieden damit, Ihnen einfach mitzuteilen, wo Sie die gesuchten Informationen finden können.
Sie stellen diese Informationen zunehmend selbst bereit und liefern sie direkt an Benutzer, während sie gleichzeitig zahlenden Werbetreibenden zusätzliche Impressionen liefern.
Die Zukunft der Suche im Web
Wo die Suche geleitet wird, ist jedermanns Vermutung., Private Search, ein klarer Pushback gegen die Werbe-und Tracking-Praktiken von Branchenführern wie Google, explodiert im Wachstum, macht aber immer noch nur einen winzigen Bruchteil des Gesamtmarktes aus.
Google hingegen hat sich zu einem Unternehmen im Wert von Hunderten Milliarden Dollar entwickelt und allein 2015 einen Umsatz von fast 75 Milliarden US-Dollar erzielt.
Gleichzeitig wächst die Anzahl der mit dem Internet verbundenen Geräte, Haushalte und Benutzer weiter und die Suche stellt den grundlegenden Mechanismus dar, mit dem Informationen im Internet gefunden werden.,
Die Zukunft der Suche mag zwar jedermanns Vermutung sein, aber eines können wir sicher sein: Die Suche wird nicht so bald verschwinden.