Suchmaschine


WWW-Tool, mit dem man remote über Internet nach Informationen suchen kann. Es gibt sehr verschiedene Suchmaschinen, auf denen man nach Schlüsselwörtern, URLs HTML-Header-Infos suchen oder auch Volltextsuchen durchführen kann. Inzwischen sind auch Meta-Suchmaschinen implementiert, die eine Anfrage gleichzeitig an eine ganze Reihe von Suchmaschinen weitergeben und die Informationen in einem einheitlichen Format zurückliefern.

Die Benutzung der meisten Suchmaschinen ist kostenlos und wird über Online-Werbung finanziert.

In der Regel sammeln die Suchmaschinen die Daten über so genannte WWW-Worms (Robots, Spider). Dies sind Programme, die automatisch die in HTML-Dokumenten vorhandenen Links verfolgen und die Informationen über die Dokumente in Datenbanken indizieren. Um dem Ansturm aus dem Internet gerecht zu werden, laufen die meisten Suchmaschinen verteilt auf einer größeren Anzahl vernetzter UNIX-Workstations.

Viele Suchangebote im Internet haben sich von reinen Suchmaschinen zu Webportalen mit umfangreichen Informationsangeboten gewandelt.

Immer wieder umkämpft und umstritten sind die Ranking-Verfahren der Suchmaschinen, mit denen die Reihenfolge der Suchergebnisse bestimmt wird.

Siehe auch:
Alta Vista
Bot
Cloaking
CPC-Suchmaschine
Crawler
Deepcrawler
Dejanews
Directory
dmoz
Everflux
Excite
Freshbot
Google
Google Groups
Hotbot
Information Retrieval
Inktomi
Keyword
Kolibri
Lycos
Meta Crawler
Meta-Suchmaschine
Online-Werbung
Open Directory Project
Open Text
Ranking
results_page
Schlüsselwort
Schlüsselwortkauf
SERP
Spamming
Spider
Stemming
submission
Submission Service
Suchmaschinenmarketing
Suchmaschinenoptimierer
Yahoo

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Verkehrsmonitoring in geswitchten Netzumgebungen (2) [11.12.2017]

Je komplexer Netzwerke werden, desto wichtiger wird ein detaillierter Einblick in die übermittelten Daten – auch aus Sicherheitsgründen. Ein Verkehrsmonitoring in modernen Highspeed-Netzwerken auf Basis von Switchen und Routern ist mit den gängigen Technologien nicht mehr zu leisten. Die Konsequenz: Viele Netzverbindungen werden als Black Box betrieben. Daher ist für ein kostengünstiges Management aller Netzressourcen eine Monitoring-Technologie notwendig. [mehr]

Grundlagen

Distributed File System Replication [1.12.2017]

Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Doch ganz ohne Hürden kommt die Technologie nicht daher. [mehr]