Suchmaschine


WWW-Tool, mit dem man remote über Internet nach Informationen suchen kann. Es gibt sehr verschiedene Suchmaschinen, auf denen man nach Schlüsselwörtern, URLs HTML-Header-Infos suchen oder auch Volltextsuchen durchführen kann. Inzwischen sind auch Meta-Suchmaschinen implementiert, die eine Anfrage gleichzeitig an eine ganze Reihe von Suchmaschinen weitergeben und die Informationen in einem einheitlichen Format zurückliefern.

Die Benutzung der meisten Suchmaschinen ist kostenlos und wird über Online-Werbung finanziert.

In der Regel sammeln die Suchmaschinen die Daten über so genannte WWW-Worms (Robots, Spider). Dies sind Programme, die automatisch die in HTML-Dokumenten vorhandenen Links verfolgen und die Informationen über die Dokumente in Datenbanken indizieren. Um dem Ansturm aus dem Internet gerecht zu werden, laufen die meisten Suchmaschinen verteilt auf einer größeren Anzahl vernetzter UNIX-Workstations.

Viele Suchangebote im Internet haben sich von reinen Suchmaschinen zu Webportalen mit umfangreichen Informationsangeboten gewandelt.

Immer wieder umkämpft und umstritten sind die Ranking-Verfahren der Suchmaschinen, mit denen die Reihenfolge der Suchergebnisse bestimmt wird.

Siehe auch:
Alta Vista
Bot
Cloaking
CPC-Suchmaschine
Crawler
Deepcrawler
Dejanews
Directory
dmoz
Everflux
Excite
Freshbot
Google
Google Groups
Hotbot
Information Retrieval
Inktomi
Keyword
Kolibri
Lycos
Meta Crawler
Meta-Suchmaschine
Online-Werbung
Open Directory Project
Open Text
Ranking
results_page
Schlüsselwort
Schlüsselwortkauf
SERP
Spamming
Spider
Stemming
submission
Submission Service
Suchmaschinenmarketing
Suchmaschinenoptimierer
Yahoo

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Anwenderbericht: Storage-Management im Kreativsektor [18.10.2017]

Hogarth Worldwide ist eine auf Marketingimplementierung spezialisierte Agentur mit Niederlassungen an über 20 Standorten. Allein in den Londoner Büros wird Videomaterial in einer Größe von rund 1,5 PByte gespeichert. Dieses Volumen soll durch höhere Auflösungen und Frame-Raten in Zukunft noch weiter ansteigen. Unser Anwenderbericht zeigt, wie sich die deutlich gestiegene Komplexität beim Storage-Management nicht zuletzt durch die getrennte Skalierung von Performance und Kapazität meistern ließ. [mehr]

Grundlagen

Browser-Isolation mit Adaptive-Clientless-Rendering [27.06.2017]

Web-Browser gehören heute zu den wichtigsten Anwendungen in Unternehmen - damit allerdings auch zu den bedeutendsten Schwachstellen für Angriffe. Das simple Laden einer bösartigen Web-Site reicht aus, um das Endgerät des Nutzers zu kompromittieren und kann zur Installation von Malware, Datendiebstahl oder der Penetration von Firmennetzen führen. Neue Isolationstechniken versprechen Abhilfe. Dieser Grundlagen-Artikel erläutert, wie die Browser-Isolation mit Adaptive-Clientless-Rendering funktioniert. [mehr]