Suchmaschine


WWW-Tool, mit dem man remote über Internet nach Informationen suchen kann. Es gibt sehr verschiedene Suchmaschinen, auf denen man nach Schlüsselwörtern, URLs HTML-Header-Infos suchen oder auch Volltextsuchen durchführen kann. Inzwischen sind auch Meta-Suchmaschinen implementiert, die eine Anfrage gleichzeitig an eine ganze Reihe von Suchmaschinen weitergeben und die Informationen in einem einheitlichen Format zurückliefern.

Die Benutzung der meisten Suchmaschinen ist kostenlos und wird über Online-Werbung finanziert.

In der Regel sammeln die Suchmaschinen die Daten über so genannte WWW-Worms (Robots, Spider). Dies sind Programme, die automatisch die in HTML-Dokumenten vorhandenen Links verfolgen und die Informationen über die Dokumente in Datenbanken indizieren. Um dem Ansturm aus dem Internet gerecht zu werden, laufen die meisten Suchmaschinen verteilt auf einer größeren Anzahl vernetzter UNIX-Workstations.

Viele Suchangebote im Internet haben sich von reinen Suchmaschinen zu Webportalen mit umfangreichen Informationsangeboten gewandelt.

Immer wieder umkämpft und umstritten sind die Ranking-Verfahren der Suchmaschinen, mit denen die Reihenfolge der Suchergebnisse bestimmt wird.

Siehe auch:
Alta Vista
Bot
Cloaking
CPC-Suchmaschine
Crawler
Deepcrawler
Dejanews
Directory
dmoz
Everflux
Excite
Freshbot
Google
Google Groups
Hotbot
Information Retrieval
Inktomi
Keyword
Kolibri
Lycos
Meta Crawler
Meta-Suchmaschine
Online-Werbung
Open Directory Project
Open Text
Ranking
results_page
Schlüsselwort
Schlüsselwortkauf
SERP
Spamming
Spider
Stemming
submission
Submission Service
Suchmaschinenmarketing
Suchmaschinenoptimierer
Yahoo

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Flash-basierte Exploits analysieren und verstehen [16.08.2017]

Browser-Plug-ins sind immer noch ein attraktives Ziel für Angreifer. In den letzten Jahren war das beliebteste Ziel Flash. Allein 2016 fanden sich mehr als 250 sogenannte Common Vulnerabilities and Exposures. Angriffe auf Flash sind Bestandteil von fast jedem Exploit Kit. Im Beitrag stellen wir dar, wie sie bei der Analyse von Exploits mit Debugging Tools schneller und einfacher an Informationen wie ROP Chains, Shellcode und Payload – also die interessanten Bestandteile des Exploits – kommen. [mehr]

Grundlagen

Browser-Isolation mit Adaptive-Clientless-Rendering [27.06.2017]

Web-Browser gehören heute zu den wichtigsten Anwendungen in Unternehmen - damit allerdings auch zu den bedeutendsten Schwachstellen für Angriffe. Das simple Laden einer bösartigen Web-Site reicht aus, um das Endgerät des Nutzers zu kompromittieren und kann zur Installation von Malware, Datendiebstahl oder der Penetration von Firmennetzen führen. Neue Isolationstechniken versprechen Abhilfe. Dieser Grundlagen-Artikel erläutert, wie die Browser-Isolation mit Adaptive-Clientless-Rendering funktioniert. [mehr]