Spider


Spinne

Im Internet sind Spinnen Suchprogramme, die sich durch die Links des WWW hangeln, um Informationen für Suchmaschinen zu finden, aufzubereiten und mit Hilfe eines Indizierers in Datenbanken zu speichern. Dort können die Inhalte dann über die Frontends der Suchmaschinen abgefragt werden. Andere Bezeichnungen für solche Programme sind Robot (kurz Bot), Worm oder Agent. Da ein gutes Ranking einer Web-Seite in verschiedenen Suchmaschinen eine hohe Bedeutung für die Sichtbarkeit der Seite hat, gibt es mehr und mehr Techniken wie Cloaking, die versuchen, die Arbeit der Spider zu manipulieren.

Siehe auch:
Deepcrawler
Freshbot
REP
Spam-Bot
SRMP

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Verkehrsmonitoring in geswitchten Netzumgebungen (2) [11.12.2017]

Je komplexer Netzwerke werden, desto wichtiger wird ein detaillierter Einblick in die übermittelten Daten – auch aus Sicherheitsgründen. Ein Verkehrsmonitoring in modernen Highspeed-Netzwerken auf Basis von Switchen und Routern ist mit den gängigen Technologien nicht mehr zu leisten. Die Konsequenz: Viele Netzverbindungen werden als Black Box betrieben. Daher ist für ein kostengünstiges Management aller Netzressourcen eine Monitoring-Technologie notwendig. [mehr]

Grundlagen

Distributed File System Replication [1.12.2017]

Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Doch ganz ohne Hürden kommt die Technologie nicht daher. [mehr]