Spider


Spinne

Im Internet sind Spinnen Suchprogramme, die sich durch die Links des WWW hangeln, um Informationen für Suchmaschinen zu finden, aufzubereiten und mit Hilfe eines Indizierers in Datenbanken zu speichern. Dort können die Inhalte dann über die Frontends der Suchmaschinen abgefragt werden. Andere Bezeichnungen für solche Programme sind Robot (kurz Bot), Worm oder Agent. Da ein gutes Ranking einer Web-Seite in verschiedenen Suchmaschinen eine hohe Bedeutung für die Sichtbarkeit der Seite hat, gibt es mehr und mehr Techniken wie Cloaking, die versuchen, die Arbeit der Spider zu manipulieren.

Siehe auch:
Deepcrawler
Freshbot
REP
Spam-Bot
SRMP

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Betriebssicherheit im Rechenzentrum prüfen und bewerten [18.04.2018]

Performanz und Zuverlässigkeit der IT-Infrastruktur wird für Unternehmen im Rahmen der digitalen Transformation zu Herausforderung und Erfolgsfaktor zugleich. Doch wie lässt sich die physische Ausfallsicherheit eines Rechenzentrums ermitteln und bewerten? Im Fachartikel erläutern wir, wie Unternehmen den Reifegrad ihrer digitalen Schaltzentrale ermitteln und welche Maßstäbe etwa TÜV Rheinland bei der Zertifizierung "Betriebssicheres Rechenzentrum" anlegt. [mehr]

Grundlagen

Distributed File System Replication [1.12.2017]

Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Doch ganz ohne Hürden kommt die Technologie nicht daher. [mehr]