REP


Robots Exclusion Protocol

Roboter-Ausschluss-Protokoll

Mit Robots sind hier Suchprogramme gemeint, die eigenständig die WWW-Seiten des Internets durchsuchen und indizieren können. Dabei belasten sie natürlich den abgefragten Server. Besonders außer Kontrolle geratene Robots können beträchtlichen Ärger verursachen. Außerdem sind nicht alle ins Internet gestellten Informationen wirklich für die breite Allgemeinheit bestimmt. Daher hat sich mit REP eine Art Quasistandard herausgebildet, mit dem Robots von eigenen Seiten ferngehalten werden können. Die Programmierer der Roboter müssen diese freiwillige Vereinbarung unterstützen. Will man den REP benutzen, so legt man in das Home-Verzeichnis des HTML-Servers eine Datei robots.txt. In dieser wird nach dem REP festgelegt, was ein Roboter auf der jeweiligen Website darf und was nicht.

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Im Test: macmon NAC 4.2 [30.03.2015]

Wer heutzutage ein Gerät ans Netzwerk anklemmen will, hat nicht viel mehr zu tun als ein Kabel einzustecken oder eventuell einen WLAN-Schlüssel einzutippen und daraufhin eine TCP/IP-Verbindung mit IP-Lease zu erhalten. Dass alles so schön einfach ist, mag durchaus wünschenswert sein, da IT-Support-Einsätze zurückgehen. Wer jedoch die Sicherheit seiner IT-Systeme gewährleisten will, der kann es sich nicht leisten, dass unbekannte Computer sich mit dem Netzwerk verbinden oder bekannte Computer in Netzwerkbereiche vordringen, die für sie tabu sind. Unser Test zeigt, inwieweit macmon NAC 4.2 den Administrator bei dieser Aufgabe unterstützt. [mehr]

Grundlagen

Log-Management [12.03.2015]

Mit Virtualisierung und Cloud-Umgebungen wächst üblicherweise die Zahl der Server und Dienste. Wenn alle diese ihre Aktivitäten protokollieren, sieht sich der Administrator einer immer größeren Menge an Log Files gegenüber. Log-Management hilft hierbei den Überblick zu behalten.
 [mehr]