REP


Robots Exclusion Protocol

Roboter-Ausschluss-Protokoll

Mit Robots sind hier Suchprogramme gemeint, die eigenständig die WWW-Seiten des Internets durchsuchen und indizieren können. Dabei belasten sie natürlich den abgefragten Server. Besonders außer Kontrolle geratene Robots können beträchtlichen Ärger verursachen. Außerdem sind nicht alle ins Internet gestellten Informationen wirklich für die breite Allgemeinheit bestimmt. Daher hat sich mit REP eine Art Quasistandard herausgebildet, mit dem Robots von eigenen Seiten ferngehalten werden können. Die Programmierer der Roboter müssen diese freiwillige Vereinbarung unterstützen. Will man den REP benutzen, so legt man in das Home-Verzeichnis des HTML-Servers eine Datei robots.txt. In dieser wird nach dem REP festgelegt, was ein Roboter auf der jeweiligen Website darf und was nicht.

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Im Test: Colasoft Capsa 7 Professional [28.07.2014]

Netzwerkprobleme bereiten Administratoren immer wieder Kopfschmerzen. Denn sie sind oft schwer zu lokalisieren sowie nachzuvollziehen. Ein umfassendes Werkzeug zur Netzwerkanalyse möchte Colasoft mit Capsa Professional anbieten. Es verspricht eine einfache Bedienung sowie eine gute visuelle Darstellung, da ein Allround-Administrator in der Regel keine Zeit für eine umfangreiche Einarbeitung in eher gelegentlich genutzte Tools hat. IT-Administrator war vom Funktionsumfang überrascht. [mehr]

Grundlagen

Zutrittskontrollverfahren im Vergleich [30.05.2014]

Ein Rechenzentrum stellt in der Regel für das Unternehmen eine wichtige und zentrale Funktionseinheit mit besonderen Schutzanforderungen dar. Aber auch das Gebäude, die Büros und sonstige zur Einrichtungen gehörende Gebäudeteile sollten vor unbefugtem Zutritt geschützt werden. Dieser Beitrag vergleicht die verschiedenen Zutrittskontrollverfahren. [mehr]