REP


Robots Exclusion Protocol

Roboter-Ausschluss-Protokoll

Mit Robots sind hier Suchprogramme gemeint, die eigenständig die WWW-Seiten des Internets durchsuchen und indizieren können. Dabei belasten sie natürlich den abgefragten Server. Besonders außer Kontrolle geratene Robots können beträchtlichen Ärger verursachen. Außerdem sind nicht alle ins Internet gestellten Informationen wirklich für die breite Allgemeinheit bestimmt. Daher hat sich mit REP eine Art Quasistandard herausgebildet, mit dem Robots von eigenen Seiten ferngehalten werden können. Die Programmierer der Roboter müssen diese freiwillige Vereinbarung unterstützen. Will man den REP benutzen, so legt man in das Home-Verzeichnis des HTML-Servers eine Datei robots.txt. In dieser wird nach dem REP festgelegt, was ein Roboter auf der jeweiligen Website darf und was nicht.

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Sicherer Umgang mit privilegierten Benutzerkonten [22.12.2014]

Datenmissbrauch oder -diebstahl ist längst kein Einzelfall mehr und für Unternehmen in der Regel mit erheblichen Imageschäden oder finanziellen Verlusten verbunden. Dabei hat sich gezeigt, dass sowohl Cyber-Attacken als auch Insider-Angriffe häufig auf eine missbräuchliche Nutzung privilegierter Benutzerkonten zurückzuführen sind. Ohne eine strikte Vergabe und Kontrolle von IT-Berechtigungen sind Unternehmen hier potenziellen Angreifern schutzlos ausgeliefert. [mehr]

Grundlagen

Public Key-Infrastrukturen [8.12.2014]

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form. [mehr]