REP


Robots Exclusion Protocol

Roboter-Ausschluss-Protokoll

Mit Robots sind hier Suchprogramme gemeint, die eigenständig die WWW-Seiten des Internets durchsuchen und indizieren können. Dabei belasten sie natürlich den abgefragten Server. Besonders außer Kontrolle geratene Robots können beträchtlichen Ärger verursachen. Außerdem sind nicht alle ins Internet gestellten Informationen wirklich für die breite Allgemeinheit bestimmt. Daher hat sich mit REP eine Art Quasistandard herausgebildet, mit dem Robots von eigenen Seiten ferngehalten werden können. Die Programmierer der Roboter müssen diese freiwillige Vereinbarung unterstützen. Will man den REP benutzen, so legt man in das Home-Verzeichnis des HTML-Servers eine Datei robots.txt. In dieser wird nach dem REP festgelegt, was ein Roboter auf der jeweiligen Website darf und was nicht.

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

IT-Projekte mit SharePoint-Mitteln meistern [29.10.2014]

Dass IT-Projekte zeitlich begrenzte Unternehmungen sind, macht sie besonders anfällig für Ineffizienzen. Deshalb sind schlanke Informations- und Kommunikationsstrukturen sowie permanente Auswertungsmöglichkeiten notwendig. Der Online-Artikel beschäftigt sich mit der Frage, inwieweit Microsoft SharePoint dabei helfen kann, gerade bei Projekten administrative Tätigkeiten auf ein Minimum zu reduzieren. Im Fachbeitrag wagen wir einen Streifzug durch administrative Notwendigkeiten des Projektgeschäftes und geben einen Überblick zu möglichen Lösungsansätzen. [mehr]

Grundlagen

Verteilter Storage [29.10.2014]

Für Datenmengen im Petabyte-Bereich müssen neue Lösungen her. Ein Ansatz sind verteilte Dateisysteme, die hohe Kapazität, Redundanz und Performance vereinen. Hierbei gibt es einige Ansätze in der Open-Source-Welt wie auch als kommerzielle Produkte.
 [mehr]