Unicode


Unicode ist ein internationaler Standard mit dem angestrebt wird, für jedes sinntragende Zeichen aller bekannter Schriftsysteme einen einheitlichen digitalen Code festzulegen. Ziel ist die Beseitigung unterschiedlicher, inkompatibler Codierungen für verschiedene Sprach- und Kulturkreise. Dazu wird Unicode laufend um die Zeichen weiterer Schriftsysteme erweitert.

Von der ISO ist der Unicode-Zeichensatz im Standard 10646 normiert. Er wird dort Universal Character Set (UCS) genannt.

Frühere Zeichencodierungssysteme wie ASCII oder EBCDIC stellen ein Zeichen mit sieben oder acht Bit dar. Der damit darstellbare Zeichenmenge ist viel zu klein, um dem Unicode-Anspruch einer internationalen Vereinheitlichung gerecht werden zu können. Deshalb wurd Unicode ursprünglich als ein System entworfen, das pro Zeichen fest zwei Byte verwendet (UTF-16). Doch einerseits reichte selbst dieser Wertevorrat bald nicht mehr aus und andererseits wurde es gerade in Westeuropa und Amerika als Verschwendung angesehen, für jedes Zeichen jetzt den doppelten Speicherbedarf zu brauchen, auch wenn eigentlich der ASCII-Wertevorrat reichen würde. Daher wurde der Wertevorrat weiter erweitert und es wurden verschiedene Codierungsformate entwickelt, die Unicode Transformation Format (UTF) genannt werden und den unterschiedlichen Anforderungen Rechnung tragen. Die wichtigsten sind UTF-8 und UTF-16, weitere UTF-32, Punycode, UTF-EBCDIC, CESU-8 und GB18030.

Siehe auch:
ASCII
Code

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Verkehrsmonitoring in geswitchten Netzumgebungen (2) [11.12.2017]

Je komplexer Netzwerke werden, desto wichtiger wird ein detaillierter Einblick in die übermittelten Daten – auch aus Sicherheitsgründen. Ein Verkehrsmonitoring in modernen Highspeed-Netzwerken auf Basis von Switchen und Routern ist mit den gängigen Technologien nicht mehr zu leisten. Die Konsequenz: Viele Netzverbindungen werden als Black Box betrieben. Daher ist für ein kostengünstiges Management aller Netzressourcen eine Monitoring-Technologie notwendig. [mehr]

Grundlagen

Distributed File System Replication [1.12.2017]

Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Die Distributed File System Replication ist seit vielen Server-Versionen ein probates Mittel, um freigegebene Dateibestände hochverfügbar zu machen oder bandbreitenschonend zwischen Standorten zu replizieren. Doch ganz ohne Hürden kommt die Technologie nicht daher. [mehr]