Unicode


Unicode ist ein internationaler Standard mit dem angestrebt wird, für jedes sinntragende Zeichen aller bekannter Schriftsysteme einen einheitlichen digitalen Code festzulegen. Ziel ist die Beseitigung unterschiedlicher, inkompatibler Codierungen für verschiedene Sprach- und Kulturkreise. Dazu wird Unicode laufend um die Zeichen weiterer Schriftsysteme erweitert.

Von der ISO ist der Unicode-Zeichensatz im Standard 10646 normiert. Er wird dort Universal Character Set (UCS) genannt.

Frühere Zeichencodierungssysteme wie ASCII oder EBCDIC stellen ein Zeichen mit sieben oder acht Bit dar. Der damit darstellbare Zeichenmenge ist viel zu klein, um dem Unicode-Anspruch einer internationalen Vereinheitlichung gerecht werden zu können. Deshalb wurd Unicode ursprünglich als ein System entworfen, das pro Zeichen fest zwei Byte verwendet (UTF-16). Doch einerseits reichte selbst dieser Wertevorrat bald nicht mehr aus und andererseits wurde es gerade in Westeuropa und Amerika als Verschwendung angesehen, für jedes Zeichen jetzt den doppelten Speicherbedarf zu brauchen, auch wenn eigentlich der ASCII-Wertevorrat reichen würde. Daher wurde der Wertevorrat weiter erweitert und es wurden verschiedene Codierungsformate entwickelt, die Unicode Transformation Format (UTF) genannt werden und den unterschiedlichen Anforderungen Rechnung tragen. Die wichtigsten sind UTF-8 und UTF-16, weitere UTF-32, Punycode, UTF-EBCDIC, CESU-8 und GB18030.

Siehe auch:
ASCII
Code

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Zuverlässige Speicherleistung für das Internet der Dinge [4.05.2016]

Das Internet of Things ist einer der größten Wachstumsbereiche weltweit. Die entscheidenden Entwicklungen finden dabei oft in Industrie und Landwirtschaft statt. Beim IoT der Industrie sind die Leistungsanforderungen besonders hoch. Diese einzuhalten, wird zur Mammutaufgabe für die Hersteller. Anders als im Consumer-Markt sollen die Produkte nicht kleiner und schneller werden, sondern robuster, zuverlässiger und beständiger sowie zudem eine hohe Sicherheit gewährleisten. Unser Artikel beschreibt, warum das besonders im Storage-Bereich gilt. [mehr]

Grundlagen

Netzwerkanalyse mit SPANs und TAPs [8.02.2016]

Ein klassischer Protokoll-Analysator wie etwa Wireshark arbeitet als Software auf einem PC und ermittelt im Netzwerk relevante Probleme, Fehler und Ereignisse. Darüber hinaus tragen diese Werkzeuge zur Ermittlung der Ursachen einer schlechten Netzwerk-Performance bei, indem sie die individuellen Protokollinformationen und die zugehörigen Netzaktivitäten darstellen. Hierfür müssen die Daten in den Netzwerken erfasst werden. Dank SPANs und TAPs kein Problem. [mehr]