Unicode


Unicode ist ein internationaler Standard mit dem angestrebt wird, für jedes sinntragende Zeichen aller bekannter Schriftsysteme einen einheitlichen digitalen Code festzulegen. Ziel ist die Beseitigung unterschiedlicher, inkompatibler Codierungen für verschiedene Sprach- und Kulturkreise. Dazu wird Unicode laufend um die Zeichen weiterer Schriftsysteme erweitert.

Von der ISO ist der Unicode-Zeichensatz im Standard 10646 normiert. Er wird dort Universal Character Set (UCS) genannt.

Frühere Zeichencodierungssysteme wie ASCII oder EBCDIC stellen ein Zeichen mit sieben oder acht Bit dar. Der damit darstellbare Zeichenmenge ist viel zu klein, um dem Unicode-Anspruch einer internationalen Vereinheitlichung gerecht werden zu können. Deshalb wurd Unicode ursprünglich als ein System entworfen, das pro Zeichen fest zwei Byte verwendet (UTF-16). Doch einerseits reichte selbst dieser Wertevorrat bald nicht mehr aus und andererseits wurde es gerade in Westeuropa und Amerika als Verschwendung angesehen, für jedes Zeichen jetzt den doppelten Speicherbedarf zu brauchen, auch wenn eigentlich der ASCII-Wertevorrat reichen würde. Daher wurde der Wertevorrat weiter erweitert und es wurden verschiedene Codierungsformate entwickelt, die Unicode Transformation Format (UTF) genannt werden und den unterschiedlichen Anforderungen Rechnung tragen. Die wichtigsten sind UTF-8 und UTF-16, weitere UTF-32, Punycode, UTF-EBCDIC, CESU-8 und GB18030.

Siehe auch:
ASCII
Code

0-9|A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|Z|alle

Suche im Lexikon nach im

 

Fachartikel

Infrastrukturdesign für Big Data und Echtzeitanalysen (2) [22.03.2017]

Big Data und das Internet der Dinge sind mehr als nur Modeworte. Sie beschreiben komplexe Computertrends, die klassische Analyseplattformen wie Datenlager sowohl verdrängen als auch erweitern. Die damit verbundenen Ansprüche hinsichtlich Performance und Verfügbarkeit erhöhen den Druck auf die Storage-Systeme. Wie unser Beitrag zeigt, ist es selbst mit All-Flash-Arrays nicht immer einfach, die Anforderungen an Dichte und Kosten zu erfüllen. Im zweiten Teil des Fachartikels gehen wir konkret auf moderne Speicherarchitekturen ein, die im Zeitalter großer Datenmenge für Performance und Effizienz sorgen. Dabei werfen wir einen besonderen Blick auf Flash-Speicher und den aktuellen Technologiestand. [mehr]

Grundlagen

Speicherreplikation in Windows Server [12.01.2017]

Eine der wichtigsten neuen Funktionen in Windows Server 2016 ist die Speicherreplikation, von Microsoft als Storage Replica bezeichnet. Mit dieser Technologie lassen sich ganze Festplatten blockbasiert zwischen Servern replizieren, auch zwischen verschiedenen Rechenzentren sowie der Cloud und einem Rechenzentrum. Wir erklären, was Storage Replica zu bieten hat und wie sie funktioniert. [mehr]