Ein Zeichencode (oder: die Zeichencodierung) beschreibt die binäre Speicherung von Zeichen (character
) fest.
Dazu legt man für jedes Schriftzeichen einen eindeutigen Binärcode fest.
Quelle: praxistipps-images.chip.de
Im ASCII-Zeichencode wird dem Buchstaben A der hexadezimale Code 4116 zugewiesen. Dies entspricht
Der ASCII-Code verwendet 7 Bits und umfasst 128 Buchstaben, Ziffern und Symbole der amerikanischen Tastatur.
Da der ASCII-Code keine Umlaute (ä, é, …) und nur die Währungssymbole für $ und £ enthält, war er für den Rest der Welt unzureichend. Daher wurden verschiedene Erweiterungen (sogenannte Codepages) für unterschiedliche Sprachräume entwickelt. Diese Erweiterungen umfassen 256 Zeichen, wobei die ersten 128 Zeichen mit dem ASCII-Code übereinstimmen.
Für westeuropäische Sprachen ist die Codepage 850 bzw. ISO 8859-1 relevant.
Unicode ist ein internationaler Standard mit dem Ziel, jedem Schriftzeichen der Welt einen eindeutigen Code zuzuweisen. Dadurch sollen unterschiedliche, inkompatible Zeichencodierungen abgeschafft werden.
Die Zeichencodierung im Computer wird in verschiedenen Unicode Transformation Format (kurz UTF) festgelegt.