Fwd: Codepage-Methode vs. UTF8

Hallo, Herr Büchel, eine schriftliche Zusammenfassung der Codepage-Methode ist noch in Arbeit. Hier die Grundlagen für neue Erkenntnisse: _____________________________ _______________________________ "Seit Einführung der Unicode-Tabelle ist die Zeichencodierung (codepage, charset) der wichtigste Schritt in der Informatik. Die Codierung geschieht grundsätzlich nach den Regeln des Unicode Transformation Formats (UTF). Die Zeichen werden mit ihrem <point> in Bytes aufgerufen [#1]. Die gesamte Unicode-Tabelle stellt eine einheitliche Codepage dar. Diese Erkenntnis ist jedoch neu. Für eine Codepage sind zwei Merkmale erforderlich: „skalierbarer Sachverhalt“ „sachbezogenes Ordnungssystem“ Für das gesamte Unicode-Verfahren sind diese Voraussetzungen erfüllt. Die Zeichen aller Sprachen sind in einer skalierbaren Reihenfolge geordnet und werden in einem sachgerechten Ordnungssystem aufgerufen (Zahlensysteme zur Basis 10, 16). Allerdings gilt das nur für definierte Codeages und die dort erfassten Unicode-Zeichen ((z.B: ISO/IEC 8859-1/www. cscvt.de). n diesem Bereich zeigt die Informatik eine essenzielle Lücke: Zahlensysteme oberhalb der Basis 16 und darauf aufbauende Schritte werden bisher nicht benutzt. Das Zahlensystem zur Basis 4096 ist von besonderer Bedeutung. Es bildet die Grundlage für eine neue Zeichenkodierung mit einem String von 4096 Zeichen: Zahlenstring: 123456789Abcdefghijklmno . . . . . . . . . .. . . . . . . . . . . . . .ꮌꮍꮎꮏꮐꮑꮒꮓꮔꮕꮖꮗꮘꮙꮚꮛꮜ Die Zeichen des Strings als<index>Ziffern ersetzen die bisherigen <point>Zahlen. Für die Kodierung von Unicode-Zeichen sind nur 1 oder 2 Byte (16 bit) erforderlich. Von <point>256 bis <point>65535 genügen zweistellige <index>Ziffern. Mit 3 Bytes (24 bit) werden die <points> von 65536 bis 16777215 angesprochen. Die Position der Ziffer im String stellt ihren <index> Wert dar. Die Kodierung führt zu identischen Binärziffern wie <point>Zahlen.” _____________________________________________________________
participants (1)
-
Erich Schnoor