Top Qs
Chronologie
Chat
Contexte

Normalisation Unicode

De Wikipédia, l'encyclopédie libre

Remove ads

La normalisation Unicode est une normalisation de texte qui transforme des caractères ou séquences de caractères équivalents en représentation fondamentale afin que celle-ci puisse être facilement comparée.

La décomposition canonique peut être utilisée dans l’échange normalisé de textes. Elle permet d’effectuer une comparaison binaire tout en conservant une équivalence canonique avec le texte non normalisé d’origine.

Remove ads

NFD

Les caractères sont décomposés par équivalence canonique et réordonnés.

Davantage d’informations chaîne, caractères ...
Remove ads

NFC

Les caractères sont décomposés par équivalence canonique, réordonnés, et composés par équivalence canonique.

Davantage d’informations chaîne, caractères ...
Remove ads

NFKD

Les caractères sont décomposés par équivalence canonique et de compatibilité, et sont réordonnés.

Davantage d’informations chaîne, caractères ...

NFKC

Les caractères sont décomposés par équivalence canonique et de compatibilité, sont réordonnés et sont composés par équivalence canonique.

Davantage d’informations chaîne, caractères ...
Remove ads

Annexes

Articles connexes

  • Unicode
  • Équivalence Unicode
  • L’outil uconv (ICU) permet de normaliser du texte, par exemple « uconv -x '::nfkd;' » applique la normalisation NFKD.

Liens externes

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads