Top Qs
Chronologie
Chat
Contexte
Normalisation Unicode
De Wikipédia, l'encyclopédie libre
Remove ads
La normalisation Unicode est une normalisation de texte qui transforme des caractères ou séquences de caractères équivalents en représentation fondamentale afin que celle-ci puisse être facilement comparée.
La décomposition canonique peut être utilisée dans l’échange normalisé de textes. Elle permet d’effectuer une comparaison binaire tout en conservant une équivalence canonique avec le texte non normalisé d’origine.
Remove ads
NFD
Les caractères sont décomposés par équivalence canonique et réordonnés.
Remove ads
NFC
Les caractères sont décomposés par équivalence canonique, réordonnés, et composés par équivalence canonique.
Remove ads
NFKD
Les caractères sont décomposés par équivalence canonique et de compatibilité, et sont réordonnés.
NFKC
Les caractères sont décomposés par équivalence canonique et de compatibilité, sont réordonnés et sont composés par équivalence canonique.
Remove ads
Annexes
Articles connexes
- Unicode
- Équivalence Unicode
- L’outil uconv (ICU) permet de normaliser du texte, par exemple « uconv -x '::nfkd;' » applique la normalisation NFKD.
Liens externes
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads