Token (Übersetzerbau)

Zeichenkette, der von einer formalen Grammatik ein Typ zugewiesen wird Aus Wikipedia, der freien Enzyklopädie

Ein Token (Art.: „das“; Pl.: ‚Tokens‘) ist eine Zeichenkette, der von einer formalen Grammatik ein Typ zugewiesen wird. Das Token bildet die lexikalische Grundeinheit für den Parser. Ein Token entspricht in der Grammatik des Parsers einem Terminalsymbol.

Im trivialen Fall sind Tokens die Zeichen der ursprünglichen Eingabe: Zum Beispiel der Buchstabe A wird als Token vom Typ A erkannt. Mehrere Zeichen können im Zuge einer lexikalischen Analyse zu Tokens zusammengefasst werden. Die einem Token zu Grunde liegende Zeichenkette heißt Lexem. Beispiele:

Weitere Informationen Lexem, Typ ...
Token
LexemTyp
123Zahl
foobarBezeichner
beginSchlüsselwort
Schließen
Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.