Loading AI tools
klassifiziert Faktoren und Komponenten sprachlicher Laute Aus Wikipedia, der freien Enzyklopädie
Die Phonetik (altgriechisch φωνητικός phōnētikós, deutsch ‚zum Tönen, Sprechen gehörig‘, von φωνή phōnḗ, deutsch ‚Stimme‘),[1] auch Lautlehre, ist eine wissenschaftliche Disziplin, die Sprachlaute unter den folgenden Aspekten untersucht: Lautproduktion im Artikulationstrakt (Lunge, Kehlkopf, Rachen-, Mund- und Nasenbereich), die akustischen Eigenschaften der Laute in physikalischer Sicht und ihre Wahrnehmung und Verarbeitung durch Ohr und menschliches Gehirn. Die Phonetik ist ein eigenständiges interdisziplinäres Fachgebiet zwischen Linguistik, Anatomie, Physiologie, Neurologie, Physik und Mathematik. Der Gegenstandsbereich der Phonetik ist die gesprochene Sprache in all ihren Realisierungen.
Die Phonetik ist abzugrenzen von der Phonologie (als einem Teilgebiet der Sprachwissenschaft), die Sprachlaute unter einem anderen Aspekt untersucht. Die Phonologie ist Teil der Grammatik und behandelt Laute hinsichtlich der Funktion, die sie im System verschiedener Sprachen haben. Die Phonetik dagegen befasst sich mit den physikalischen, neurologischen und physiologischen Aspekten, die bei der Produktion, Übertragung und Wahrnehmung von Lauten relevant sind, und bedient sich dabei naturwissenschaftlicher Methoden.
Die sprachwissenschaftliche Disziplin der Phonologie ist mit der Phonetik eng verwandt. Die Phonologie klassifiziert Laute und größere Einheiten aufgrund ihrer Verteilung und Funktion in einer spezifischen Sprache. Aufgrund von Minimalpaaren wie z. B. rot und tot identifiziert die Phonologie die kleinsten bedeutungsunterscheidenden Laute einer Sprache, die Phoneme (hier: /ʀ/ und /t/). Im Gegensatz zur Phonologie untersucht die Phonetik die konkreten artikulatorischen und akustischen Merkmale der Laute aller Sprachen, d. h. sie beschäftigt sich damit, wie sprachliche Laute gebildet werden, wie sie durch das menschliche Ohr aufgenommen und im Gehirn weiterverarbeitet wird und wie man sprachliche Laute akustisch messen und beschreiben kann. Kleinste Einheit in der Phonetik ist der Laut oder das Phon, die kleinste Lauteinheit in dem Lautkontinuum der gesprochenen Sprache. Diese kleinsten Einheiten werden durch Analyse und Zerlegung von sprachlichen Äußerungen identifiziert. In der Phonetik kann dann z. B. beschrieben werden, durch welche Artikulation diese Laute erzeugt werden.[2] Einem Phonem, der abstrakten Einheit aus der Phonologie, entsprechen in einer Lautäußerung ein oder mehrere Phone. Phone, die in einer bestimmten Sprache als Varianten desselben Phonems zählen, also in der jeweiligen Sprache funktionsgleich sind, nennt man auch Allophone dieses Phonems.
Übergreifende lautliche Einheiten und Merkmale wie Betonung, Phrasierung und Intonation werden ebenfalls in der Phonetik hinsichtlich ihrer substantiellen Eigenschaften und in der Phonologie hinsichtlich ihrer Klassifizierung und sprachlichen Funktionen untersucht.
Die Phonetik ist ein interdisziplinäres Fachgebiet, das Ergebnisse und Methoden aus den Fächern Anatomie, Physiologie, Neurologie, Physik und Mathematik nutzt.[3] Für die Beschreibung der Lautbildung mit Lunge, Kehlkopf sowie Mund- und Nasenraum nutzt die Phonetik Erkenntnisse aus der Anatomie und der Physiologie, für die Beschreibung der Lautverarbeitung durch das menschliche Gehirn Ergebnisse der Neurologie. Die Physik, speziell das Teilgebiet der Akustik, ist relevant für die Beschreibung der Schallübertragung der sprachlichen Laute, ebenso wie einige Erkenntnisse aus der Mathematik, die das mathematische Gerüst zur Beschreibung von Schallwellen bietet (z. B. Fourier-Analysis).
Die Phonetik wird in vielen Publikationen als interdisziplinäres naturwissenschaftliches Fachgebiet gesehen;[3] viele Einführungen in die Sprachwissenschaft führen sie aber auch als Teilbereich der Sprachwissenschaft und behandeln sie gemeinsam mit den sprachwissenschaftlichen Disziplinen Phonologie, Morphologie und Syntax.[4]
Neben der Phonetik und Phonologie haben u. a. auch die Fächer Sprechwissenschaft, Sprecherziehung, Rhetorik, Sprechkunst, Klinische Linguistik, Logopädie und Sprachheilpädagogik gesprochene Sprache zum Inhalt.
Die Ursprünge der Phonetik gehen zurück bis in eine Periode zwischen 800 und 150 v. Chr. auf dem indischen Subkontinent, wo indische Linguisten die Phonetik des Sanskrit beschreiben.[5]
In der europäischen Antike und in der Renaissance wurden die Grundlagen für eine systematische Beschreibung der Artikulationsorgane gelegt. So hat sich bereits in der Antike der Arzt Galenus mit dem Aufbau des Kehlkopfs beschäftigt, und auch der Arzt und Naturwissenschaftler Avicenna befasste sich im 11. Jahrhundert wissenschaftlich mit der Phonetik.[6][7] Insgesamt sind im Mittelalter jedoch eher Rückschritte bezüglich der Erkenntnisse und Vorstellungen zur sprachlichen Lautproduktion und -rezeption zu verzeichnen, was sich erst in der Renaissance wieder änderte. Sogar Leonardo da Vinci kann als Vorläufer der Phonetiker genannt werden, denn seine Studien an sezierten Leichen trugen zum Wissen über den Aufbau des Kehlkopfes bei.[8][9]
Mit dem Aufstieg der Naturwissenschaften in der Neuzeit entstanden erst die Voraussetzungen für die Phonetik als naturwissenschaftliche Disziplin, z. B. die akustische Schwingungslehre, mit der der Mathematiker Leonhard Euler gegen Ende des 18. Jahrhunderts die akustischen Eigenschaften von Vokalen genauer zu beschreiben versuchte. Im 18. Jahrhundert findet man auch die ersten Versuche, Sprache künstlich zu erzeugen. Beispielhaft sei hier Wolfgang von Kempelen genannt, der ab 1769 an einer sprechenden Maschine arbeitete.[9]
Einen Aufbruch erlebte die Phonetik im 19. Jahrhundert, als technische Apparate wie der Phonograph zur Verfügung standen, mit denen erstmals sprachliche Laute aufgezeichnet und analysiert werden konnten. Jean-Pierre Rousselot gehörte zu den Pionieren der Sprachaufzeichnung für wissenschaftliche Zwecke und kann als einer der Gründerväter der Phonetik als Wissenschaftsdisziplin genannt werden. Ludimar Hermann gelang es ferner 1889 und 1890 mit Hilfe mathematischer Prinzipien Stimm- und Lautkurven zu analysieren; er prägte auch den Begriff Formant.[10]
Gleichzeitig entwickelte sich Ende des 19. Jahrhunderts auch die Erkenntnis unter den artikulatorischen Phonetikern, dass „Sprachlaute“ ein eigenes Beschreibungssystem benötigen, weil in den meisten Sprachen keine eindeutige Beziehung zwischen Buchstaben und Lauten mehr besteht und damit die gängigen Alphabete zur Beschreibung der Laute einer Sprache nicht ausreichen. So veröffentlichte Alexander Melville Bell mit seiner Schrift Visible Speech 1867 eine phonetische Schrift, mit der er versucht, Vokale präzise zu beschreiben.[11] Diese Aktivitäten kulminierten in der Gründung der International Phonetic Association 1884 und der Veröffentlichung des ersten Internationalen Phonetischen Alphabets (IPA) 1888.[12][13]
Im deutschsprachigen Raum wurde die Phonetik erstmals 1919 als eigenständige Disziplin anerkannt, als sie als Haupt- und Nebenfach bei Promotionen an der Philosophischen Fakultät der Universität Hamburg zugelassen wurde. Eine erste planmäßige außerordentliche Professur für Phonetik in Deutschland wurde 1922 an der Hansischen Universität Hamburg eingerichtet.[14]
Weitere wichtige technische Entwicklungen für die Phonetik waren z. B. die Röntgenbildgebung und die Sonografie Anfang des 20. Jahrhunderts. Weitere Fortschritte in der Phonetik sind durch technische Entwicklungen zu erwarten. So sind in den letzten Jahren z. B. große Fortschritte in Echtzeit-MRTs gemacht worden. Damit ist es für die Phonetik einfacher möglich, akustische Signale und physiologische Vorgänge bei der Lauterzeugung zu analysieren.
Die allgemeine Phonetik beschäftigt sich mit den bei konkreten Sprechakten physikalisch ablaufenden Prozessen sowie deren messtechnischer Erfassung. Sie hat die folgenden Teilgebiete:
Ferner gibt es das Arbeitsgebiet der systematischen Phonetik, die sich um die systematische Beschreibung der Laute (Phone) der Sprachen der Welt bemüht, einschließlich der Beschreibung der Konsonanten und Vokale aller menschlichen Sprachen und deren Transkription in eine Lautschrift. Zur systematischen Phonetik zählt auch die Beschreibung der suprasegmentalen Phonetik (Prosodie), d. h. die Beschreibung einzelner Laute und deren Verwendung in der Silbe bzw. im Wort.
Die artikulatorische Phonetik befasst sich mit dem Zusammenspiel von Atmung (Erzeugung des notwendigen Luftdrucks in der Lunge), der Phonation im Kehlkopf und der Artikulation im Rachen-, Mund- und Nasenraum (dem Vokaltrakt). Durch die Atmung wird in der Lunge der für den Schall notwendige Luftdruck erzeugt. Im Kehlkopf sitzen die Stimmlippen, die die Schwingungen in der Luft erzeugen, die für den Klang verantwortlich sind. Schließlich wirkt der Rachen-, Mund- und Nasenraum je nach Stellung von z. B. Gaumen oder Zunge als Filter, der den Klang weiter modifiziert.[15]
Die artikulatorische Phonetik interessiert sich insbesondere für die Rolle und Position der beweglichen Teile in Kehlkopf und Mundraum, also Zunge, Lippen, Unterkiefer, Gaumensegel (Velum) mit dem Zäpfchen (Uvula), Rachen und Glottis. Je nach Position dieser Artikulationsorgane werden unterschiedliche sprachliche Laute erzeugt. Die Phonetik spricht von verschiedenen Artikulationsstellen oder -orten, wenn sie die Orte beschreibt, an denen (Teile der) Zunge und/oder die Lippen sich befinden, wenn Konsonanten erzeugt werden. So spricht man z. B. bei den Lauten [b] oder [m] von bilabialen Lauten, weil hier die Ober- und Unterlippe bei der Lautbildung hauptsächlich beteiligt sind. Bei anderen Konsonanten wie z. B. [d] oder [g] spielt die Position der Zunge eine Rolle (dental, hinter den Oberkieferzähnen, oder velar, beim Gaumensegel).
Die artikulatorische Phonetik verfügt über verschiedene experimentelle Untersuchungstechniken, um das Kehlkopfverhalten und das Verhalten der Artikulatoren zu erfassen. Für den Kehlkopf verwendet man Kehlkopfspiegel (Laryngoskop), Laryngographen und Photoelektroglottographie. Zur Erfassung der artikulatorischen Geometrie verwendet man die Palatographie, Röntgenbilder, elektromagnetische Artikulographie, Ultraschallvermessung (Sonografie) und Magnetresonanztomographie bzw. Echtzeit-Magnetresonanztomographie.[16]
Die akustische Phonetik befasst sich mit der Beschreibung der sprachlichen Laute als Schallschwingungen, wie sie von Sprecher zum Hörer übertragen werden. Der Untersuchungsbereich der akustischen Phonetik befindet sich damit in dem Bereich nach der Artikulation durch den Sprecher und vor der Signalaufnahme durch das Ohr des Hörers.[17] Die Grundlagen der akustischen Phonetik stammen aus einem Teilbereich der Physik, der Akustik. Die akustische Phonetik beschreibt die Erzeugung und Übertragung der Schallschwingungen, die durch sprachliche Laute erzeugt werden. Unter Schall versteht man minimale Luftdruckschwankungen, die hörbar sind. Sprachliche Laute gehören zu einem speziellen Typ von Schallschwingungen, nämlich den Klängen. Im Gegensatz zu reinen Tönen (z. B. aus der Musik) sind Klänge zusammengesetzte Schallschwingungen. Im Gegensatz zu Geräuschen sind Klänge periodische Schallschwingungen. In der Akustik werden Klänge (also auch sprachliche Laute) als Sinoidalschwingungen beschrieben.[18]
Genauer gesagt sind sprachliche Laute zusammengesetzte Schwingungen, die in einzelne Sinoidalschwingungen zerlegbar sind. Bei einer solchen Zerlegung werden die Amplituden der einzelnen Teilschwingungen ermittelt. So erhält man ein Schallspektrum, und das Verfahren, das hierfür verwendet wird, nennt man Frequenzanalyse oder Fourier-Analyse (nach dem französischen Mathematiker Jean Baptiste Joseph Fourier).[19] Die Ergebnisse der Akustik sind für die Phonetik relevant, weil während der Sprachlautproduktion Schallwellen erzeugt werden, die vom Kehlkopf über den Rachen-, Mund- und Nasenraum wandern. Diese Schallwellen lassen sich mit den Mitteln der Akustik messen und beschreiben.
Die akustische Phonetik verwendet verschiedene Darstellungsformen, um die Akustik der sprachlichen Äußerungen sichtbar zu machen. Eine wichtige Darstellungsform ist das Oszillogramm, das die Schallschwingungen als Graph entlang einer Zeitachse darstellt. Das Oszillogramm gibt den tatsächlichen Schwingungsvorgang des Schalls wieder, misst also die Schwingung der Luftteilchen während der Schallwellenübertragung.[20]
Häufig will man nicht nur die reinen Schallschwingungen darstellen, sondern man will gleichzeitig zeigen, welche Frequenzen und Amplituden die Schallwellen einer sprachlichen Äußerung haben und wie sie sich über die Zeit verändern. Dies gelingt, wenn man die akustische Information der Schallschwingungen mittels mathematischer Methoden in ein Spektrogramm oder Sonagramm umwandelt, eine bildliche Darstellung des Frequenzspektrums eines Signals. Im Sonagramm ist der Zeitverlauf auf der x-Achse (von links nach rechts), während die Frequenz auf der y-Achse (von unten nach oben) dargestellt wird. Die Amplitude der Schallwellen wird durch verschiedene Grauschattierungen dargestellt: je dunkler ein Bereich, desto größer die Amplitude.[21] Die Balken in eine Sonagramm, die einen stärkeren Schwärzungsgrad aufweisen, stellen die Frequenzbänder mit einer höheren Energie dar, die sogenannten Formanten. Im Sonagramm sind die Formanten die grafische Repräsentation des Vokalschalls.[22]
Ein wichtiger Schwerpunkt der akustischen Phonetik ist die Beschreibung und Analyse von Lautäußerungen mittels Spektrogrammen und Sonagrammen. Weitere Themen im Bereich der akustischen Phonetik, die vor allem durch den zunehmenden Einsatz von Computern möglich sind, sind automatische Spracherkennung und Sprachsynthese.[23]
Die auditive oder perzeptive Phonetik befasst sich mit der Aufnahme und Verarbeitung sprachlicher Laute im Gehörorgan und im auditiven Nervensystem.
Die Schallwellen sprachlicher Laute werden über das äußere Ohr und das Mittelohr in das Innenohr geleitet, wo das eigentliche Hörorgan, das Corti-Organ sitzt. Die Frage, wie die Sprache im Ohr und im menschlichen Gehirn verarbeitet wird, ist Teil verschiedener Hörtheorien, darunter die Resonanzhypothese und die Wanderwellentheorie von Georg von Békésy.
Ein wichtiges Untersuchungsgebiet der auditiven Phonetik ist der Zusammenhang zwischen der subjektiven Wahrnehmung der sprachlichen Laute und der physikalisch messbaren Parameter des akustischen Signals, etwa der Lautstärke und des messbaren Schalldruckpegels (in Dezibel, dB) sowie der Tonhöhe. Bahnbrechend für die perzeptive Phonetik waren die Forschungen zur auditiven Sprachwahrnehmung z. B. durch die Bell Laboratories Mitte des 20. Jahrhunderts, die feststellen wollten, wie stark das Sprachsignal reduziert werden kann, ohne dass es unverständlich wird, um damit die Kapazität der Telefonleitungen besser ausschöpfen zu können.[24]
Ein wichtiges Ergebnis zur auditiven Sprachwahrnehmung aus der Phonetik ist neben anderen die Erkenntnis, dass eine sprachliche Äußerung aus einem kontinuierlichen akustischen Signal besteht. In den Anfängen der Phonetik hatte man die Erwartung, dass sich in den Messungen sprachlicher Äußerungen eindeutig abgrenzbare Segmente (Vokale, Konsonanten) identifizieren und auch synthetisch erzeugen lassen. Wie sich aber mit den Experimenten des Pattern-Playback-Synthetisator der Haskins-Laboratorien herausstellte, war dies zwar für Vokale möglich, aber nicht für Konsonanten. Aus Experimenten zur Sprachwahrnehmung stammt die Erkenntnis, dass Menschen sprachlichen Input in klar abgegrenzte Kategorien unterteilen: Variiert man den sprachlichen Input leicht (z. B. von [bæ] über [dæ] nach [gæ]), so nehmen Probanden vor allem drei Kategorien wahr (kategoriale Wahrnehmung). Nimmt man musikalische Töne oder Geräusche als Input, so können Probanden wesentlich mehr feine Unterschiede benennen (kontinuierliche Wahrnehmung). Aus diesem und anderen Experimenten entwickelten die Forscher der Haskins-Laboratorien ihre Motor-Theorie der Sprachwahrnehmung.[25][26]
Wenn man phonetische Teilbereiche nach ihrem methodischen Zugang klassifiziert, kann man sie wie folgt unterscheiden:[27]
Neben der Beschreibung und Messung der Vorgänge bei der Spracherzeugung und Sprachwahrnehmung trägt die Phonetik dazu bei, das Lautinventar von Einzelsprachen zu erfassen. Die Laute oder Phone einer Sprache werden zunächst durch Beobachtungen des Phonetikers identifiziert und anschließend systematisch beschrieben: Konsonanten werden auf der Basis ihrer Artikulationsart und der Artikulationsstelle beschrieben und klassifiziert, Vokale aufgrund der Zungenposition und der Mundrundung.[28] Beispielsweise findet man unter den Konsonanten des Deutschen die Nasallaute [m], [n] und [ŋ] (wie in den Wörtern Damm, dann und Drang). Diese werden bilabial (mit beiden Lippen), alveolar (mit der Zunge am oberen Zahndamm hinter den oberen Schneidezähnen) bzw. velar (am Gaumensegel) artikuliert. Im Französischen dagegen findet man neben [m] und [n] (wie in pomme, panne) auch noch den palatalen Nasal [ɲ] (wie in pagne).[29]
Die Sprachen der Welt machen von den potentiell möglichen Phonen unterschiedlich Gebrauch. So findet man Sprachen, deren Lautinventar eine geringe Zahl von Vokalen oder Konsonanten umfasst, wie die Papuasprache Rotokas mit ihren lediglich sechs Konsonanten und fünf Vokalen. Ein anderes Extrem ist die südafrikanische Khoisansprache !Xũ, die insgesamt 141 Phoneme hat, darunter eine große Zahl von Konsonanten, Klicks und Diphthongen.[30]
Phone werden durch eine Lautschrift schriftlich dargestellt, wobei das Internationale Phonetische Alphabet (IPA) als der Standard hierfür gilt.
Die Phonetik vieler Einzelsprachen ist gut erforscht; einen Überblick über die Lautsysteme der Sprachen der Welt geben die Linguisten Peter Ladefoged und Ian Maddieson mit ihrem Buch The Sounds of the World’s Languages.[31] Für viele europäische Sprachen sind Einführungen in ihre Phonetik verfügbar, so z. B. für das Deutsche, Englische oder Französische.[32][33][34] Ein Meilenstein für die Beschreibung der englischen Sprache ist das Buch An Outline of English Phonetics des Phonetikers Daniel Jones von 1922.[35]
Die Ergebnisse der allgemeinen und systematischen Phonetik fließen in Teilbereiche der angewandten Phonetik ein, z. B. in die forensische Phonetik oder die klinische Phonetik, und auch in die Spracherwerbsforschung.
In der forensischen Phonetik kommt phonetisches Wissen für die Untersuchung von sprechertypischen Stimm- und Sprecheigenschaften zum Einsatz, z. B. mit forensischen Fragestellungen im Bereich der Kriminalistik bzw. Kriminaltechnik und/oder beim Verfassen von forensischen Gerichtsgutachten. So können Erkenntnisse aus der Phonetik das Fundament für forensische Gutachter sein, die vor Gericht etwa darüber entscheiden sollen, wie wahrscheinlich ein Angeklagter der Sprecher auf einer Audioaufzeichnung ist. Dabei fließen verschiedene Methoden ineinander – wie das Anhören der Aufnahme durch den Gutachter und technische Analysen – z. B. mittels der Untersuchung eines Spektrogramms.[36]
Die klinische Phonetik ist ein anwendungsorientiertes Teilgebiet der sprachwissenschaftlichen Disziplin Phonetik. Sie beschäftigt sich mit der Symptombeschreibung und Diagnostik von Sprech-, Sprach- und Stimmstörungen bei Erwachsenen und Störungen des Spracherwerbs bzw. der Sprachentwicklung bei Kindern. Die klinische Phonetik begann sich Ende der 1970er Jahre als eigenständige Disziplin zu etablieren; grundlegend für die Disziplin war die Publikation von David Crystals Buch Clinical Linguistics 1981.[37] Ziele der klinischen Phonetik sind unter anderem die Anwendung von Erkenntnissen aus der Phonetik, um Sprach- und Sprechstörungen bei Patienten zu behandeln, und die Integration klinischer Ergebnisse in linguistische Theorie. Auch befasst sie sich mit der Erweiterung des Internationalen Phonetischen Alphabets (IPA) um Transkriptionsmethoden, die die Sprache sprachgestörter Individuen angemessener wiedergibt.[38]
Phonetische Grundlagen sind auch relevant für die Spracherwerbsforschung, die den Erwerb der Sprechfertigkeit und individuelle Lautentwicklung beim (vor allem gesunden) Kind untersucht. Phonetisches Grundwissen fließt ferner in die Orthoepie ein, die Lehre von bzw. die Regelung der normierten Standardlautung einer Sprache, die frei von regionalen Einflüssen sein soll (Standardaussprache).
Das Deseret-Alphabet, das Shaw-Alphabet und das Simpel-Fonetik-Alphabet sind Beispiele für Schreibsysteme, mit denen die englischen Sprache rein phonemisch nach der Aussprache geschrieben werden kann. Entsprechend wurden für das Standardchinesische unter anderen Pinyin, Bopomofo und Gwoyeu Romatzyh entwickelt, und auch für weitere Sprachen existieren ähnliche Systeme.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.