Top-Fragen
Zeitleiste
Chat
Kontext

Projection Pursuit

statistisches Verfahren Aus Wikipedia, der freien Enzyklopädie

Remove ads

Projection Pursuit (wörtlich Nachverfolgung der Projektion) ist ein statistisches Verfahren, eine Menge hochdimensionaler Daten so zu vereinfachen, dass möglichst „interessante“ Strukturen darin aufgedeckt werden. Dazu wird eine Hyperebene (z. B. eine Fläche) in den durch die Daten aufgespannten Raum gelegt, auf welche die Daten projiziert werden.

Der Projection Pursuit wurde zuerst 1974 von John W. Tukey und Jerome H. Friedman veröffentlicht[1] und fand weitere Verbreitung durch die Arbeiten von Peter J. Huber (um 1985)[2].

Die Analyse multivariater Daten erfolgt in der Regel durch eine geeignete Abbildung in niedrigere Dimensionen. Bekanntestes Beispiel ist das Streudiagramm, bei dem jeweils zwei Dimensionen die Achsen eines Koordinatensystems bilden. Jede solche Abbildung verdeckt die Sichtbarkeit vorhandener Strukturen stets mehr oder weniger, kann sie aber niemals verstärken.[3]

Die Idee von Projection Pursuit ist auf die verschiedensten statistischen Probleme angewandt worden:

  • Exploratory Projection Pursuit zur Aufdeckung von interessanten Strukturen in Daten
  • Projection-Pursuit-Regression (kurz: PPR)[4]
  • Projection-Pursuit-Dichteschätzung[5]
  • Projection-Pursuit-Klassifikation[6]
  • Projection-Pursuit-Diskriminanzanalyse[7]
Remove ads

Exploratory Projection Pursuit

Zusammenfassung
Kontext
Thumb
Abb. 1: Projektion von Datenpunkten auf den Ecken eines sechsdimensionalen Würfels (cube6) auf eine zweidimensionale Hyperebene. Die Daten sind approximativ standardnormalverteilt in der Ebene.
Thumb
Abb. 2: Mit dem "Central Mass" Index in GGobi optimierte Lösung des cube6 Datensatzes.
Thumb
Abb. 3: Visualisierung der "Central Mass" Indexfunktion in GGobi.

Im Exploratory Projection Pursuit wird jeder Hyperebene eine Maßzahl (oder Index) zugeordnet, die angibt wie interessant die enthaltene Struktur ist. In der Arbeit von P. Diaconis und D. Freedman[8] wurde gezeigt, dass die meisten Strukturen in den Hyperebenen normalverteilten Daten ähneln (siehe Abb. 1). Viele Maßzahlen messen daher die Distanz der Struktur in der Hyperebene zu einer Normalverteilung.

Danach werden automatisch der Reihe nach alle möglichen Projektionen der Daten auf eine Hyperebene durchgerechnet, die im Vergleich zu den Originaldaten um eine oder mehrere Dimensionen reduziert ist. Werden Datenpunkte als Teil einer interessanten Struktur identifiziert, werden diese aus der Analyse genommen. Das Verfahren wird mit dem reduzierten Datensatz wiederholt, bis keine Struktur mehr erkennbar ist.

Indizes

Die multivariaten Daten werden in der Regel mit transformiert, so dass die Mittelwerte der Variablen gleich Null sind und die Varianz-Kovarianzmatrix die Einheitsmatrix ist. Wenn dann die Projektionsvektoren für die Hyperebene sind, die in die Hyperebene projizierten Daten, die Dichtefunktion der Standardnormalverteilung (bzw. der entsprechenden Normalverteilung, wenn statt benutzt wird) und die Dichtefunktion der projizierten Daten in der Hyperebene, dann wurde unter anderem folgende Indizes, die dann maximiert werden, vorgeschlagen:

Friedman-Tukey-Index[1]
Der Index wird minimiert durch eine parabolische Dichtefunktion, welche sehr ähnlich zur Dichtefunktion einer Standardnormalverteilung ist.
Entropy-Index[2]
ist die Entropie, die ebenfalls minimiert wird durch die Standardnormalverteilung.
Legendre-Index[3], Hermite-Index[9] und Natural-Hermite-Index[10]
,
und
.
Alle drei Indizes messen den Abstand zur Standardnormalverteilung, sie unterscheiden sich nur in der Art der Gewichtung der Differenz zwischen der Dichte der projizierten Daten und der Standardnormalverteilung.
-Index[11]
partitioniert eine (zweidimensionale) Ebene in 48 Zellen und wendet dann einen -Anpassungstest zum Vergleich der Beobachtungszahl in jeder Zelle mit der Zahl der Beobachtungen unter Annahme der Standardnormalverteilung.

Im Prinzip kann jede Teststatistik, die zu einem Test auf Normalverteilung gehört, als Index benutzt werden. Eine Maximierung führt dann zu den Hyperebenen, in denen die Daten nicht normalverteilt sind. Spezielle Versionen der Indizes , und werden maximiert durch bestimmten Strukturen, z. B. Zentrales Loch oder Zentrale Masse.

Die unbekannte Dichtefunktion der projizierten Daten wird entweder mittels eines Kerndichteschätzer oder durch eine orthonormale Funktionsexpansion geschätzt.

Verwandte Methoden

Als Spezialfälle des Exploratory Projection Pursuit kann man

  • die Grand Tour betrachten, bei der die Strukturen durch den Betrachter selbst in den Grafiken entdeckt werden, und
  • die Hauptkomponentenanalyse, bei der der Index durch beschrieben wird.
Remove ads

Projection Pursuit Regression

Im Regressionfall wird die unbekannte Regressionsfunktion iterativ durch Regressionsfunktionen auf den projizierten Daten dargestellt:

  1. sind die beobachteten Regressionswerte
  2. Finde so, dass minimal ist
  3. Setze
  4. Iteriere Schritte 2–3 solange bis kleiner als eine vorgegebene Schranke ist oder nicht mehr kleiner wird
  5. Verbessere die Approximation in dem für jedes nochmal minimiert wird
Remove ads

Projection Pursuit Dichteschätzung

Auch im Fall der Dichteschätzung wird eine iteratives Verfahren benutzt. Die unbekannte Dichtefunktion wird approximiert als Produkt von Dichtefunktionen der projizierten Daten:

mit die Dichtefunktion der multivariaten Normalverteilung mit den Parametern und geschätzt aus den Daten. Dann wird schrittweise die Normalverteilungsdichte korrigiert. Im Gegensatz zum Regressionsfall ist jedoch der Algorithmus wesentlich komplizierter, da hier keine Beobachtungen zur Verfügung stehen, an die angepasst werden kann.

Siehe auch

Einzelnachweise

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads