Bevor jede multivariate Analyse in SPSS oder R läuft, steht die Voraussetzungsprüfung. Viele Gutachter prüfen genau diesen Methodenteil-Abschnitt besonders kritisch – denn hier zeigt sich, ob die Ergebnisse überhaupt interpretierbar sind.
Die Voraussetzungsprüfung sichert die Gültigkeit inferenzstatistischer Schlüsse. Zentrale Prüfpunkte für multivariate Verfahren: Normalverteilung der Residuen (nicht der Rohdaten) – Prüfung mit Shapiro-Wilk-Test und Q-Q-Plot; univariate Ausreißer per z-Score (>±3.29) und Boxplot; multivariate Ausreißer per Mahalanobis-Distanz (kritischer χ²-Wert bei df = Prädiktoranzahl, p < .001); Multikollinearität (VIF < 10, Toleranz > .10); Homoskedastizität (Levene-Test, Breusch-Pagan); Linearität der Prädiktor-Kriterium-Beziehungen; Unabhängigkeit der Residuen (Durbin-Watson ≈ 2). Unsere Ghostwriter unterstützen Sie bei der Statistik und beim Ghostwriting der Bachelorarbeit.
Nicht alle Voraussetzungen gelten für alle Verfahren gleichermaßen. Diese Übersichtstabelle zeigt, was wo geprüft werden muss.
| Voraussetzung | Regression | ANOVA | MANOVA | Korrelation | Faktoranalyse |
|---|---|---|---|---|---|
| Normalverteilung der Residuen | ✓ Pflicht | ✓ Pflicht | ✓ Pflicht | ○ empfohlen | ○ empfohlen |
| Univariate Ausreißer | ✓ Pflicht | ✓ Pflicht | ✓ Pflicht | ✓ Pflicht | ✓ Pflicht |
| Multivariate Ausreißer (Mahalanobis) | ✓ Pflicht | — entfällt | ✓ Pflicht | — entfällt | ✓ Pflicht |
| Multikollinearität (VIF) | ✓ Pflicht | — entfällt | ✓ Pflicht | ○ informativ | ○ anders (KMO) |
| Homoskedastizität | ✓ Pflicht | ✓ Levene | ✓ Box-M | — entfällt | — entfällt |
| Linearität | ✓ Pflicht | — entfällt | — entfällt | ✓ Pflicht | — entfällt |
| Unabhängigkeit der Residuen | ✓ Pflicht | ✓ Design | ✓ Design | ✓ Design | — entfällt |
Viele Verfahren sind bei ausreichend großer Stichprobe robust gegenüber moderaten Verletzungen – d.h. die Ergebnisse bleiben trotzdem valide. Faustregel: n > 30 pro Gruppe macht ANOVA und t-Tests weitgehend robust gegenüber Normalverteilungsverletzungen (Zentraler Grenzwertsatz). Wichtig: Verletzungen nicht verschweigen, sondern im Methodenteil benennen und begründen, warum Sie trotzdem das gewählte Verfahren verwenden.
Ein häufiges Missverständnis: Die Normalverteilungsannahme bezieht sich bei Regression und ANOVA auf die Residuen – nicht auf die Rohdaten der Variablen. Nur bei Korrelation und bestimmten anderen Verfahren sind die Ausgangsvariablen selbst zu prüfen.
Die Normalverteilungsannahme ist am kritischsten bei:
Alternativen bei Verletzung: Datentransformation (log, Wurzel, inverse), robuste Verfahren (bootstrapped SE), oder nicht-parametrische Tests (Mann-Whitney, Kruskal-Wallis, Friedman).
SPSS gibt neben dem Shapiro-Wilk auch den Kolmogorov-Smirnov-Test (mit Lilliefors-Korrektur) aus. Verwenden Sie den Shapiro-Wilk – er ist bei n < 50 statistisch mächtiger. Der KS-Test ist weniger sensitiv und wird in der Methodenliteratur als weniger geeignet eingestuft. Bei n > 50: Beide berichten, aber grafische Prüfung (Q-Q-Plot) stärker gewichten.
Ausreißer sind Fälle, die sich stark von den restlichen Daten unterscheiden. Sie können Parameterschätzungen erheblich verzerren – besonders in der Regressionsanalyse und MANOVA.
Prüfung für jede Variable separat.
In SPSS: Analysieren → Deskriptive Statistiken → Explorative Datenanalyse → Boxplot oder z-Werte über Standardisierung berechnen.
Prüft, ob eine Person im multidimensionalen Raum aller Prädiktoren ein Ausreißer ist – auch wenn sie univariat unauffällig wäre.
Identifizierte Ausreißer nicht automatisch entfernen. Zunächst prüfen: Dateneingabefehler? Wenn ja → korrigieren. Wenn valide Fälle → Analyse mit und ohne Ausreißer durchführen und vergleichen. Entscheidung im Methodenteil begründen.
Arten problematischer Fälle in der Regressionsanalyse
| Statistik | Kritischer Wert | SPSS-Ausgabe | Interpretation |
|---|---|---|---|
| Cook's Distanz (D) | D > 1.0 (konservativ) oder D > 4/n (liberal) | Regression → Speichern → Cook's D | Einfluss eines Falls auf alle β-Schätzer gesamt |
| DFFITS | |DFFITS| > 2√(p/n) | Regression → Speichern → DFFITS | Einfluss auf den vorhergesagten Wert |
| Hebelwert (leverage) | hat > 2(p+1)/n | Regression → Speichern → Leverage | Distanz des x-Werts vom Mittelpunkt |
| Standardisiertes Residuum | |z| > 3.29 | Regression → Speichern → Stand. Residuen | Abweichung des y-Werts von der Regressionsgeraden |
Multikollinearität liegt vor, wenn Prädiktoren in einer multiplen Regression stark miteinander korrelieren. Das führt zu instabilen β-Schätzern mit großen Standardfehlern – signifikante Prädiktoren können fälschlicherweise nicht-signifikant erscheinen.
Analysieren → Regression → Linear → Statistiken → Kollinearitätsdiagnostik ankreuzen. SPSS zeigt VIF und Toleranz (= 1/VIF) für jeden Prädiktor. Toleranz < .10 entspricht VIF > 10.
Optionen: (1) Prädiktoren mit hoher Korrelation zusammenfassen (Summenindex), (2) einen der korrelierten Prädiktoren entfernen (theoriegeleitet), (3) Ridge-Regression als Alternative, (4) Zentrierung bei Interaktionstermen (löst Pseudo-Multikollinearität).
Wenn Sie einen Interaktionsterm (X × W) in die Regression aufnehmen, entsteht fast immer Pseudo-Multikollinearität zwischen den Haupteffekten X und W und dem Interaktionsterm. Lösung: Prädiktoren vor der Multiplikation zentrieren (Mittelwert abziehen). Der Interaktionsterm wird dadurch unkorreliert mit den Haupteffekten – VIF sinkt deutlich. Hayes PROCESS macht das automatisch.
Homoskedastizität bedeutet: Die Varianz der Residuen (bzw. in der ANOVA: die Varianz der AV) ist über alle Stufen des Prädiktors (bzw. alle Gruppen) gleich groß. Verletzung = Heteroskedastizität.
Der Levene-Test prüft Varianzgleichheit der AV über alle Gruppen. p > .05: Homoskedastizität angenommen. p < .05: Varianzungleichheit – robuste ANOVA-Alternative: Welch-ANOVA (SPSS: „Welch" unter Post-hoc-Tests).
SPSS: Analysieren → Mittelwerte vergleichen → Einfaktorielle ANOVA → Optionen → Homogenität der Varianzen
Grafische Prüfung: Streudiagramm Standardisierte Residuen (y-Achse) vs. Vorhergesagte Werte (x-Achse). Bei Homoskedastizität: gleichmäßige Streuung um die Nulllinie (kein Fächer-/Trichtermuster). Formaler Test: Breusch-Pagan-Test (R: bptest() aus lmtest-Paket).
Residuenplots: Homoskedastizität vs. Heteroskedastizität
Die eleganteste Lösung in der modernen Statistik: HC3-robuste Standardfehler (Heteroskedastizitäts-konsistente SE nach MacKinnon & White). Diese korrigieren die Standardfehler ohne Datentransformation und sind in R über das Paket sandwich verfügbar:
In SPSS nicht direkt verfügbar. Als Alternative: Bootstrapped SE (SPSS: Process Macro) oder WLS-Regression (Weighted Least Squares).
Die Regressionsanalyse setzt lineare Beziehungen zwischen Prädiktoren und Kriterium voraus. Pearson-Korrelation setzt bivariate Normalverteilung und Linearität voraus.
Streudiagramme jedes Prädiktors gegen die AV – oder LOESS-Glättungskurve in das Streudiagramm legen. In SPSS: Grafik → Streuungsdiagramm. Bei gebogenem Verlauf: quadratischen Term hinzufügen (polynomiale Regression) oder Variablen transformieren.
Formaler Test auf Linearitätsverletzung. In R: resettest() aus dem lmtest-Paket. Signifikantes Ergebnis deutet auf nicht-lineare Beziehung hin. In SPSS nicht direkt verfügbar – grafische Prüfung ist Standard.
Bei Zeitreihen oder hierarchisch geschachtelten Daten (Studierende in Klassen) kann eine Autokorrelation der Residuen vorliegen – benachbarte Beobachtungen sind dann nicht unabhängig.
Analysieren → Regression → Linear → Statistiken → Durbin-Watson ankreuzen.
| DW-Wert | Interpretation | Konsequenz |
|---|---|---|
| ≈ 2.0 | Keine Autokorrelation – optimal | Voraussetzung erfüllt |
| 1.5 – 2.5 | Akzeptabler Bereich | In der Regel unbedenklich |
| < 1.5 | Positive Autokorrelation | Robuste SE, GLS oder ARIMA erwägen |
| > 2.5 | Negative Autokorrelation | Modell und Datenstruktur prüfen |
Autokorrelation ist vor allem bei Zeitreihendaten, Panelstudien oder räumlich gruppierten Daten relevant. Bei einer typischen Querschnittserhebung in der Psychologie (einmalige Befragung, zufällig ausgewählte, unabhängige Teilnehmer) ist Autokorrelation der Residuen unwahrscheinlich. Trotzdem: Durbin-Watson berichten und im Methodenteil kurz kommentieren – es zeigt methodisches Bewusstsein.
Diese Checkliste fasst zusammen, was Sie in der Regel für eine multiple Regressionsanalyse prüfen und berichten müssen. Für andere Verfahren gelten Teilmengen davon (siehe Tabelle in Abschnitt 1).
Mindestens 10–20 Fälle pro Prädiktor. Gesamtstichprobe n > 50 für stabile Schätzer.
Für jede Variable. Fälle mit |z| > 3.29 identifizieren, Entscheidung dokumentieren.
D² berechnen, mit χ²-kritischem Wert (df = Prädiktoren, p = .001) vergleichen.
Shapiro-Wilk-Test und Q-Q-Plot der Regressionsresiduen (nicht der Rohdaten!).
VIF < 10, Toleranz > .10 für alle Prädiktoren. In SPSS: Kollinearitätsdiagnostik.
Streudiagramm Standardisierte Residuen vs. Vorhergesagte Werte – kein Trichtermuster.
Je Prädiktor ein Streudiagramm gegen AV. Gekrümmte Muster = Linearitätsverletzung.
DW-Wert berichten. Besonders wichtig bei Zeitreihen oder gruppierten Daten.
Für erhöhte Robustheit der Interpretation. Empfohlen wenn Ausreißer gefunden wurden.
M = Muss berichten | S = Sollte berichten | K = Kann berichten
Voraussetzungsprüfung für Ihre Arbeit
Promovierte Statistiker prüfen alle Voraussetzungen, berichten sie APA-konform und begründen Verletzungen methodisch„Vor der Durchführung der multiplen Regressionsanalyse wurden alle relevanten Voraussetzungen geprüft. Univariate Ausreißer wurden anhand von z-Werten (Kriterium: |z| > 3.29) und Boxplots identifiziert; zwei Fälle wurden als Ausreißer erkannt und nach Ausschluss der Analyse nochmals geprüft – die Ergebnisse blieben substanziell unverändert. Multivariate Ausreißer wurden über die Mahalanobis-Distanz geprüft (χ²(3, p = .001) = 16.27); kein Fall überschritt den kritischen Wert. Die Normalverteilung der Residuen wurde mittels Shapiro-Wilk-Test (W = .98, p = .312) und Q-Q-Plot als gegeben beurteilt. Multikollinearität lag nicht vor (alle VIF < 3.1, Toleranzwerte > .32). Der Residuenplot zeigte keine Anzeichen von Heteroskedastizität. Der Durbin-Watson-Wert lag bei DW = 2.04, was auf Unabhängigkeit der Residuen hinweist."
„Der Levene-Test auf Varianzhomogenität ergab einen signifikanten Befund, F(2, 117) = 4.82, p = .010, was auf ungleiche Gruppenvarianzen hinweist. Da die ANOVA bei ausreichend großer Stichprobe robust gegenüber moderaten Verletzungen der Varianzhomogenität ist (Tabachnick & Fidell, 2019), werden die F-Tests dennoch berichtet. Ergänzend wird die Welch-ANOVA ausgewiesen, die keine Varianzhomogenität voraussetzt. Die Schlussfolgerungen beider Analysen stimmen überein."
Nein – und das ist eine der häufigsten Fehlannahmen. Ausreißer entfernt man nur, wenn einer dieser Gründe vorliegt: (1) Dateneingabefehler oder Messfehler, (2) Person gehört offensichtlich nicht zur Zielpopulation, (3) der Fall ist technisch fehllaufend (z.B. Computerausfall während der Messung). Ansonsten: Analyse mit und ohne Ausreißer durchführen, beide Ergebnisse berichten und bewerten ob die Interpretation sich ändert. Willkürliches Entfernen von Ausreißern um bessere p-Werte zu erzielen ist Daten-Manipulation.
Ja, in den meisten Fällen. Erstens bezieht sich die NV-Annahme auf die Residuen, nicht die Rohdaten – prüfen Sie nochmal die Residuen nach der Schätzung. Zweitens ist bei n > 30 die multiple Regression robust gegenüber NV-Verletzungen durch den Zentralen Grenzwertsatz. Drittens ist der Shapiro-Wilk-Test bei großen Stichproben (n > 100) fast immer signifikant, selbst bei praktisch normaler Verteilung. Beurteilen Sie den Q-Q-Plot visuell – wenn die Punkte annähernd auf der Diagonalen liegen, ist die Verteilung ausreichend normal. Im Methodenteil: Verletzung benennen, Robustheit begründen.
Die Faustregel: mindestens 10–20 Fälle pro Prädiktor. Bei n = 100 also maximal 5–10 Prädiktoren. Strengere Kriterien: Green (1991) empfiehlt n ≥ 50 + 8m (m = Prädiktoren) für Testen des Gesamtmodells und n ≥ 104 + m für individuelle Prädiktoren. Bei zu vielen Prädiktoren: R² wird systematisch überschätzt (Overfitting). Im Methodenteil begründen, warum die Prädiktoren theoriegeleitet ausgewählt wurden – keine stepwise regression ohne Hypothesen.
Inhaltlich dasselbe Konzept, aber für verschiedene Verfahren: Levene-Test prüft Varianzhomogenität bei ANOVA – gleiche Streuung der AV in allen Gruppen. Homoskedastizität in der Regression bedeutet, dass die Residualstreuung über alle Ausprägungen des Prädiktors gleich ist – geprüft mit dem Residuenplot. Verletzung heißt in beiden Fällen Heteroskedastizität, aber die Tests und Lösungen unterscheiden sich: bei ANOVA → Welch-Korrektur; bei Regression → robuste Standardfehler (HC3).
Die Voraussetzungsprüfung gehört in den Methodenteil, Unterabschnitt Auswertungsverfahren – typischerweise direkt vor oder nach der Beschreibung der statistischen Verfahren. Viele Betreuer erwarten eine eigene Unterüberschrift: „Voraussetzungsprüfung" oder „Datenbereinigung und Voraussetzungen". Einige Betreuende präferieren, Ergebnisse der Voraussetzungsprüfung im Ergebnisteil als erstes Unterkapitel zu berichten. Fragen Sie im Zweifel nach – es gibt institutionell unterschiedliche Konventionen.
β-Koeffizienten, R², ΔR², Modellvergleich – der vollständige Ergebnisabschnitt für multiple Regression.
→ Zum GuideHayes PROCESS Macro, Bootstrapping, indirekter Effekt – die Voraussetzungsprüfung gilt auch hier.
→ Zum GuideWas tun wenn Voraussetzungen verletzt sind und die Hypothesen nicht bestätigt werden? Professioneller Umgang.
→ Zum GuideUnsere promovierten Statistiker führen die komplette Voraussetzungsprüfung durch, dokumentieren Verletzungen APA-konform und empfehlen geeignete Alternativen – für Bachelor-, Master- und Doktorarbeiten.
Ghostwriter Bachelorarbeit Ghostwriter Kostenlos anfragen