Voraussetzungsprüfung für multivariate Verfahren

Bevor jede multivariate Analyse in SPSS oder R läuft, steht die Voraussetzungsprüfung. Viele Gutachter prüfen genau diesen Methodenteil-Abschnitt besonders kritisch – denn hier zeigt sich, ob die Ergebnisse überhaupt interpretierbar sind.

Normalverteilung & Shapiro-Wilk
Ausreißer & Mahalanobis
VIF & Multikollinearität
Homoskedastizität
Linearität & Unabhängigkeit

1. Welche Voraussetzung für welches Verfahren?

Nicht alle Voraussetzungen gelten für alle Verfahren gleichermaßen. Diese Übersichtstabelle zeigt, was wo geprüft werden muss.

VoraussetzungRegressionANOVAMANOVAKorrelationFaktoranalyse
Normalverteilung der Residuen✓ Pflicht✓ Pflicht✓ Pflicht○ empfohlen○ empfohlen
Univariate Ausreißer✓ Pflicht✓ Pflicht✓ Pflicht✓ Pflicht✓ Pflicht
Multivariate Ausreißer (Mahalanobis)✓ Pflicht— entfällt✓ Pflicht— entfällt✓ Pflicht
Multikollinearität (VIF)✓ Pflicht— entfällt✓ Pflicht○ informativ○ anders (KMO)
Homoskedastizität✓ Pflicht✓ Levene✓ Box-M— entfällt— entfällt
Linearität✓ Pflicht— entfällt— entfällt✓ Pflicht— entfällt
Unabhängigkeit der Residuen✓ Pflicht✓ Design✓ Design✓ Design— entfällt

💡 Robustheit: Wann Verletzungen tolerierbar sind

Viele Verfahren sind bei ausreichend großer Stichprobe robust gegenüber moderaten Verletzungen – d.h. die Ergebnisse bleiben trotzdem valide. Faustregel: n > 30 pro Gruppe macht ANOVA und t-Tests weitgehend robust gegenüber Normalverteilungsverletzungen (Zentraler Grenzwertsatz). Wichtig: Verletzungen nicht verschweigen, sondern im Methodenteil benennen und begründen, warum Sie trotzdem das gewählte Verfahren verwenden.

2. Normalverteilung prüfen

Ein häufiges Missverständnis: Die Normalverteilungsannahme bezieht sich bei Regression und ANOVA auf die Residuen – nicht auf die Rohdaten der Variablen. Nur bei Korrelation und bestimmten anderen Verfahren sind die Ausgangsvariablen selbst zu prüfen.

📊
Shapiro-Wilk-Test
SPSS: Analysieren → Deskriptive Statistiken → Explorative Datenanalyse → Diagramme → Normalverteilungsdiagramme mit Tests
n ≤ 50: Primärtest. p < .05 → Normalverteilung verletzt. Bei großem n fast immer signifikant.
📉
Q-Q-Plot (Quantil-Quantil)
Punkte sollten nah an der Diagonalen liegen. S-Kurven deuten auf Schiefe, gebogene Verläufe auf Kurtosis hin.
Grafisch beurteilen. Pflicht als Abbildung bei kleinem n (< 100).
📐
Schiefe & Kurtosis
SPSS: Deskriptive Statistiken. Schiefe / Standardfehler = z-Wert der Schiefe. Ebenso für Kurtosis.
|z| < 1.96 bei α = .05 akzeptabel. Alternativ: |Schiefe| < 2, |Kurtosis| < 7 als Daumenregel.

Wann ist Normalverteilung wirklich ein Problem?

Die Normalverteilungsannahme ist am kritischsten bei:

  • Kleinen Stichproben (n < 30 pro Gruppe) – hier gibt es wenig Puffer durch den Zentralen Grenzwertsatz
  • Extremen Ausreißern, die die Verteilung verzerren
  • Stark schiefen Verteilungen (z.B. Reaktionszeiten, Häufigkeitsmaße)

Alternativen bei Verletzung: Datentransformation (log, Wurzel, inverse), robuste Verfahren (bootstrapped SE), oder nicht-parametrische Tests (Mann-Whitney, Kruskal-Wallis, Friedman).

⚠️ Kolmogorov-Smirnov statt Shapiro-Wilk

SPSS gibt neben dem Shapiro-Wilk auch den Kolmogorov-Smirnov-Test (mit Lilliefors-Korrektur) aus. Verwenden Sie den Shapiro-Wilk – er ist bei n < 50 statistisch mächtiger. Der KS-Test ist weniger sensitiv und wird in der Methodenliteratur als weniger geeignet eingestuft. Bei n > 50: Beide berichten, aber grafische Prüfung (Q-Q-Plot) stärker gewichten.

3. Ausreißer: Univariat und multivariat

Ausreißer sind Fälle, die sich stark von den restlichen Daten unterscheiden. Sie können Parameterschätzungen erheblich verzerren – besonders in der Regressionsanalyse und MANOVA.

Univariate Ausreißer

Prüfung für jede Variable separat.

  • z-Score > ±3.29 (p < .001, zweiseitig): Konservatives Kriterium
  • z-Score > ±3.00: Liberaleres Kriterium (häufiger in der Literatur)
  • Boxplot-Methode: Werte > 1.5 × IQR außerhalb der Box (○ mild), > 3 × IQR (✸ extrem)

In SPSS: Analysieren → Deskriptive Statistiken → Explorative Datenanalyse → Boxplot oder z-Werte über Standardisierung berechnen.

Multivariate Ausreißer: Mahalanobis-Distanz

Prüft, ob eine Person im multidimensionalen Raum aller Prädiktoren ein Ausreißer ist – auch wenn sie univariat unauffällig wäre.

  • Mahalanobis-Distanz (D²) für jeden Fall berechnen
  • D² wird als χ²-verteilt behandelt mit df = Anzahl der Prädiktoren
  • Kritischer Wert: χ²(df, p = .001) – Fälle darüber = multivariate Ausreißer

Mahalanobis-Distanz in SPSS berechnen

===== Weg 1: Über Regression ===== Analysieren → Regression → Linear ID-Variable als AV eintragen (Dummy-AV) Alle Prädiktoren als UV eintragen Speichern → Mahalanobis-Distanz ✓ → Neue Spalte MAH_1 im Datensatz ===== Kritische Werte (χ²-Tabelle, p = .001) ===== df (Prädiktoren) Kritischer D²-Wert 2 13.82 3 16.27 4 18.47 5 20.52 6 22.46 10 29.59 Fälle mit MAH_1 > kritischer Wert → Ausreißer prüfen

Identifizierte Ausreißer nicht automatisch entfernen. Zunächst prüfen: Dateneingabefehler? Wenn ja → korrigieren. Wenn valide Fälle → Analyse mit und ohne Ausreißer durchführen und vergleichen. Entscheidung im Methodenteil begründen.

Arten problematischer Fälle in der Regressionsanalyse

Ausreißer Extremer y-Wert, aber x-Wert normal. Problem: Verzerrt σ², nicht unbedingt β → Cook's D prüfen Leverage-Punkt Extremer x-Wert, y-Wert auf Regressions- gerade. Geringer Einfluss. Problem: Nur bei Kombination mit y-Ausreißer → Leverage-Wert (hat) Einflussreicher Fall Extremer x- UND y-Wert. Verändert β stark, wenn entfernt. Problem: Verzerrt β-Schätzer erheblich → Cook's D > 1 kritisch

Einflussstatistiken: Cook's D und DFFITS

StatistikKritischer WertSPSS-AusgabeInterpretation
Cook's Distanz (D)D > 1.0 (konservativ) oder D > 4/n (liberal)Regression → Speichern → Cook's DEinfluss eines Falls auf alle β-Schätzer gesamt
DFFITS|DFFITS| > 2√(p/n)Regression → Speichern → DFFITSEinfluss auf den vorhergesagten Wert
Hebelwert (leverage)hat > 2(p+1)/nRegression → Speichern → LeverageDistanz des x-Werts vom Mittelpunkt
Standardisiertes Residuum|z| > 3.29Regression → Speichern → Stand. ResiduenAbweichung des y-Werts von der Regressionsgeraden

4. Multikollinearität: VIF und Toleranz

Multikollinearität liegt vor, wenn Prädiktoren in einer multiplen Regression stark miteinander korrelieren. Das führt zu instabilen β-Schätzern mit großen Standardfehlern – signifikante Prädiktoren können fälschlicherweise nicht-signifikant erscheinen.

VIF-Skala: Wann ist Multikollinearität kritisch?

VIF 1–3
Unproblematisch
Standard
VIF 3–5
Moderat
Beobachten
VIF 5–10
Problematisch
Diskutieren
VIF > 10
Kritisch
Handeln nötig

VIF in SPSS ausgeben

Analysieren → Regression → Linear → Statistiken → Kollinearitätsdiagnostik ankreuzen. SPSS zeigt VIF und Toleranz (= 1/VIF) für jeden Prädiktor. Toleranz < .10 entspricht VIF > 10.

Was tun bei hoher Multikollinearität?

Optionen: (1) Prädiktoren mit hoher Korrelation zusammenfassen (Summenindex), (2) einen der korrelierten Prädiktoren entfernen (theoriegeleitet), (3) Ridge-Regression als Alternative, (4) Zentrierung bei Interaktionstermen (löst Pseudo-Multikollinearität).

⚠️ Multikollinearität bei Moderationsanalysen

Wenn Sie einen Interaktionsterm (X × W) in die Regression aufnehmen, entsteht fast immer Pseudo-Multikollinearität zwischen den Haupteffekten X und W und dem Interaktionsterm. Lösung: Prädiktoren vor der Multiplikation zentrieren (Mittelwert abziehen). Der Interaktionsterm wird dadurch unkorreliert mit den Haupteffekten – VIF sinkt deutlich. Hayes PROCESS macht das automatisch.

5. Homoskedastizität

Homoskedastizität bedeutet: Die Varianz der Residuen (bzw. in der ANOVA: die Varianz der AV) ist über alle Stufen des Prädiktors (bzw. alle Gruppen) gleich groß. Verletzung = Heteroskedastizität.

ANOVA: Levene-Test

Der Levene-Test prüft Varianzgleichheit der AV über alle Gruppen. p > .05: Homoskedastizität angenommen. p < .05: Varianzungleichheit – robuste ANOVA-Alternative: Welch-ANOVA (SPSS: „Welch" unter Post-hoc-Tests).

SPSS: Analysieren → Mittelwerte vergleichen → Einfaktorielle ANOVA → Optionen → Homogenität der Varianzen

Regression: Residuenplot

Grafische Prüfung: Streudiagramm Standardisierte Residuen (y-Achse) vs. Vorhergesagte Werte (x-Achse). Bei Homoskedastizität: gleichmäßige Streuung um die Nulllinie (kein Fächer-/Trichtermuster). Formaler Test: Breusch-Pagan-Test (R: bptest() aus lmtest-Paket).

Residuenplots: Homoskedastizität vs. Heteroskedastizität

✓ Homoskedastizität Vorhergesagte Werte → ✗ Heteroskedastizität (Trichter) Vorhergesagte Werte →

Bei Heteroskedastizität: Robuste Standardfehler

Die eleganteste Lösung in der modernen Statistik: HC3-robuste Standardfehler (Heteroskedastizitäts-konsistente SE nach MacKinnon & White). Diese korrigieren die Standardfehler ohne Datentransformation und sind in R über das Paket sandwich verfügbar:

library(sandwich); library(lmtest) modell <- lm(y ~ x1 + x2 + x3, data = df) coeftest(modell, vcov = vcovHC(modell, type = "HC3"))

In SPSS nicht direkt verfügbar. Als Alternative: Bootstrapped SE (SPSS: Process Macro) oder WLS-Regression (Weighted Least Squares).

6. Linearität

Die Regressionsanalyse setzt lineare Beziehungen zwischen Prädiktoren und Kriterium voraus. Pearson-Korrelation setzt bivariate Normalverteilung und Linearität voraus.

Grafische Prüfung

Streudiagramme jedes Prädiktors gegen die AV – oder LOESS-Glättungskurve in das Streudiagramm legen. In SPSS: Grafik → Streuungsdiagramm. Bei gebogenem Verlauf: quadratischen Term hinzufügen (polynomiale Regression) oder Variablen transformieren.

RESET-Test (Ramsey)

Formaler Test auf Linearitätsverletzung. In R: resettest() aus dem lmtest-Paket. Signifikantes Ergebnis deutet auf nicht-lineare Beziehung hin. In SPSS nicht direkt verfügbar – grafische Prüfung ist Standard.

7. Unabhängigkeit der Residuen: Durbin-Watson-Test

Bei Zeitreihen oder hierarchisch geschachtelten Daten (Studierende in Klassen) kann eine Autokorrelation der Residuen vorliegen – benachbarte Beobachtungen sind dann nicht unabhängig.

Durbin-Watson-Test in SPSS

Analysieren → Regression → Linear → Statistiken → Durbin-Watson ankreuzen.

DW-WertInterpretationKonsequenz
≈ 2.0Keine Autokorrelation – optimalVoraussetzung erfüllt
1.5 – 2.5Akzeptabler BereichIn der Regel unbedenklich
< 1.5Positive AutokorrelationRobuste SE, GLS oder ARIMA erwägen
> 2.5Negative AutokorrelationModell und Datenstruktur prüfen

💡 Für die meisten Querschnittstudien kein Problem

Autokorrelation ist vor allem bei Zeitreihendaten, Panelstudien oder räumlich gruppierten Daten relevant. Bei einer typischen Querschnittserhebung in der Psychologie (einmalige Befragung, zufällig ausgewählte, unabhängige Teilnehmer) ist Autokorrelation der Residuen unwahrscheinlich. Trotzdem: Durbin-Watson berichten und im Methodenteil kurz kommentieren – es zeigt methodisches Bewusstsein.

8. Vollständige Prüf-Checkliste für den Methodenteil

Diese Checkliste fasst zusammen, was Sie in der Regel für eine multiple Regressionsanalyse prüfen und berichten müssen. Für andere Verfahren gelten Teilmengen davon (siehe Tabelle in Abschnitt 1).

M

Stichprobengröße & n:p-Verhältnis

Mindestens 10–20 Fälle pro Prädiktor. Gesamtstichprobe n > 50 für stabile Schätzer.

M

Univariate Ausreißer (z-Score, Boxplot)

Für jede Variable. Fälle mit |z| > 3.29 identifizieren, Entscheidung dokumentieren.

M

Multivariate Ausreißer (Mahalanobis-Distanz)

D² berechnen, mit χ²-kritischem Wert (df = Prädiktoren, p = .001) vergleichen.

M

Normalverteilung der Residuen

Shapiro-Wilk-Test und Q-Q-Plot der Regressionsresiduen (nicht der Rohdaten!).

M

Multikollinearität (VIF & Toleranz)

VIF < 10, Toleranz > .10 für alle Prädiktoren. In SPSS: Kollinearitätsdiagnostik.

M

Homoskedastizität (Residuenplot)

Streudiagramm Standardisierte Residuen vs. Vorhergesagte Werte – kein Trichtermuster.

S

Linearität (Streudiagramme / LOESS)

Je Prädiktor ein Streudiagramm gegen AV. Gekrümmte Muster = Linearitätsverletzung.

S

Unabhängigkeit der Residuen (Durbin-Watson)

DW-Wert berichten. Besonders wichtig bei Zeitreihen oder gruppierten Daten.

K

Einflussstatistiken (Cook's D, Leverage)

Für erhöhte Robustheit der Interpretation. Empfohlen wenn Ausreißer gefunden wurden.

M = Muss berichten | S = Sollte berichten | K = Kann berichten

Voraussetzungsprüfung für Ihre Arbeit

Promovierte Statistiker prüfen alle Voraussetzungen, berichten sie APA-konform und begründen Verletzungen methodisch
Statistik-Beratung →

9. APA-konformes Berichten der Voraussetzungsprüfung

Muster: Voraussetzungsprüfung im Methodenteil (multiple Regression)

Methodenteil

„Vor der Durchführung der multiplen Regressionsanalyse wurden alle relevanten Voraussetzungen geprüft. Univariate Ausreißer wurden anhand von z-Werten (Kriterium: |z| > 3.29) und Boxplots identifiziert; zwei Fälle wurden als Ausreißer erkannt und nach Ausschluss der Analyse nochmals geprüft – die Ergebnisse blieben substanziell unverändert. Multivariate Ausreißer wurden über die Mahalanobis-Distanz geprüft (χ²(3, p = .001) = 16.27); kein Fall überschritt den kritischen Wert. Die Normalverteilung der Residuen wurde mittels Shapiro-Wilk-Test (W = .98, p = .312) und Q-Q-Plot als gegeben beurteilt. Multikollinearität lag nicht vor (alle VIF < 3.1, Toleranzwerte > .32). Der Residuenplot zeigte keine Anzeichen von Heteroskedastizität. Der Durbin-Watson-Wert lag bei DW = 2.04, was auf Unabhängigkeit der Residuen hinweist."

Muster: Voraussetzungsprüfung bei Verletzung (ANOVA, Levene signifikant)

Methodenteil

„Der Levene-Test auf Varianzhomogenität ergab einen signifikanten Befund, F(2, 117) = 4.82, p = .010, was auf ungleiche Gruppenvarianzen hinweist. Da die ANOVA bei ausreichend großer Stichprobe robust gegenüber moderaten Verletzungen der Varianzhomogenität ist (Tabachnick & Fidell, 2019), werden die F-Tests dennoch berichtet. Ergänzend wird die Welch-ANOVA ausgewiesen, die keine Varianzhomogenität voraussetzt. Die Schlussfolgerungen beider Analysen stimmen überein."

Häufige Fragen zur Voraussetzungsprüfung

Muss ich Ausreißer immer entfernen?

Nein – und das ist eine der häufigsten Fehlannahmen. Ausreißer entfernt man nur, wenn einer dieser Gründe vorliegt: (1) Dateneingabefehler oder Messfehler, (2) Person gehört offensichtlich nicht zur Zielpopulation, (3) der Fall ist technisch fehllaufend (z.B. Computerausfall während der Messung). Ansonsten: Analyse mit und ohne Ausreißer durchführen, beide Ergebnisse berichten und bewerten ob die Interpretation sich ändert. Willkürliches Entfernen von Ausreißern um bessere p-Werte zu erzielen ist Daten-Manipulation.

Der Shapiro-Wilk-Test ist signifikant – darf ich trotzdem die Regression rechnen?

Ja, in den meisten Fällen. Erstens bezieht sich die NV-Annahme auf die Residuen, nicht die Rohdaten – prüfen Sie nochmal die Residuen nach der Schätzung. Zweitens ist bei n > 30 die multiple Regression robust gegenüber NV-Verletzungen durch den Zentralen Grenzwertsatz. Drittens ist der Shapiro-Wilk-Test bei großen Stichproben (n > 100) fast immer signifikant, selbst bei praktisch normaler Verteilung. Beurteilen Sie den Q-Q-Plot visuell – wenn die Punkte annähernd auf der Diagonalen liegen, ist die Verteilung ausreichend normal. Im Methodenteil: Verletzung benennen, Robustheit begründen.

Wie viele Prädiktoren darf ich in eine Regression aufnehmen?

Die Faustregel: mindestens 10–20 Fälle pro Prädiktor. Bei n = 100 also maximal 5–10 Prädiktoren. Strengere Kriterien: Green (1991) empfiehlt n ≥ 50 + 8m (m = Prädiktoren) für Testen des Gesamtmodells und n ≥ 104 + m für individuelle Prädiktoren. Bei zu vielen Prädiktoren: R² wird systematisch überschätzt (Overfitting). Im Methodenteil begründen, warum die Prädiktoren theoriegeleitet ausgewählt wurden – keine stepwise regression ohne Hypothesen.

Was ist der Unterschied zwischen Varianzhomogenität (Levene) und Homoskedastizität?

Inhaltlich dasselbe Konzept, aber für verschiedene Verfahren: Levene-Test prüft Varianzhomogenität bei ANOVA – gleiche Streuung der AV in allen Gruppen. Homoskedastizität in der Regression bedeutet, dass die Residualstreuung über alle Ausprägungen des Prädiktors gleich ist – geprüft mit dem Residuenplot. Verletzung heißt in beiden Fällen Heteroskedastizität, aber die Tests und Lösungen unterscheiden sich: bei ANOVA → Welch-Korrektur; bei Regression → robuste Standardfehler (HC3).

Wo genau im Methodenteil berichte ich die Voraussetzungsprüfung?

Die Voraussetzungsprüfung gehört in den Methodenteil, Unterabschnitt Auswertungsverfahren – typischerweise direkt vor oder nach der Beschreibung der statistischen Verfahren. Viele Betreuer erwarten eine eigene Unterüberschrift: „Voraussetzungsprüfung" oder „Datenbereinigung und Voraussetzungen". Einige Betreuende präferieren, Ergebnisse der Voraussetzungsprüfung im Ergebnisteil als erstes Unterkapitel zu berichten. Fragen Sie im Zweifel nach – es gibt institutionell unterschiedliche Konventionen.

Weitere Methodik-Guides für Psychologie-Arbeiten

Regressionsanalyse APA-Stil

β-Koeffizienten, R², ΔR², Modellvergleich – der vollständige Ergebnisabschnitt für multiple Regression.

→ Zum Guide

Mediator- & Moderatoranalyse

Hayes PROCESS Macro, Bootstrapping, indirekter Effekt – die Voraussetzungsprüfung gilt auch hier.

→ Zum Guide

Nicht-signifikante Ergebnisse

Was tun wenn Voraussetzungen verletzt sind und die Hypothesen nicht bestätigt werden? Professioneller Umgang.

→ Zum Guide

← Zurück zum Methodik-Hub

Voraussetzungen in SPSS prüfen lassen?

Unsere promovierten Statistiker führen die komplette Voraussetzungsprüfung durch, dokumentieren Verletzungen APA-konform und empfehlen geeignete Alternativen – für Bachelor-, Master- und Doktorarbeiten.

Ghostwriter Bachelorarbeit Ghostwriter Kostenlos anfragen

Das sagen unsere Kunden

Ausgezeichnet
4.9
Leon B.
2 Monaten ago
Die Kommunikation verlief herrvoragend, alle Wünsche wurden stets schnell bearbeitet. Das Ergebnis war so wie ich es mir vorgestellt hatte!
Denis G.
1 Jahr ago
sehr kompetente und zuverlässige Abwicklung. Kein Vergleich zu den anderen Anbietern. Top Support und Abwicklung.
Kerem K.
1 Jahr ago
Es war eine gute Zusammenarbeit und sehr zuverlässig.

Ich kann die Agentur mit gutem
Gewissens empfehlen ! :)
Elli
2 Jahren ago
Die Projektarbeit konnte super schnell geprüft werden. Leider kam es aufgrund technischer Probleme zu einer Überzahlung - die Erstattung habe ich Blitz schnell für die 2. Zahlung erhalten. Kann ich nur empfehlen, bin sehr glücklich!
Claudia T.
2 Jahren ago
Ich hab auf dieser Seite eine Plagiatsprüfung durchführen lassen, die sehr zu empfehlen und von anderen heraussticht, da sie auch von allen gängigen Unis benutzt wird. Im ersten Moment war ich sehr erschrocken, weil es bei mir Auffälligkeiten gab, die ich mir nicht erklären konnte. Zwei Tage vor Abgabe, habe ich diesen Scan durchlaufen lassen, meine Nerven lagen blank und ich war sehr verzweifelt. Aus der Verzweiflung heraus, habe ich den Support angeschrieben, weil ich die Ergebnisse auch nicht ein- und zuordnen konnte. Netterweise wurde mir sehr schnell geantwortet, sie haben sich die Zeit genommen, um sich meine Arbeit nochmal anzuschauen, meine Fragen beantwortet und ich wurde beruhigt, dass alles ohne zusätzliche Kosten ! Danke, Danke, Danke für diese tolle Unterstützung und den tollen herzlichen Support! Ich kann sie vom ganzem Herzen weiterempfehlen!
Ulrich H.
2 Jahren ago
Ich benötigte eine umfassende Literaturrecherche für ein populäres Sachbuch. Die erfolgte sehr gründlich und wurde sogar schneller geliefert als erwartet. Die Auftragnehmerin oder der Auftragnehmer hat auch sehr gut mitgedacht. Ich war mit der Arbeit ausgesprochen zufrieden! (Über das Ghostwriting kann ich nichts sagen, für mich wurde ja nichts geschrieben.)
Julia F.
3 Jahren ago
Sehr professionelle Abwicklung, schnelle Umsetzung der Wünsche. Die BAS ist sehr zu empfehlen.
S
4 Jahren ago
Sehr guter Ablauf, alle Wünsche werden schnell umgesetzt!
crossmenu