Power-Analyse mit G*Power:
Stichprobenplanung für Psychologie-Arbeiten

Die Power-Analyse ist Pflichtbestandteil jedes Psychologie-Exposés – und gleichzeitig der Abschnitt, an dem die meisten Studierenden scheitern. Dieser Guide erklärt α- und β-Fehler, Effektstärken, Teststärke und die genaue Bedienung von G*Power für alle relevanten statistischen Verfahren.

α- & β-Fehler verstehen
Effektstärken d, f, r
A-priori vs. post-hoc
G*Power Schritt für Schritt
Exposé-Formulierung

Die Power-Analyse scheitert in den allermeisten Fällen nicht an G*Power selbst, sondern an der Begründung der Effektstärke und der Wahl des richtigen Tests im Drop-down-Menü. Beides klingt trivial – kostet in der Praxis aber Stunden und führt zu falsch berechneten Stichprobengrößen, die das gesamte Studiendesign untergraben. Bei der Ghostwriter-Agentur Business And Science gehört die G*Power-Berechnung mit literaturbasierter Effektstärken-Begründung zum Standardumfang jeder Exposé-Mustervorlage. Unsere promovierten Statistiker haben diese Berechnung in über 12.000 Projekten seit 2012 für sämtliche gängigen Designs durchgeführt.

1. Warum Power-Analyse? Die Grundidee

Eine Studie mit zu kleiner Stichprobe kann einen real vorhandenen Effekt statistisch nicht nachweisen – nicht weil der Effekt nicht existiert, sondern weil die Studie nicht „scharf" genug ist. Das ist analog zu einem Fernglas: Mit einem zu schwachen Gerät sehen Sie einen weit entfernten Vogel nicht, obwohl er dort sitzt.

.80Minimum-Power nach Cohen (1988) – 80% Wahrscheinlichkeit, einen echten Effekt zu finden
.05Konventionelles α-Niveau – 5% Risiko, einen nicht-existenten Effekt zu „finden"
~50%Geschätzte durchschnittliche Power in veröffentlichten Psychologie-Studien (Szucs & Ioannidis, 2017)

💡 Power-Analyse: Pflicht im Exposé, Qualitätsmerkmal in der Arbeit

Betreuende Professorinnen und Professoren erwarten im Exposé eine begründete Stichprobenplanung. Ohne Power-Analyse wirkt das Forschungsdesign beliebig – als hätten Sie die Stichprobengröße „aus dem Bauch" gewählt. Mit einer sauberen Power-Analyse demonstrieren Sie methodisches Bewusstsein und erhöhen gleichzeitig die Glaubwürdigkeit Ihrer späteren Ergebnisse, egal ob signifikant oder nicht.

2. α-Fehler, β-Fehler und Power: Das Entscheidungsquadrat

In der Inferenzstatistik gibt es vier mögliche Kombinationen aus Realität und Testergebnis. Zwei davon sind korrekt, zwei sind Fehler.

Realität: H₀ wahr (kein Effekt)
Realität: H₁ wahr (Effekt vorhanden)
Test: H₀ nicht verworfen
✓ Korrekte Entscheidung
Wahrscheinlichkeit: 1 − α
(z.B. .95)
✗ β-Fehler (Typ-II)
Effekt übersehen.
Wahrscheinlichkeit: β (z.B. .20)
Test: H₀ verworfen
✗ α-Fehler (Typ-I)
Falsch positiv.
Wahrscheinlichkeit: α (z.B. .05)
✓ Power (1 − β)
Effekt korrekt entdeckt.
Wahrscheinlichkeit: 1−β (z.B. .80)

α-Fehler (Typ-I-Fehler): Falsch positiv

Sie verwerfen die Nullhypothese, obwohl kein echter Effekt vorliegt. In der Psychologie konventionell auf α = .05 festgelegt. Das bedeutet: Bei 100 Studien ohne echten Effekt werden im Durchschnitt 5 fälschlicherweise einen Effekt „finden". Bei mehrfachen Tests: α-Korrektur (Bonferroni, Holm) notwendig.

β-Fehler (Typ-II-Fehler): Falsch negativ

Sie behalten die Nullhypothese bei, obwohl ein echter Effekt vorhanden ist. Konvention: β = .20, entspricht Power = .80. Das bedeutet: Bei 100 Studien mit echtem Effekt werden 20 den Effekt verpassen. Für klinische Entscheidungen wird oft Power ≥ .90 gefordert.

Power als Funktion der Stichprobengröße (t-Test, α = .05)

0 .20 .40 .60 .80 1.0 20 40 60 80 100 120 140 n (pro Gruppe) 1−β=.80 n≈197 n≈52 n≈26 Kleiner Effekt (d = .20) Mittlerer Effekt (d = .50) Großer Effekt (d = .80)

3. Effektstärken: d, f, r, η² und w

Jedes statistische Verfahren hat seine eigene Effektstärkenmetrik. G*Power erwartet die zur Analyse passende – ein häufiger Fehler ist die Verwendung der falschen Metrik.

EffektstärkeVerfahrenKleinMittelGroßUmrechnung
Cohens dt-Tests (2 Gruppen).20.50.80d = 2r / √(1−r²)
Cohens fANOVA, RM-ANOVA.10.25.40f = √(η²/(1−η²))
Pearson rKorrelation, Regression.10.30.50r = d / √(d²+4)
f² (Cohen)Multiple Regression.02.15.35f² = R²/(1−R²)
η²p (partiell)ANOVA-Verfahren.01.06.14f = √(η²p/(1−η²p))
Cohens wChi-Quadrat-Tests.10.30.50w = √(χ²/n)
OR / RRLogistische Regression1.52.54.0→ w über Kovariate

Die Umrechnung η²p → f: Der Fehler, der am teuersten ist

Wenn Studierende η²p direkt als Cohens f in G*Power eingeben, wird die benötigte Stichprobe massiv unterschätzt – manchmal um den Faktor 3 oder mehr. In Exposés, die bei uns zur Prüfung eingehen, ist das der häufigste einzelne Rechenfehler. Unsere Statistiker führen die Umrechnung korrekt durch und dokumentieren jeden Schritt so, dass er für Betreuer nachvollziehbar ist. Zur Statistik-Beratung.

⚠️ η²p ≠ Cohens f – die häufigste Verwechslung

G*Power für ANOVA erwartet Cohens f, nicht η²p. Die Umrechnung: f = √(η²p / (1 − η²p)). Beispiel: η²p = .06 → f = √(.06/.94) = √.0638 = .253 ≈ .25 (mittlerer Effekt). Wer η²p direkt als f eingibt, berechnet eine viel zu kleine Stichprobe – mit fatalen Folgen für die Powerkalkulation.

4. Effektstärke begründen: Die 3 Quellen

Die am häufigsten gestellte Frage beim Schreiben des Exposés: „Woher weiß ich, welche Effektstärke ich erwarten soll?" Es gibt drei legitime Ansätze – in absteigender methodischer Qualität.

1

Vorstudien & Metaanalysen (beste Quelle)

Recherchieren Sie Studien mit ähnlichem Design, ähnlicher Stichprobe und ähnlichem Konstrukt. Berichten diese Studien Effektstärken? Gibt es Metaanalysen zum Thema? Zitieren Sie 1–3 relevante Studien und leiten Sie aus deren Effektstärken Ihre Erwartung ab. Beispiel: „Bisherige Studien zu MBSR bei Angststörungen zeigen Effekte von d = .48–.62 (Fischer et al., 2021; Khoury et al., 2015). Wir nehmen konservativ d = .45 an."

2

Pilotstudie / eigene Vorerhebung

Sie haben eine kleine Vorerhebung (n = 20–30) durchgeführt? Berechnen Sie die beobachtete Effektstärke und verwenden Sie einen konservativen Anteil davon (z.B. 75% des beobachteten Effekts) für die Hauptstudienplanung. Begründen Sie die Abwärtskorrektur: Pilotstudieneffekte werden typischerweise überschätzt (Regression zur Mitte).

3

Konventionelle Effektstärken nach Cohen

Als letzter Ausweg: Cohens Konventionen (klein / mittel / groß). Verwenden Sie in der Regel den mittleren Effekt – und begründen Sie dies explizit: „Da keine Vorpublikationen zu diesem spezifischen Design vorliegen, wird gemäß Cohen (1988) ein mittlerer Effekt (d = .50) angenommen, der in der sozialwissenschaftlichen Forschung als repräsentativer Schätzwert gilt." Nie ohne Begründung – Gutachter akzeptieren dies nur wenn erklärt wird, warum keine bessere Quelle verfügbar ist.

Die Literaturrecherche zur Effektstärkenbegründung ist zeitaufwändig – und wird von Gutachtern trotzdem erwartet. Unsere Methodiker recherchieren die passenden Metaanalysen für Ihr spezifisches Konstrukt und formulieren den Begründungsabsatz so, dass er wissenschaftlichen Standards entspricht. Jetzt anfragen.

5. G*Power Schritt für Schritt

G*Power ist kostenlos verfügbar unter psycho.uni-duesseldorf.de/abteilungen/aap/gpower3 (Windows und macOS). Die Oberfläche ist einfach – aber die richtige Parameterwahl erfordert methodisches Wissen.

Schritt 1

Test family & Statistical test wählen

Wählen Sie zuerst die Test family (z.B. t-Tests, F-Tests, χ²-Tests) und dann den konkreten Test. Beispiele:

  • Zwei unabhängige Gruppen → t-Tests → Means: Difference between two independent means
  • ANOVA einfaktoriell → F Tests → ANOVA: Fixed effects, omnibus, one-way
  • RM-ANOVA → F Tests → ANOVA: Repeated measures, within factors
  • Korrelation → Exact → Correlation: Bivariate normal model
  • Multiple Regression → F Tests → Linear multiple regression: Fixed model, R² deviation from zero
Schritt 2

Type of power analysis: A priori

Für Exposé und Stichprobenplanung immer „A priori: Compute required sample size" wählen. Die anderen Typen:

  • Post hoc: berechnet Power für gegebenes n (nach der Studie)
  • Sensitivity: berechnet den kleinsten detektierbaren Effekt
  • Criterion: berechnet kritischen α-Wert für gegebene Power und n

Für das Exposé: ausschließlich A priori verwenden.

Schritt 3

Eingabeparameter befüllen

Die vier Pflichtparameter:

  • Effect size: Ihre begründete Effektstärke (in der richtigen Metrik – d, f, r etc.)
  • α err prob: .05 (Standard; .01 bei mehrfachen Tests)
  • Power (1−β err prob): .80 (Minimum); .90 oder .95 bei klinischen Studien
  • Allocation ratio (bei t-Test): 1 für gleich große Gruppen
Schritt 4

Output lesen & dokumentieren

G*Power gibt aus:

  • Total sample size: Gesamte benötigte Stichprobe
  • Actual power: Erreichte Power (leicht über dem Zielwert)
  • Critical t / F / χ²: Kritischer Testwert

Wichtig: Screenshot der G*Power-Ausgabe im Anhang der Arbeit aufnehmen – viele Betreuer verlangen das als Dokumentation.

Vollständiges Beispiel: A-priori Power-Analyse für unabhängigen t-Test

Fragestellung: Unterscheiden sich MBSR-Gruppe und Kontrollgruppe in Angstwerten (d = .50, α = .05, Power = .80)?

  • Test family: t Tests
  • Statistical test: Means: Difference between two independent means (two groups)
  • Type of power analysis: A priori
  • Tail(s): Two (bei ungerichteter Hypothese) oder One (bei gerichteter)
  • Effect size d: 0.50
  • α err prob: 0.05
  • Power: 0.80
  • Allocation ratio N2/N1: 1
  • → Output: n = 52 pro Gruppe, N gesamt = 104

Planen Sie einen Dropout-Puffer ein (typisch: 10–20% Mehrrekrutierung): 104 × 1.15 ≈ 120 Personen rekrutieren.

6. Referenztabelle: Benötigtes n für häufige Psychologie-Designs

Diese Tabelle gibt Orientierungswerte für α = .05 und Power = .80. Alle Werte wurden mit G*Power berechnet. Bei Power = .90 erhöhen sich die Werte um ca. 30–35%.

VerfahrenKleiner EffektMittlerer EffektGroßer EffektG*Power-Einstellung
t-Test (2 unabhängige Gruppen)394 gesamt104 gesamt52 gesamtd = .20 / .50 / .80
t-Test (1 Gruppe / gepaart)1985426d = .20 / .50 / .80
ANOVA einfaktoriell (3 Gruppen)96915966f = .10 / .25 / .40
ANOVA einfaktoriell (4 Gruppen)114418976f = .10 / .25 / .40
RM-ANOVA (3 MZP, r = .50)2464218f = .10 / .25 / .40
Mixed ANOVA (2×3, r = .50)4327230Interaction f = .10/.25/.40
Korrelation (bivariate)7828428r = .10 / .30 / .50
Multiple Regression (3 Prädiktoren)5527736f² = .02 / .15 / .35
Chi-Quadrat (2×2 Tabelle)7858729w = .10 / .30 / .50
Mediation (indirekter Effekt, MC)~500+~148~75Monte-Carlo (Schoenmann)

💡 RM-ANOVA braucht weit weniger Personen – warum?

Bei Messwiederholungsdesigns messen Sie dieselben Personen mehrfach. Die Korrelation zwischen den Messzeitpunkten (r, in G*Power: „Corr among rep measures") reduziert die Fehlervarianz erheblich – je höher die Korrelation, desto kleiner kann die Stichprobe sein. Standard-Schätzung: r = .50. Wenn Sie Vorwissen haben (z.B. aus Testretest-Reliabilität Ihres Instruments), verwenden Sie diesen Wert.

7. Power-Analyse im Exposé formulieren

Der Power-Analyse-Abschnitt im Exposé sollte knapp, präzise und vollständig sein. Gutachter prüfen, ob alle vier Parameter begründet sind.

Muster: Power-Analyse im Exposé (t-Test, d = .50)

Exposé-Abschnitt

„Zur Bestimmung der erforderlichen Stichprobengröße wurde eine a-priori Power-Analyse mit der Software G*Power (Version 3.1.9.7; Faul et al., 2009) durchgeführt. Basierend auf vergleichbaren Interventionsstudien zu MBSR (Fischer et al., 2021: d = .48; Khoury et al., 2015: d = .55) wird für den geplanten unabhängigen t-Test ein mittlerer Effekt von d = 0.50 angenommen. Bei einem zweiseitigen α = .05 und einer angestrebten Teststärke von 1 − β = .80 ergibt sich eine erforderliche Stichprobengröße von N = 104 (n = 52 pro Gruppe). Um einen Dropout von bis zu 15% zu kompensieren, werden N = 120 Personen rekrutiert."

Muster: Power-Analyse für Mixed ANOVA (Interaktionseffekt)

Exposé-Abschnitt

„Für die geplante Mixed ANOVA (2 Gruppen × 3 Messzeitpunkte) wurde eine a-priori Power-Analyse in G*Power (F Tests → ANOVA: Repeated measures, within-between interaction) durchgeführt. Als Zielgröße dient der Interaktionseffekt Zeit × Gruppe, für den ein mittlerer Effekt von f = .25 (entspricht η²p = .059) angenommen wird, basierend auf Metaanalysen zu psychologischen Interventionen (Cuijpers et al., 2019). Bei einer Inter-Messzeitpunkt-Korrelation von r = .50, α = .05 und Power = .80 ergibt sich N = 72 (n = 36 pro Gruppe). Unter Berücksichtigung eines 15%-Dropouts werden N = 84 Personen rekrutiert."

Exposé-Abschnitte in dieser Vollständigkeit – mit Software-Version, Literaturbelegen für die Effektstärke, Dropout-Puffer und G*Power-Screenshot im Anhang – liefern unsere Psychologie-Autoren als festen Bestandteil jeder Exposé-Mustervorlage. Der Unterschied zu typischen Studierendentexten: Jeder Parameter ist begründet, nicht nur angegeben.

Exposé Power-Analyse unklar?

Unsere Statistik-Experten berechnen Ihre G*Power-Analyse und formulieren den Abschnitt APA-konform
Exposé schreiben lassen →

8. Post-hoc Power: Sinnlos oder nützlich?

Eine post-hoc Power-Analyse berechnet die Power für eine bereits abgeschlossene Studie – also rückwirkend für das tatsächlich verwendete n und den beobachteten Effekt. Sie ist in der Methodenliteratur höchst umstritten.

❌ Observed Power: Warum sinnlos

Die „Beobachtete Power" (observed power) in SPSS basiert auf der beobachteten Effektstärke – nicht auf der wahren Effektstärke. Bei nicht-signifikanten Ergebnissen ist die beobachtete Effektstärke fast immer klein → beobachtete Power fast immer niedrig. Das ist mathematisch trivial und sagt nichts über die Qualität der Studie aus. Hoenig & Heisey (2001) zeigen, dass observed power keine neue Information über die Nullhypothese liefert.

✅ Sensitivity-Analyse: Die sinnvolle Alternative

Fragen Sie stattdessen: „Was war der kleinste Effekt, den meine Studie mit Power = .80 hätte entdecken können?" G*Power → Sensitivity: Compute required effect size. Eingabe: α, Power, n. Output: Minimaler detektierbarer Effekt. Wenn dieser Effekt größer ist als der theoretisch erwartete, war die Studie zu klein – das ist eine legitime und informative Aussage im Diskussionsteil.

⚠️ Observed Power nicht berichten

SPSS gibt bei ANOVA automatisch die „Beobachtete Schärfe" (Observed Power) aus. Diese Zahl ist methodisch bedeutungslos und sollte nicht im Ergebnisteil zitiert werden. Berichten Sie stattdessen im Diskussionsteil die Sensitivity-Analyse: „Die Studie hatte ausreichend Power, um Effekte ab d = X zu entdecken" – das ist inhaltlich informativ.

9. Häufige Fehler bei der Power-Analyse

① Falsche Effektstärkenmetrik

η²p statt Cohens f in G*Power eingegeben. ANOVA braucht f, nicht η²p. Umrechnung nicht vergessen: f = √(η²p/(1−η²p)).

② Keine Begründung der Effektstärke

„Wir nehmen d = .50 an" ohne Quellenangabe oder Begründung. Gutachter fragen immer: Woher kommt dieser Wert? Mindestens: Cohen-Konvention mit Erklärung.

③ Kein Dropout-Puffer eingeplant

G*Power berechnet die Netto-Stichprobe. Realistischer Dropout in der Psychologie: 10–20%. Immer mit Brutto-Rekrutierungsziel planen und dies im Exposé begründen.

④ Falsche Anzahl Gruppen oder Messwiederholungen

Bei RM-ANOVA: Anzahl der Messzeitpunkte und die Korrelation zwischen ihnen (r) korrekt eingeben. Standard: r = .50. Wer r = 0 eingibt, erhält eine viel zu große Stichprobenschätzung.

⑤ Post-hoc Power als Qualitätskriterium

Observed Power aus SPSS im Ergebnisteil zitiert. Methodisch sinnlos – durch die Sensitivitätsanalyse ersetzen.

⑥ Power = .80 als heilige Zahl

Bei klinischen Anwendungen (Diagnostik, Behandlungsentscheidungen) sollte Power ≥ .90 oder .95 angestrebt werden. Die .80-Konvention ist eine untere Grenze, kein Optimalwert.

Fehler ① und ② zusammen machen über 80% aller Power-Analyse-Korrekturen aus, die wir in den Exposés vornehmen. Beide lassen sich vor der Datenerhebung in einer Beratungsstunde klären – danach steht Ihre Stichprobenplanung auf solidem Fundament. Hier unverbindlich anfragen.

Häufige Fragen zur Power-Analyse mit G*Power

Ich finde keine Vorstudien zu meinem Thema – welche Effektstärke nehme ich?

Verwenden Sie Cohens mittleren Effekt (d = .50, f = .25, r = .30) und begründen Sie das explizit: „Da keine spezifischen Vorstudien für dieses Design vorliegen, wird gemäß Cohen (1988) ein mittlerer Effekt angenommen, der in der sozialwissenschaftlichen Forschung als repräsentativer Schätzwert gilt." Alternativ: Recherchieren Sie Metaanalysen in angrenzenden Gebieten (z.B. wenn Sie eine spezielle Angstbehandlung untersuchen, suchen Sie Metaanalysen zu Angstbehandlungen allgemein) und verwenden Sie den Mittelwert der dort berichteten Effekte.

Wie berechne ich die Power für eine Mediationsanalyse mit Hayes?

G*Power hat keine direkte Option für Mediationsanalysen. Der beste Ansatz: Monte-Carlo-Simulation nach Schoemann et al. (2017) – kostenloses Online-Tool unter schoemannsimulation.shinyapps.io/mediation. Eingabe: erwartete Pfadkoeffizienten a und b, Stichprobengröße, Bootstrap-Samples. Das Tool berechnet die Power für den indirekten Effekt. Als einfachere Näherung: Berechnen Sie die Power für die beiden Einzelregressionen (a-Pfad und b-Pfad) separat in G*Power und nehmen Sie die niedrigere als konservativen Schätzwert.

Meine Studie hat zu wenige Teilnehmer für die geplante Power – was nun?

Drei Optionen: (1) Rekrutierung ausweiten – weitere Plattformen nutzen (Prolific, SurveyCircle, Aushänge), Zeitraum verlängern. (2) Design vereinfachen – weniger Prädiktoren, ein Messzeitpunkt weniger reduziert den n-Bedarf. (3) Sensitivitätsanalyse statt Poweranalyse: Berichten Sie im Diskussionsteil, dass die erreichte Stichprobe Effekte ab d = X mit .80 Power hätte entdecken können – und beurteilen Sie, ob der gefundene Effekt trotzdem praktisch bedeutsam ist. Nicht verschweigen, sondern transparent machen.

Muss ich G*Power im Anhang dokumentieren?

Es ist dringend empfohlen und von vielen Betreuern explizit verlangt. Fügen Sie einen Screenshot der G*Power-Ausgabe (inkl. aller Eingabeparameter und des Power-Plots) im Anhang ein. Alternativ: Berichten Sie alle Parameter so vollständig im Text, dass die Analyse reproduzierbar wäre. APA 7 empfiehlt die Angabe der verwendeten Software inklusive Version (z.B. „G*Power Version 3.1.9.7") und der Literaturquelle (Faul et al., 2007 oder 2009). Unsere Autoren liefern den G*Power-Screenshot formatiert als Anhangseite mit.

Gilt Power = .80 auch für qualitative Forschung?

Nein. Power-Analyse im statistischen Sinne bezieht sich auf quantitative, inferenzstatistische Verfahren. In qualitativer Forschung gibt es kein äquivalentes Konzept – Stichprobenplanung erfolgt hier über theoretische Sättigung, bewusste Fallauswahl (purposive sampling) und Gütekriterien qualitativer Forschung (Transferierbarkeit, Glaubwürdigkeit). Für gemischte Methoden (Mixed Methods): Power-Analyse nur für den quantitativen Teil, für den qualitativen Teil Begründung der Fallzahl über inhaltliche Kriterien.

Weitere Methodik-Guides für Psychologie-Arbeiten

Voraussetzungsprüfung

Mahalanobis-Distanz, VIF, Homoskedastizität – der erste Schritt nach der Datenerhebung, bevor Ihre Stichprobe in die Analyse geht.

→ Zum Guide

Stichprobenbeschreibung & Rekrutierung

WEIRD-Problem, Prolific vs. SurveyCircle, Inferenzpopulation – der Methodenteil nach der Rekrutierung.

→ Zum Guide

Nicht-signifikante Ergebnisse

Was tun, wenn die Hypothesen nicht bestätigt werden? Null-Befunde professionell einbetten und Limitationen sauber formulieren.

→ Zum Guide

← Zurück zum Methodik-Hub

Power-Analyse für Ihr Exposé?

Unsere Statistik-Experten berechnen die G*Power-Analyse für Ihr Design, begründen die Effektstärke aus der Literatur und formulieren den Abschnitt APA-konform – für Bachelor-, Master- und Doktorarbeiten.

Exposé schreiben lassen Ghostwriter Kostenlos anfragen

Das sagen unsere Kunden

Ausgezeichnet
4.9
Leon B.
2 Monaten ago
Die Kommunikation verlief herrvoragend, alle Wünsche wurden stets schnell bearbeitet. Das Ergebnis war so wie ich es mir vorgestellt hatte!
Denis G.
1 Jahr ago
sehr kompetente und zuverlässige Abwicklung. Kein Vergleich zu den anderen Anbietern. Top Support und Abwicklung.
Kerem K.
1 Jahr ago
Es war eine gute Zusammenarbeit und sehr zuverlässig.

Ich kann die Agentur mit gutem
Gewissens empfehlen ! :)
Elli
2 Jahren ago
Die Projektarbeit konnte super schnell geprüft werden. Leider kam es aufgrund technischer Probleme zu einer Überzahlung - die Erstattung habe ich Blitz schnell für die 2. Zahlung erhalten. Kann ich nur empfehlen, bin sehr glücklich!
Claudia T.
2 Jahren ago
Ich hab auf dieser Seite eine Plagiatsprüfung durchführen lassen, die sehr zu empfehlen und von anderen heraussticht, da sie auch von allen gängigen Unis benutzt wird. Im ersten Moment war ich sehr erschrocken, weil es bei mir Auffälligkeiten gab, die ich mir nicht erklären konnte. Zwei Tage vor Abgabe, habe ich diesen Scan durchlaufen lassen, meine Nerven lagen blank und ich war sehr verzweifelt. Aus der Verzweiflung heraus, habe ich den Support angeschrieben, weil ich die Ergebnisse auch nicht ein- und zuordnen konnte. Netterweise wurde mir sehr schnell geantwortet, sie haben sich die Zeit genommen, um sich meine Arbeit nochmal anzuschauen, meine Fragen beantwortet und ich wurde beruhigt, dass alles ohne zusätzliche Kosten ! Danke, Danke, Danke für diese tolle Unterstützung und den tollen herzlichen Support! Ich kann sie vom ganzem Herzen weiterempfehlen!
Ulrich H.
2 Jahren ago
Ich benötigte eine umfassende Literaturrecherche für ein populäres Sachbuch. Die erfolgte sehr gründlich und wurde sogar schneller geliefert als erwartet. Die Auftragnehmerin oder der Auftragnehmer hat auch sehr gut mitgedacht. Ich war mit der Arbeit ausgesprochen zufrieden! (Über das Ghostwriting kann ich nichts sagen, für mich wurde ja nichts geschrieben.)
Julia F.
3 Jahren ago
Sehr professionelle Abwicklung, schnelle Umsetzung der Wünsche. Die BAS ist sehr zu empfehlen.
S
4 Jahren ago
Sehr guter Ablauf, alle Wünsche werden schnell umgesetzt!
crossmenu