Systematische Fehler bei der FRS-Auswertung
in Zahnmedizin-Doktorarbeiten vermeiden

Kephalometrische Analysen sind das methodische Rückgrat vieler kieferorthopädischer Dissertationen. Doch fehlerhafte Landmarken-Setzung, mangelnde Kalibrierung und falsche Statistik entwerten die Ergebnisse. Dieser Ratgeber zeigt, wie Sie systematische Fehler bei der Fernröntgenseitenbildanalyse (FRS) erkennen, vermeiden und im Methodenteil korrekt dokumentieren. Zusammengestellt von promovierten Kieferorthopäden mit Erfahrung in kephalometrischer Forschung und Reliabilitätsstatistik.

Landmarken-Identifikation & Fehlerquellen
Intra- & Inter-Rater-Kalibrierung
Dahlberg-Formel & ICC berechnen
Analyse-Software korrekt einsetzen
Typische Gutachter-Kritik vermeiden

FRS-basierte Dissertationen scheitern selten an der Fragestellung – sie scheitern an der Methodik: Landmarken ohne operationale Definition gesetzt, Reliabilitätsprüfung mit Pearson statt ICC berichtet, Vergrößerungsfaktor nicht korrigiert, AI-Landmarken ohne manuelle Kontrolle verwendet. Als Ghostwriting-Agentur mit kieferorthopädischem Ghostwritern formulieren wir den Methodenteil Ihrer KFO-Dissertation so, dass Kalibrierung mit Dahlberg, ICC und Bland-Altman dokumentiert, Landmarken operationalisiert und Doppelprojektionen adressiert sind. Unsere Akademiker kennen die Fehleranfälligkeit jeder kephalometrischen Landmarke – von der gut identifizierbaren Sella bis zum konstruierten Gonion – und die Gutachter-Erwartungen an Reliabilitätsangaben in deutschen KFO-Dissertationen.

1. FRS-Analyse in der kieferorthopädischen Dissertation

Das Fernröntgenseitenbild (FRS, Lateral Cephalogram) ist das zentrale diagnostische Werkzeug in der Kieferorthopädie. In der Dissertation dient die kephalometrische Analyse dazu, skelettale und dentale Veränderungen zu quantifizieren – sei es als Behandlungsergebnis, Wachstumsveränderung oder Populationsvergleich.

📐

Kephalometrische Analysen

Die gängigsten Analysen in deutschen KFO-Dissertationen: Analyse nach Hasund (Bergen-Analyse), Ricketts, McNamara, Jarabak, Segner-Hasund. Jede Analyse verwendet definierte Landmarken, Strecken und Winkel – Fehler bei der Punktidentifikation pflanzen sich in alle abgeleiteten Messwerte fort.

🎓

Typische Dissertationsdesigns

Retrospektive Auswertung von FRS-Aufnahmen: Vorher-Nachher-Vergleich (T1 vs. T2) bei Behandlungsgruppen, Vergleich zweier Behandlungsmethoden, Wachstumsanalysen über 3+ Zeitpunkte, Vergleich mit Normpopulationen.

⚠️

Warum Fehler so kritisch sind

KFO-Behandlungseffekte im FRS sind oft klein (1–3 mm, 1–3°). Wenn der Messfehler in derselben Größenordnung liegt wie der Behandlungseffekt, wird die Studie wertlos. Die Methodenkontrolle entscheidet über die Validität der gesamten Arbeit.

Hasund, Ricketts, McNamara, Jarabak, Segner-Hasund – unsere Autoren kennen die gängigen kephalometrischen Analysen und wissen, dass Behandlungseffekte im FRS oft nur 1–3 mm oder 1–3° betragen. Wenn der Messfehler in derselben Größenordnung liegt, wird die Studie wertlos – und genau diese Methodenkontrolle ist es, die über die Validität der gesamten Dissertation entscheidet.

💡 Warum dieser Ratgeber?

In unserer Erfahrung mit über 13 Jahren zahnmedizinischer Promotionsbetreuung gehört die FRS-Auswertung zu den fehleranfälligsten Methoden in Dissertationen. Gutachter prüfen gezielt die Reliabilitätsangaben, die Landmarken-Definitionen und die Fehlerquantifizierung. Fehlende oder unvollständige Angaben sind ein häufiger Grund für Nachbesserungsforderungen.

2. Systematische vs. zufällige Fehler: Die Grundunterscheidung

Bei der FRS-Auswertung treten zwei grundsätzlich verschiedene Fehlertypen auf, die unterschiedliche Ursachen haben und unterschiedlich kontrolliert werden.

🎯

Systematische Fehler (Bias)

Konstante Abweichung in eine Richtung. Ursachen: falsches Verständnis einer Landmarken-Definition, konsistente Fehlidentifikation (z. B. Gonion immer zu weit posterior), fehlerhafte Software-Kalibrierung, nicht korrigierter Vergrößerungsfaktor.

Erkennung: Gepaarter t-Test zwischen zwei Messungen desselben Untersuchers. Signifikante Differenz → systematischer Fehler.

Konsequenz: Alle Messwerte sind in eine Richtung verschoben → Mittelwertvergleiche werden verzerrt.

🎲

Zufällige Fehler (Random Error)

Unsystematische Streuung um den wahren Wert. Ursachen: Unpräzise Landmarken-Definition (Punkt auf einer Kurve, nicht auf einer Ecke), Bildqualität (Überlagerungen, unscharfe Strukturen), Tagesformabhängigkeit des Untersuchers.

Erkennung: Dahlberg-Formel (Methodenfehler). Hoher Dahlberg-Wert → geringe Präzision.

Konsequenz: Erhöhte Streuung → Varianz wird überschätzt → Signifikanz wird schwerer erreichbar (Power sinkt).

Systematische Fehler mit gepaartem t-Test erkennen, zufällige Fehler mit der Dahlberg-Formel quantifizieren – unsere Ghostwriter dokumentieren beide Fehlertypen im Methodenteil Ihrer Dissertation und zeigen, dass sie auf ein akzeptables Niveau reduziert wurden. Die Unterscheidung zwischen Bias und Random Error ist der erste Schritt jeder Reliabilitätsprüfung – und der Schritt, den die meisten Studierenden überspringen.

Das Ziel: Sowohl systematische als auch zufällige Fehler minimieren

Ein perfekter Untersucher hätte weder systematische noch zufällige Fehler – jede Messung würde den identischen, wahren Wert ergeben. In der Praxis sind beide Fehlertypen unvermeidlich, aber kontrollierbar. Der Methodenteil der Dissertation muss zeigen, dass beide Fehlertypen quantifiziert und auf ein akzeptables Niveau reduziert wurden. Genau das ist die Aufgabe der Kalibrierung (Abschnitt 4) und der statistischen Fehlerkontrolle (Abschnitt 5).

3. Landmarken-Identifikation: Die kritischsten Punkte

Nicht alle kephalometrischen Landmarken sind gleich fehleranfällig. Die Identifikationssicherheit hängt davon ab, ob der Punkt auf einer klar definierten Struktur (z. B. Schneidezahnkante) oder auf einer sanft gekrümmten Kontur (z. B. Pogonion) liegt.

Fehleranfälligkeit kephalometrischer Landmarken

LandmarkeDefinitionFehleranfälligkeitTypische Fehlerquelle
Sella (S)Mittelpunkt der Sella turcicaGeringKontur meist gut abgrenzbar. Fehler: asymmetrische Sella → Mittelpunktschätzung variiert
Nasion (N)Vorderster Punkt der Sutura nasofrontalisGeringMeist deutlich sichtbar. Fehler: bei Erwachsenen kann die Sutur verknöchert sein
A-Punkt (Subspinale)Tiefster Punkt der Einziehung zwischen Spina nasalis anterior und AlveolarfortsatzMittelFlache Kontur → Punkt „wandert" vertikal. Inkonsistenz von 1–2 mm häufig
B-Punkt (Supramentale)Tiefster Punkt der Einziehung zwischen Alveolarfortsatz und KinnprominenzMittelÄhnlich wie A-Punkt: flache Kontur. Schwieriger bei ausgeprägtem Kinnpolster
Pogonion (Pg)Vorderster Punkt des knöchernen KinnsMittelSanfte Krümmung → Unterschiede von 1–3 mm zwischen Messungen
Gonion (Go)Konstruierter Punkt: Schnittpunkt von Tangente an Ramus posterior und Tangente an MandibularbasisHochDoppelt fehleranfällig: (1) Tangenten an gerundete Konturen, (2) Konstruktionspunkt. Streuung bis 5 mm
Articulare (Ar)Schnittpunkt der dorsalen Kontur des Ramus mit der SchädelbasisHochÜberlagerung von Atlas/Axis und Schädelbasis
Gnathion (Gn)Konstruierter Punkt: Schnittpunkt der Gesichtslinie (N-Pg) mit der MandibularebeneHochAbhängig von zwei anderen Konstruktionen → Fehler akkumulieren
SchneidezahnspitzeInzisalkante des am weitesten anterior stehenden SchneidezahnsGeringScharfe Kontur. Fehler: Doppelprojektion bei Rotationen

🚨 Die Doppelprojektions-Falle

Da das FRS ein zweidimensionales Summationsbild einer dreidimensionalen Struktur ist, projizieren bilaterale Strukturen (Ramus, Gonion, Orbita, Unterkieferkörper) als Doppelkonturen. Bei exakter Kopfpositionierung fallen sie zusammen – bei Rotation oder Asymmetrie entstehen zwei Linien. Die Konvention: Den Mittelwert beider Konturen verwenden. Fehler: Nur eine Kontur markieren oder inkonsistent zwischen rechter und linker Seite wechseln. Im Methodenteil dokumentieren: „Bei bilateraler Doppelprojektion wurde der Mittelwert beider Konturen verwendet."

Strategien zur Fehlervermeidung bei der Landmarken-Setzung

1

Operationale Definitionen festlegen

Vor Studienbeginn: Jede Landmarke schriftlich definieren – nicht nur mit dem Standardnamen, sondern mit einer operationalen Beschreibung für den konkreten Datensatz. Doppelprojektion, Konstruktionspunkte und Sonderfälle einschließen.

2

Referenz-Atlas verwenden

Einen kephalometrischen Atlas (z. B. Rakosi, Segner/Hasund) als Referenz bereitlegen und bei Unsicherheiten konsultieren. Idealerweise: Gemeinsame Kalibrierungssitzung mit dem Betreuer anhand von 5–10 Beispiel-FRS.

3

Helligkeit & Kontrast standardisieren

Digitale FRS-Bilder immer unter standardisierten Bedingungen auswerten: gleicher Monitor, gleiche Helligkeit/Kontrast-Einstellungen, Vergrößerungsstufe festlegen.

4

Randomisierte Reihenfolge

FRS-Aufnahmen in randomisierter Reihenfolge auswerten – nicht nach Patient oder Zeitpunkt sortiert. Grund: Erwartungsbias vermeiden.

5

Verblindung

Der Untersucher sollte verblindet sein: Weder die Gruppenzugehörigkeit noch der Zeitpunkt sollte beim Auswerten bekannt sein.

Operationale Definitionen festlegen, Referenz-Atlas konsultieren, Helligkeit standardisieren, randomisierte Reihenfolge, Verblindung – fünf Strategien, die zusammen die Landmarken-Identifikation von einer subjektiven Einschätzung zu einer reproduzierbaren Methode machen. Unsere Autoren dokumentieren alle fünf Strategien im Methodenteil und formulieren den Umgang mit Doppelprojektionen, konstruierten Punkten und Sonderfällen so, dass die Methodik reproduzierbar ist.

KFO-Dissertation mit FRS-Auswertung?

Unsere Ghostwriter mit kieferorthopädischem Hintergrund kennen die Fehlerquellen und die Gutachter-Erwartungen
Ghostwriter Kieferorthopädie →

4. Kalibrierung & Reliabilitätsprüfung: Der Goldstandard

Die Kalibrierung ist der wichtigste Schritt vor Beginn der eigentlichen Datenerhebung. Sie beweist, dass der Untersucher in der Lage ist, die Landmarken reproduzierbar zu identifizieren.

Intra-Rater-Reliabilität (Wiederholbarkeit)

Was wird geprüft?

Stimmt der Untersucher mit sich selbst überein, wenn er dieselben FRS-Aufnahmen zu zwei verschiedenen Zeitpunkten auswertet?

Vorgehen

  • Zufällige Auswahl von mindestens 20 FRS-Aufnahmen (besser 30)
  • Erste Messung durchführen und Ergebnisse speichern
  • Mindestens 2 Wochen Abstand
  • Zweite Messung derselben Aufnahmen in randomisierter Reihenfolge
  • Vergleich: Systematischer Fehler (gepaarter t-Test), zufälliger Fehler (Dahlberg), Übereinstimmung (ICC)

Inter-Rater-Reliabilität

Was wird geprüft?

Stimmen die Messungen des Doktoranden mit denen eines erfahrenen Referenzuntersuchers überein?

Vorgehen

  • Derselbe Satz von 20–30 FRS wird unabhängig von beiden Untersuchern ausgewertet
  • Vergleich: Dahlberg, ICC, Bland-Altman-Plot
  • Bei unzureichender Übereinstimmung: Erneute Kalibrierung

⚠️ Wann ist die Kalibrierung „gut genug"?

Faustregeln: ICC ≥ 0,90 = exzellent. ICC 0,75–0,89 = gut. ICC < 0,75 = problematisch. Für Winkelmaße: Dahlberg < 1,0° akzeptabel. Für Strecken: Dahlberg < 0,5 mm. Werte für jede einzelne Variable berichten, nicht nur einen Gesamt-ICC.

Kalibrierungsprotokoll: Muster für den Methodenteil

Formulierung für den Methodenteil

„Zur Bestimmung der Intra-Rater-Reliabilität wurden 25 zufällig ausgewählte Fernröntgenseitenbilder im Abstand von 3 Wochen vom selben Untersucher (P.M.) erneut ausgewertet. Die Reihenfolge der Aufnahmen wurde randomisiert. Systematische Fehler wurden mittels gepaarter t-Tests überprüft (Signifikanzniveau α = 0,05). Der zufällige Messfehler wurde nach der Dahlberg-Formel (d = √(Σd²/2n)) berechnet. Die Übereinstimmung wurde zusätzlich durch den Intraklassen-Korrelationskoeffizienten (ICC, two-way mixed model, absolute agreement) quantifiziert. Die Inter-Rater-Reliabilität wurde durch unabhängige Auswertung derselben 25 FRS durch einen zweiten kalibrierten Untersucher (Prof. Dr. X.Y.) bestimmt."

Intra-Rater-Reliabilität mit 25 FRS im 3-Wochen-Abstand, gepaarter t-Test für systematische Fehler, Dahlberg für zufällige Fehler, ICC mit 95%-KI für Gesamtübereinstimmung – unsere Akademiker berechnen die Reliabilitätsstatistik für Ihre KFO-Dissertation und formulieren den Kalibrierungsabschnitt im Methodenteil so, wie das Muster oben es zeigt: mit Stichprobengröße, Zeitabstand, Testverfahren und konkreten Ergebnissen für jede einzelne Variable.

5. Statistische Fehlerkontrolle: Dahlberg, ICC & Bland-Altman

Die drei Standardmethoden zur Quantifizierung des Messfehlers in kephalometrischen Studien.

📏 Dahlberg-Formel

Was: Zufälliger Messfehler (Method Error, ME)

Formel: d = √(Σd²/2n)

Ergebnis in mm oder °. Kleiner = besser.

📊 ICC (Intraklassenkorrelation)

Was: Gesamte Übereinstimmung

Modell: ICC(3,1) für Intra-Rater, ICC(2,1) für Inter-Rater

≥ 0,90 exzellent, 0,75–0,89 gut. Immer 95%-KI berichten!

📈 Bland-Altman-Plot

Was: Visuelle Darstellung der Übereinstimmung

X: Mittelwert beider Messungen. Y: Differenz. Limits of Agreement (±1,96 SD). Zeigt Bias und Proportionalfehler.

Syntax-Beispiele

R · Dahlberg-Formel & ICC
# Dahlberg-Formel (Method Error)
dahlberg <- function(m1, m2) {
  d <- m1 - m2
  sqrt(sum(d^2) / (2 * length(d)))
}
dahlberg(df$SNA_T1, df$SNA_T2)

# ICC (Paket: irr)
library(irr)
icc(cbind(df$SNA_T1, df$SNA_T2),
    model = "twoway", type = "agreement",
    unit = "single")

# Systematischer Fehler
t.test(df$SNA_T1, df$SNA_T2, paired = TRUE)
R · Bland-Altman-Plot
# Bland-Altman-Plot (Paket: blandr)
library(blandr)
blandr.draw(df$SNA_T1, df$SNA_T2,
    plotTitle = "Bland-Altman: SNA (Intra-Rater)")

# Oder manuell:
mean_vals <- (df$SNA_T1 + df$SNA_T2) / 2
diff_vals <- df$SNA_T1 - df$SNA_T2
plot(mean_vals, diff_vals,
    xlab = "Mittelwert", ylab = "Differenz")
abline(h = mean(diff_vals), col = "red")
abline(h = mean(diff_vals) + 1.96*sd(diff_vals), lty = 2)
abline(h = mean(diff_vals) - 1.96*sd(diff_vals), lty = 2)

💡 Warum Pearson-Korrelation NICHT ausreicht

Ein häufiger Fehler: Die Reliabilität wird mit dem Pearson-Korrelationskoeffizienten (r) angegeben. Pearson misst den linearen Zusammenhang, nicht die Übereinstimmung. Wenn Untersucher A alle Werte systematisch 3° höher misst als Untersucher B, ergibt sich r = 1,0, obwohl die Übereinstimmung schlecht ist. Verwenden Sie stattdessen den ICC und den Bland-Altman-Plot.

Dahlberg-Formel für den zufälligen Messfehler, ICC mit 95%-KI für die Gesamtübereinstimmung, Bland-Altman-Plot für die visuelle Darstellung von Bias und Proportionalfehler – unsere Ghostwriter berechnen alle drei Maße in R oder SPSS und stellen sicher, dass die Reliabilität nicht mit Pearson-Korrelation berichtet wird. Pearson misst linearen Zusammenhang, nicht Übereinstimmung – ein Fehler, den Gutachter in KFO-Dissertationen sofort erkennen.

6. Software & digitale Kephalometrie

Die Wahl der Analyse-Software beeinflusst die Reproduzierbarkeit und die Fehleranfälligkeit.

SoftwareVerbreitungVorteileKritische Fehlerquellen
Dolphin ImagingInternationaler StandardUmfangreiche Analysen, Auto-Landmarken, SuperimpositionAuto-Landmarken müssen manuell überprüft werden. Vergrößerungsfaktor korrekt einstellen!
Onyx CephDeutschsprachiger RaumGute Unterstützung deutscher Analysen (Hasund, Segner)Export-Format prüfen: Rohdaten oder bereits korrigierte Werte?
ViewboxUniversitäre Forschung3D-Kephalometrie möglich, DICOM-IntegrationLernkurve hoch. Koordinatensystem-Definition bei 3D kritisch
WebCeph / CephXCloud-basiert, AI-gestütztAutomatische Landmarken-Erkennung (KI), schnellAI-Landmarken NICHT fehlerfrei. Für Dissertationen: IMMER manuell nachprüfen.

🚨 AI-basierte Kephalometrie: Verlockung und Risiko

KI-Tools identifizieren Landmarken automatisch. Für Dissertationen ist die alleinige Verwendung problematisch: (1) Die Reproduzierbarkeit variiert zwischen Updates, (2) Gutachter akzeptieren keine „Black Box"-Methodik, (3) Fehlerhafte Auto-Landmarken bei schwierigen Fällen werden nicht erkannt. Empfehlung: AI als initiale Positionierung, dann jede Landmarke manuell überprüfen.

Vergrößerungsfaktor: Der unsichtbare Fehler

Warum der Vergrößerungsfaktor kritisch ist

Konventionelle FRS-Aufnahmen haben einen Vergrößerungsfaktor von ca. 5–13 %. Winkel sind nicht betroffen, aber alle linearen Messungen (mm) sind verzerrt.

  • Problem: T1 auf Gerät A (10 %) und T2 auf Gerät B (7 %) → 3 % Unterschied ohne Behandlungseffekt.
  • Lösung: Vergrößerungsfaktor erfragen und in der Software hinterlegen. Oder: nur Winkel verwenden.
  • DVT-basierte FRS: Kein Vergrößerungsfaktor (1:1). Aber: Rekonstruktionsebene muss in der Medianebene liegen.

7. Methodenteil korrekt formulieren: Was Gutachter erwarten

Der Methodenteil einer FRS-basierten KFO-Dissertation muss bestimmte Standardinformationen enthalten.

Pflichtangaben im Methodenteil

1

Röntgengerät & Aufnahmebedingungen

Gerätetyp, Hersteller, Einstellungen (kV, mA), Film-Fokus-Abstand, Vergrößerungsfaktor. Bei DVT-generierten FRS: Software, Rekonstruktionsparameter.

2

Analyse-Software & Version

Exakter Softwarename und Versionsnummer. Bei AI-Unterstützung: Algorithmus-Version und Umfang der manuellen Korrektur.

3

Kephalometrische Analyse & Variablen

Welche Analyse? Welche Winkel und Strecken? Alle Variablen auflisten mit Definition und Referenz.

4

Landmarken-Definitionen

Alle verwendeten Landmarken mit operationaler Definition – idealerweise in einer Tabelle. Umgang mit Doppelprojektionen dokumentieren.

5

Verblindung & Randomisierung

War der Untersucher verblindet? War die Auswertungsreihenfolge randomisiert?

6

Reliabilitätsprüfung

Stichprobengröße, Zeitabstand, Methodik (Dahlberg, ICC, t-Test). Werte für jede Variable einzeln.

Muster-Formulierung: Kompletter Reliabilitäts-Abschnitt

„Zur Bestimmung der Untersucher-Reliabilität wurden 25 FRS (12,5 % des Gesamtsamples) randomisiert ausgewählt und nach einem Intervall von 4 Wochen durch denselben Untersucher erneut ausgewertet. Systematische Fehler wurden mittels gepaartem t-Test für jede kephalometrische Variable überprüft (α = 0,05). Keiner der gepaarten t-Tests zeigte ein signifikantes Ergebnis (alle p > 0,05). Der zufällige Messfehler wurde nach Dahlberg berechnet und lag für Winkelmessungen zwischen 0,38° (SNA) und 1,12° (Gonionwinkel) sowie für Streckenmessungen zwischen 0,29 mm (Overjet) und 0,87 mm (anteriore Gesichtshöhe). Der ICC lag für alle Variablen über 0,91 (95%-KI: 0,84–0,97)."

Röntgengerät mit Vergrößerungsfaktor, Software mit Version, Analyse mit Referenz, Landmarken mit operationaler Definition, Variablen aufgelistet, Verblindung dokumentiert, Reliabilität mit ICC und Dahlberg für jede Variable – sieben Pflichtangaben, die zusammen einen vollständigen FRS-Methodenteil bilden. Unsere Autoren formulieren jeden dieser Abschnitte auf dem Niveau, das Gutachter in kieferorthopädischen Dissertationen erwarten – einschließlich des Reliabilitäts-Abschnitts, der die häufigste Schwachstelle in KFO-Promotionen ist.

8. Typische Fehler & häufige Gutachter-Kritik

#FehlerGutachter-KritikLösung
1Keine Reliabilitätsprüfung durchgeführt„Die Reproduzierbarkeit wurde nicht nachgewiesen."Doppelmessungen mit Dahlberg, ICC und t-Test
2Reliabilität nur als Pearson-r berichtet„Korrelation ist kein Maß für Übereinstimmung."ICC (mit 95%-KI) als primäres Maß
3Nur 5–10 FRS für Doppelmessung„Stichprobe zu klein für belastbare Aussagen."Mindestens 20, besser 25–30 FRS
4Vergrößerungsfaktor nicht angegeben„Lineare Messungen ohne Vergrößerungsfaktor nicht interpretierbar."Dokumentieren und in Software korrigieren
5Landmarken-Definitionen fehlen„Ohne operationale Definitionen nicht reproduzierbar."Tabelle mit allen Landmarken und Definitionen
6Auswertung nicht verblindet„Möglicher Erwartungsbias."Verblindung und randomisierte Reihenfolge
7Doppelprojektionen nicht adressiert„Umgang mit bilateralen Doppelkonturen fehlt."„Mittelwert beider Konturen" im Methodenteil
8Gesamt-ICC statt variablenspezifisch„Einzelne Variablen können schlecht reproduzierbar sein."ICC und Dahlberg für jede Variable einzeln
9AI-Landmarken ohne manuelle Korrektur„Automatisch generierte Landmarken ohne Verifizierung."AI als Unterstützung, manuelle Kontrolle dokumentieren
10Kein Bland-Altman-Plot„ICC und Dahlberg zeigen keinen Proportionalfehler."Bland-Altman-Plot für wichtigste Variablen

Keine Reliabilitätsprüfung, Pearson statt ICC, zu wenige Doppelmessungen, Vergrößerungsfaktor fehlt, keine Landmarken-Definitionen, keine Verblindung, Doppelprojektionen nicht adressiert, Gesamt-ICC statt variablenspezifisch, AI ohne manuelle Korrektur, kein Bland-Altman – zehn Fehler, die zusammen den Großteil aller Gutachter-Beanstandungen in FRS-basierten KFO-Dissertationen ausmachen. Unsere Akademiker kennen jeden dieser Stolpersteine und dokumentieren die FRS-Methodik Ihrer Dissertation so, dass Reliabilität nachgewiesen, Landmarken operationalisiert, Verblindung beschrieben und Fehlerstatistik variablenspezifisch berichtet sind. Seit 2012 haben wir über 12.000 Projekte abgeschlossen, darunter zahlreiche kieferorthopädische Dissertationen mit kephalometrischer Auswertung.

9. Checkliste: FRS-Auswertung vor Abgabe

Vor Beginn der Datenerhebung

  • Operationale Landmarken-Definitionen schriftlich fixiert
  • Kalibrierungssitzung mit Betreuer durchgeführt
  • Intra-Rater-Reliabilität an ≥ 20 FRS nachgewiesen (ICC ≥ 0,90)
  • Inter-Rater-Reliabilität bestimmt (wenn zweiter Untersucher beteiligt)
  • Vergrößerungsfaktor des Röntgengeräts bekannt und in Software eingestellt
  • Verblindungs- und Randomisierungskonzept festgelegt

Während der Auswertung

  • FRS in randomisierter Reihenfolge ausgewertet
  • Doppelprojektionen einheitlich behandelt (Mittelwert)
  • AI-Landmarken manuell überprüft und korrigiert
  • Monitor-Einstellungen konstant gehalten
  • Rohdaten gesichert und dokumentiert

Im Methodenteil dokumentiert

  • Röntgengerät, Aufnahmebedingungen, Vergrößerungsfaktor
  • Software mit Versionsnummer
  • Verwendete kephalometrische Analyse mit Referenz
  • Alle Landmarken mit operationaler Definition (Tabelle)
  • Alle gemessenen Variablen aufgelistet
  • Verblindung und Randomisierung beschrieben
  • Reliabilitätsprüfung: Stichprobe, Zeitabstand, Methoden
  • ICC mit 95%-KI für jede Variable einzeln
  • Dahlberg-Werte für jede Variable einzeln
  • Umgang mit Doppelprojektionen dokumentiert

Häufig gestellte Fragen

Wie viele FRS brauche ich für die Reliabilitätsprüfung?

Mindestens 20 FRS, idealerweise 25–30. Ca. 10–15 % des Gesamtsamples. Bei kleineren Studien (60 Patienten) sind 20 FRS ausreichend. Die Auswahl sollte randomisiert erfolgen.

Welchen Zeitabstand brauche ich zwischen den Doppelmessungen?

Mindestens 2 Wochen, empfohlen 3–4 Wochen. Zu kurz: Erinnerungseffekte. Zu lang: Lernkurve oder Vergessen.

Was ist ein akzeptabler Dahlberg-Wert?

Winkelmaße: < 1,0° gut, < 1,5° akzeptabel. Strecken: < 0,5 mm gut, < 1,0 mm akzeptabel. Für Gonionwinkel werden bis 2,0° toleriert. Der Messfehler muss kleiner sein als der erwartete Behandlungseffekt.

Muss ich eine Inter-Rater-Reliabilität durchführen?

Wenn nur ein Untersucher alle Auswertungen macht: Intra-Rater reicht. Inter-Rater ist wünschenswert und stärkt die methodische Qualität erheblich.

Darf ich AI-basierte Kephalometrie in der Dissertation verwenden?

Ja – aber nicht als alleinige Methode. AI als initiale Positionierung, dann manuell überprüfen und korrigieren. Im Methodenteil dokumentieren.

Kann ich mir bei der FRS-Auswertung und dem Methodenteil helfen lassen?

Ja – besonders die korrekte Formulierung des Methoden- und Ergebnisteils, die Berechnung der Reliabilitätsstatistik (Dahlberg, ICC, Bland-Altman) und die Diskussion der Fehlergrenzen erfordern Fachkenntnis. Unser Team bei BAS – Business and Science umfasst Ghostwriter mit kieferorthopädischem Fachstudium, die KFO-Promotionen methodisch und inhaltlich unterstützen. Mehr dazu: Ghostwriter Kieferorthopädie und Doktorarbeit Zahnmedizin.

KFO-Promotion professionell unterstützt

Kephalometrische Auswertung, Reliabilitätsstatistik oder den Methodenteil Ihrer kieferorthopädischen Doktorarbeit auf Gutachter-Niveau formulieren? Unser Team mit promovierten Ghostwritern und Biostatistiker:innen unterstützt Sie bei jeder Phase der Dissertation.

Ghostwriter Zahnmedizin Jetzt anfragen
crossmenu