Statistischer Überblick
Konfidenzintervalle: Das Schätzintervall eines Populationsparameters, das in der Regel auf 95 % festgelegt wird. Würde man 100 Stichproben aus der Grundgesamtheit nehmen, würde der Mittelwert oder die Messung von 95 dieser Stichproben in den Bereich des 95 %-Konfidenzintervalls fallen. Je näher oder enger der Bereich des 95 %-KI am tatsächlichen Mittelwert liegt, desto aussagekräftiger sind die Ergebnisse des Tests.
Standardfehler der Messung: Dieser Wert gibt den Bereich (+/-) an, in den der tatsächliche Wert eines Patienten bei einem bestimmten Test passen könnte. Wenn der SEM für die goniometrische Messung des Bewegungsumfangs für die Kniebeugung 3,5 Grad beträgt, könnte man erwarten, dass die Abweichung des wahren/echten Bewegungsumfangs zwischen 116,5 und 123,5 Grad liegt, wenn der tatsächlich gemessene Wert 120 Grad beträgt. Sie wird auch als Standardabweichung der Werte von wiederholten Testergebnissen betrachtet.
Empfindlichkeit: Wie hoch ist die Wahrscheinlichkeit, dass der klinische Test positiv ausfällt, wenn ein Patient tatsächlich eine Erkrankung hat? Dies ist Ihr Maß für „True Positives“. Die Werte reichen von 0 bis 1,0, wobei 1,0 = 100 % wahrer Positivbefund. Die Eselsbrücke SnOut wird verwendet, um diese Erkenntnisse anzuwenden. Wenn ein Test eine hohe Sensitivität hat und der Test negativ ist, kann ein Kliniker die Krankheit mit gutem Gewissen ausschließen (SnOut). Klinische Tests mit höherer Sensitivität eignen sich besser für das Screening von Patienten auf die Zielkrankheit, sind aber weniger gut geeignet, um eine spezifische Diagnose zu stellen. Mit anderen Worten, wenn ein hochempfindlicher Test negativ ist, kann man sich sicherer fühlen, dass der Patient die Krankheit nicht hat, aber wenn der Test positiv ist, kann man nicht sicher sein, dass er die Krankheit hat, es sei denn, der Test war auch hochspezifisch.
Spezifität: Wie groß ist die Wahrscheinlichkeit, dass der klinische Test negativ ausfällt, wenn der Patient nicht an der Krankheit leidet? Dies ist das Maß für echte Negative. Die Werte reichen von 0 bis 1,0, wobei 1,0 = 100 % echte Negative bedeutet. Die Eselsbrücke SpIn wird zur Anwendung dieser Erkenntnisse verwendet. Wenn ein Test eine hohe Spezifität aufweist und der Test positiv ist, kann der Arzt die Krankheit mit gutem Gewissen ausschließen (SpIn). Wenn ein hochspezifischer Test positiv ist, kann man sich sicherer fühlen, dass der Patient die Krankheit hat, aber wenn der Test negativ ist, kann man nicht sicher sein, dass er die Krankheit nicht hat, es sei denn, der Test war auch hochempfindlich.
Positive Likelihood Ratio (+LR): Drückt die Veränderung der Wahrscheinlichkeit aus, dass die Krankheit vorliegt, wenn der Test positiv ist. Sie ist eine Berechnung der Spezifität und der Sensitivität eines Tests (+LR = Sensitivität / 1-Spezifität). Eine +LR > 1,0 erhöht die Wahrscheinlichkeit, auf der Grundlage des Testergebnisses eine korrekte Diagnose zu stellen.
Negative Likelihood Ratio: Drückt die Veränderung der Wahrscheinlichkeit aus, dass eine Krankheit nicht vorhanden ist, wenn der Test negativ ist. Sie ist eine Berechnung der Spezifität und der Sensitivität eines Tests (-LR = 1-Sensitivität / Spezifität). Eine LR < 1,0 erhöht die Wahrscheinlichkeit einer korrekten Diagnose auf der Grundlage des Testergebnisses.
Odds Ratio: Dies ist die Schätzung des relativen Risikos und wird in der Regel verwendet, wenn das relative Risiko aufgrund der Beschränkungen der Studie nicht genau bestimmt werden kann (Unfähigkeit, die kumulative Inzidenz genau zu berechnen, d. h. eine Fall-Kontroll-Studie). Es wird häufig verwendet, um die Effektgröße auszudrücken. Es handelt sich um das Verhältnis der Wahrscheinlichkeit, dass ein Ereignis in einer Gruppe auftritt, zu der Wahrscheinlichkeit, dass es in einer anderen Gruppe auftritt. Es ist die Wahrscheinlichkeit des Auftretens desselben Ereignisses oder Zustands in zwei Gruppen. Ein Chancenverhältnis von 1:1 bedeutet, dass es keinen Unterschied in den Chancen zwischen den Gruppen gibt (das Ereignis oder der Zustand tritt in beiden Gruppen gleichermaßen auf).
Relatives Risiko: Dies ist das Maß für den relativen Effekt, d. h. das Verhältnis, das die mit der exponierten Gruppe verbundenen Risiken im Vergleich zur nicht exponierten Gruppe beschreibt. Es gibt an, wie hoch die Wahrscheinlichkeit ist, dass jemand, der einem Risikofaktor ausgesetzt war, im Vergleich zu jemandem, der nicht exponiert war, die Krankheit entwickelt.
Effektgröße: Das Ausmaß des Unterschieds zwischen zwei Behandlungen oder der Beziehung zwischen zwei Variablen. Eine größere Effektgröße für eine Behandlung bedeutet, dass sie zu einem größeren positiven Unterschied bei dem gemessenen Ergebnis geführt hat.
Validität: Misst der klinische Test das, was er messen soll? Dies ist die Frage, die die Validität beantwortet. Dies kann oft durch Sensitivitäts- und Spezifitätswerte sowie Likelihood Ratios gemessen werden (positive und negative prädiktive Werte werden oft verwendet, sind aber nicht so hilfreich wie Likelihood Ratios).
Reliabilität: Wie gut stimmen die Prüfer über die Ergebnisse eines Tests überein? Die Reliabilität ist ein Maß für die Übereinstimmung, aber nicht für die Validität. Sie basiert auf dem Ausmaß des Fehlers, der in einer Reihe von Ergebnissen vorhanden ist. Damit ein klinischer Test eine gute Validität hat, ist eine gute Zuverlässigkeit erforderlich. Allerdings können auch Tests, die keine gute Validität haben, eine ausgezeichnete Zuverlässigkeit aufweisen. Prüfer können einen Test sehr zuverlässig zwischen sich und anderen Prüfern messen, aber das bedeutet nicht unbedingt, dass der Test ein gutes Maß für einen bestimmten Zustand oder eine Diagnose ist. Sie wird durch Koeffizienten gemessen (Kappa oder Intraclass-Korrelationskoeffizienten, je nach Art der Variablen).
Kappa: Dies ist ein Maß für die Übereinstimmung, die durch Zufall korrigiert wurde. Diese Statistik wertet den Anteil der beobachteten Übereinstimmung aus und berücksichtigt dann den Anteil, der zufällig erwartet werden kann. Sie wurde in erster Linie für die Messung nicht-parametrischer Daten entwickelt, wie z. B. dichotome Variablen, die Ja/Nein- und Positiv/Negativ-Antworten umfassen, und kategoriale Variablen wie die Noten des manuellen Muskeltests. Der Wertebereich reicht von 0 bis 10 und die Interpretation der Werte wird wie folgt vorgeschlagen:
1.0 = Perfekt
0.8 bis 1.0 = Ausgezeichnet
0.6 bis 0.8 = Erheblich
0.4 bis 0.6 = Mäßig
< 0.4 = Schlecht
Gewichtete Kappa: Die reguläre Kappa-Statistik differenziert nicht zwischen den Unstimmigkeiten. Wenn ein Forscher eine Unstimmigkeit aufgrund größerer möglicher Risiken stärker gewichten möchte als eine andere, dann wird daraus ein gewichtetes Kappa. Einige Unstimmigkeiten können schwerwiegender sein als andere. Nicht alle Daten können auf diese Weise unterschieden werden, aber wenn dies der Fall ist, kann dieses gewichtete Kappa zur Schätzung der Zuverlässigkeit verwendet werden.
Intraklassen-Korrelationskoeffizient (ICC): Der ICC ist ein Reliabilitätskoeffizient. Er berechnet die Varianz in den Bewertungen und ist in der Lage, sowohl den Grad der Übereinstimmung als auch der Übereinstimmung zwischen den Bewertungen wiederzugeben. Er reicht von 0 bis 1,0. Der ICC ist ein Zuverlässigkeitsmaß, das in erster Linie für parametrische Variablen (Intervall- oder Verhältnisdaten) entwickelt wurde, die kontinuierlich sind, wie z. B. Bewegungsumfangsmessungen, Größe, Gewicht usw. Die Interpretation der Werte wurde wie folgt vorgeschlagen:
1,0 = Perfekt
0,9 bis 1,0 = Ausgezeichnet
0,75 bis 0,9 = Gut
0,5 bis 0,75 = Mäßig
< 0,5 = Schlecht
Korrelation: Die Korrelation ist ein Maß für den Zusammenhang und nicht für die Übereinstimmung (die Reliabilität misst die Übereinstimmung). Sie zeigt die lineare Beziehung zwischen Variablen an und reicht von -1 bis 0 bis 1 und wird durch Koeffizienten (Pearson oder Spearmans) gemessen. Je näher die Variable bei 1 liegt, desto stärker ist die positive Korrelation und je näher bei -1, desto stärker ist die negative Korrelation. In den meisten Fällen bedeutet eine Null, dass zwischen den Variablen überhaupt keine Korrelation besteht. Korrelationsgrößen wurden definiert als:
+/- 0,1 bis 0,3 = klein
+/- 0,3 bis 0,5 = mittel
+/- 0,5 bis 1,0 = groß
Korrelationskoeffizienten: Statistiken, die die Stärke und Richtung einer Beziehung zwischen zwei Variablen quantitativ beschreiben.