Anterior Drawer Test for Ankle

Statistical Review

Intervalli di confidenza: L’intervallo di stima di un parametro della popolazione, e di solito stabilito al 95%. Se si prendessero 100 campioni dalla popolazione, il punteggio medio o la misura da 95 di quei campioni di popolazione cadrebbe all’interno dell’intervallo di confidenza del 95%. Più vicino o stretto è l’intervallo dell’IC al 95% dalla media effettiva, più forti sono i risultati di quel test.

Errore standard di misurazione: Questo valore indica l’intervallo (+/-) entro il quale il vero punteggio di un paziente potrebbe rientrare in un dato test. Se il SEM per la misurazione goniometrica del range di movimento per la flessione del ginocchio è di 3,5 gradi, ci si potrebbe aspettare una variazione del range di movimento vero/reale tra 116,5 e 123,5 gradi quando il valore reale misurato è 120 gradi. È anche pensato come la deviazione standard dei valori dai punteggi dei test ripetuti.

Sensibilità: Se un paziente ha una condizione, quali sono le probabilità che il test clinico sia positivo? Questa è la misura dei veri positivi. I valori vanno da 0 a 1,0 dove 1,0 = 100% di veri positivi. Il mnemonico SnOut è usato per applicare questi risultati. Se un test ha un’alta sensibilità e il test è negativo, un medico può sentirsi meglio nell’escludere la malattia (SnOut). I test clinici con sensibilità più alta sono migliori per lo screening dei pazienti per la condizione target, ma non altrettanto buoni per fornire una diagnosi specifica. In altre parole, quando un test ad alta sensibilità è negativo ci si può sentire più sicuri che il paziente non ha la condizione, tuttavia se il test è positivo non si può essere sicuri che il paziente abbia quella condizione, a meno che il test sia anche altamente specifico.

Specificità: Se un paziente non ha una condizione, quali sono le probabilità che il test clinico sia negativo? Questa è la misura dei veri negativi. I valori vanno da 0 a 1,0 dove 1,0 = 100% di veri negativi. Il mnemonico SpIn è usato per applicare questi risultati. Se un test ha un’alta specificità e il test è positivo, un medico può sentirsi meglio nell’escludere la malattia (SpIn). Quando un test altamente specifico è positivo ci si può sentire più sicuri che il paziente abbia la condizione, tuttavia se il test è negativo non si può essere sicuri che non abbia quella condizione, a meno che il test non fosse anche altamente sensibile.

Rapporto di verosimiglianza positivo (+LR): Esprime il cambiamento delle probabilità di favorire la condizione quando viene dato un test positivo. È un calcolo della specificità e della sensibilità di un test (+LR = Sensibilità / 1-Specificità). Un +LR > 1,0 aumenta la probabilità di fornire una diagnosi corretta basata sul risultato del test.

Rapporto di verosimiglianza negativo: Esprime la variazione delle probabilità che una condizione sia assente quando viene dato un test negativo. È un calcolo della specificità e della sensibilità di un test (-LR = 1-Sensibilità / Specificità). Un LR < 1,0 aumenta la probabilità di fornire una diagnosi corretta basata sul risultato del test.

Odds Ratio: Questa è la stima del rischio relativo ed è tipicamente usata quando il rischio relativo non può essere determinato accuratamente in base alle limitazioni dello studio (incapacità di calcolare accuratamente l’incidenza cumulativa, cioè uno studio caso-controllo). È spesso usato per esprimere la dimensione dell’effetto. È il rapporto tra le probabilità che un evento si verifichi in un gruppo e le probabilità che si verifichi in un altro gruppo. È la probabilità che lo stesso evento o condizione si verifichi in due gruppi. Un rapporto di probabilità 1:1 significa nessuna differenza di probabilità tra i gruppi (l’evento o la condizione si verifica allo stesso modo in entrambi i gruppi).

Rischio relativo: Questa è la misura dell’effetto relativo, che è il rapporto che descrive i rischi associati al gruppo esposto rispetto al gruppo non esposto. Indica la probabilità che qualcuno che è stato esposto a un fattore di rischio svilupperà la condizione rispetto a qualcuno che non è stato esposto.

Dimensione dell’effetto: La grandezza della differenza tra due trattamenti o la relazione tra due variabili. Una dimensione dell’effetto più grande per un trattamento indica che ha portato ad una differenza positiva più grande nel risultato che è stato misurato.

Validità: Il test clinico misura ciò che intende misurare? Questa è la domanda a cui risponde la validità. Questo può spesso essere misurato dai valori di sensibilità e specificità così come dai rapporti di verosimiglianza (i valori predittivi positivi e negativi sono usati spesso ma non sono così utili come i rapporti di verosimiglianza).

Affidabilità: Quanto sono d’accordo gli esaminatori sui risultati di un test? L’affidabilità è una misura dell’accordo, ma non della validità. Si basa sulla quantità di errore presente in un insieme di punteggi. Affinché un test clinico abbia una buona validità, è necessaria una buona affidabilità. Tuttavia, i test che non hanno una buona validità possono ancora avere un’eccellente affidabilità. Gli esaminatori possono essere in grado di misurare un test in modo molto affidabile tra loro e altri esaminatori, ma questo non significa necessariamente che il test sia una buona misura di una specifica condizione o diagnosi. Si misura con i coefficienti (Kappa o Coefficienti di Correlazione Intraclasse a seconda del tipo di variabile).

Kappa: Questa è una misura di accordo che è stata corretta dal caso. Questa statistica valuta la proporzione di accordo osservato e poi prende in considerazione la proporzione che può essere prevista dal caso. È stata progettata principalmente per misurare dati non parametrici come le variabili dicotomiche, che includono risposte Sì/No e Positivo/Negativo, e variabili categoriche come i voti dei test muscolari manuali. La gamma dei punteggi va da 0 a 10 e l’interpretazione dei punteggi è stata suggerita come:
1.0 = Perfetto
0.8 a 1.0 = Eccellente
0.6 a 0.8 = Sostanziale
0.4 a 0.6 = Moderato
< 0.4 = Scarso

Kappa ponderata: La normale statistica Kappa non differenzia tra i disaccordi. Se un ricercatore vuole assegnare un peso maggiore a un disaccordo rispetto a un altro a causa dei maggiori rischi possibili, allora diventa una Kappa ponderata. Alcuni disaccordi possono essere più gravi di altri. Non tutti i dati possono essere differenziati in questo modo, ma se lo possono fare, allora questo Kappa ponderato può essere usato per stimare l’affidabilità.

Coefficiente di correlazione intraclasse (ICC): L’ICC è un coefficiente di affidabilità. Calcola la varianza nei punteggi ed è in grado di riflettere sia il grado di corrispondenza che l’accordo tra le valutazioni. Va da 0 a 1,0. L’ICC è una misura di affidabilità progettata principalmente per le variabili parametriche (dati di intervallo o di rapporto), che sono continue, come le misure di range di movimento, altezza, peso, ecc. L’interpretazione dei punteggi è stata suggerita come:
1.0 = Perfetto
0.9 a 1.0 = Eccellente
0.75 a 0.9 = Buono
0.5 a 0.75 = Moderato
< 0.5 = Scarso

Correlazione: La correlazione è una misura di associazione e non di accordo (l’affidabilità misura l’accordo). Indica la relazione lineare tra le variabili e va da -1 a 0 a 1 ed è misurata da coefficienti (Pearson o Spearmans). Più la variabile è vicina a 1, più forte è la correlazione positiva e più è vicina a -1 più forte è la correlazione negativa. Nella maggior parte dei casi uno zero indica nessuna correlazione tra le variabili. Le dimensioni della correlazione sono state definite come:
+/- 0,1 a 0,3 = Piccolo
+/- 0,3 a 0,5 = Medio
+/- 0,5 a 1,0 = Grande

Coefficienti di correlazione: Statistiche che descrivono quantitativamente la forza e la direzione di una relazione tra due variabili.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.