Sensibel werden: Diagnostische Sensitivität und Spezifität vereinfacht

Was verstehen wir unter diagnostischer Sensitivität?

In der klinischen Diagnostik tauchen unweigerlich Fragen nach der Sensitivität eines Tests auf. Aber was bedeutet „Empfindlichkeit“ genau? Die geringste Menge eines bestimmten Analyten, die ein Assay nachweisen kann, wird oft als Empfindlichkeit bezeichnet – und um genau zu sein, ist diese Menge die analytische Empfindlichkeit oder Nachweisgrenze (LoD). Der Begriff „analytisch“ ist der Schlüssel zu dieser Definition, und wenn wir schon dabei sind, sollten wir ihn mit dem Begriff „diagnostisch“ vergleichen. Die diagnostische Sensitivität bezieht sich auf die Fähigkeit eines Assays, Populationen von Personen mit der Krankheit korrekt zu identifizieren, und obwohl dies sicherlich eine Funktion der analytischen Sensitivität ist, garantiert eine hohe analytische Sensitivität (d. h. Sie können sehr geringe Mengen Ihres Analyten nachweisen) nicht notwendigerweise eine nützliche diagnostische Sensitivität.

Wie Sie sich vorstellen können, sind die beiden Messungen sehr unterschiedlich – die erste sagt etwas über die Leistung Ihres Assays im Reagenzglas aus, die zweite darüber, wie Ihr Assay bei einer bestimmten Population abschneidet. Aus diesem Grund ist es wichtig, bei der Beschreibung Ihres Assays die Begriffe „analytisch“ oder „diagnostisch“ an den Begriff „Sensitivität“ anzuhängen.

Wie berechnet man die diagnostische Sensitivität?

Eine andere Möglichkeit, über die diagnostische Sensitivität nachzudenken, besteht darin, zu prüfen, wie gut der Assay echte positive Ergebnisse erkennen kann. Wenn man aber mit unbekannten Proben zu tun hat, woher weiß man dann, was ein echtes Ergebnis ist? Das ist eine Art Henne-Ei-Frage, aber lassen Sie uns das einmal betrachten.

Angenommen, Sie haben einen Test, mit dem Sie feststellen können, ob ein Patient fünf oder sechs Finger an jeder Hand hat. Sie können eine Probe nehmen, sie dem Experimentator gegenüber blind machen und ein Ergebnis erhalten. Als Nächstes lassen Sie denselben Patienten von einem Arzt untersuchen, der einfach die Anzahl der Finger an jeder Hand zählen würde. Vergleichen Sie dann die Ergebnisse – bei wie vielen Proben stimmen Ihr Test und die Beobachtungen des Arztes überein? Die Beobachtungen des Arztes würden in diesem Fall als Goldstandard gelten, denn objektiver als durch das Zählen von Fingern kann man eigentlich nicht sein! Wenn das Ziel darin bestünde, Personen mit sechs Fingern zu erkennen (d. h. sechs Finger sind ein positives Ergebnis), wäre ein Testergebnis, das mit einer Zählung von sechs Fingern übereinstimmt, ein echtes positives Ergebnis, während ein Testergebnis von fünf Fingern bei einem Patienten mit fünf Fingern ein echtes negatives Ergebnis wäre. Ebenso wäre ein Testergebnis von sechs für eine Person mit fünf Fingern ein falsches Positiv und ein Testergebnis von fünf für einen Patienten mit sechs Fingern ein falsches Negativ. Wenn wir den nachstehenden fiktiven Datensatz nehmen, können wir die diagnostische Sensitivität berechnen, indem wir den Prozentsatz der echten Positiven berechnen, die im Verhältnis zu den tatsächlichen Positiven in den Proben entdeckt werden (echte Positive plus falsche Negative).

Patient
Anzahl
Beobachtete
Anzahl Finger
Assay-Ergebnis
(Anzahl. Finger)
Wahr
Positiv
Falsch
Positiv
Wahr
Negativ
Falsch
Negativ
1 6 6 X
2 6 6 X
3 5 6 X
4 6 5 X
5 5 5 X
6 6 6 X
7 6 6 X
8 5 5 X
9 5 5 X
10 5 5 X
Summen 4 1 4 1

Die obigen Daten können in der nachstehenden Wahrheitstabelle tabelliert und zur Berechnung der diagnostischen Sensitivität anhand der folgenden Gleichung verwendet werden. Hier wird der Prozentsatz der Personen berechnet, die die Krankheit haben und deren Testergebnis positiv für die Krankheit ist.

True Condition
Positive Negative
Zustand durch Assay vorhergesagt Positiv TP FP
Negativ FN TN

True Condition
Positiv Negativ
Condition Vorhersage durch Assay Positiv 4 1
Negativ 1 4



Empfindlichkeit = \frac{\mathrm{TP} }{\mathrm{TP+FN}} = \frac{\mathrm{4} }{\mathrm{4+1} } = 4/5 = 80\%


Nicht so schlecht, oder? Sollen wir uns ein Beispiel aus der Praxis ansehen? Stellen Sie sich vor, Sie entwickeln einen qPCR-Test zum Nachweis eines bakteriellen Krankheitserregers. Die mit Ihrem qPCR-Assay erzielten Ergebnisse würden Daten für die vorhergesagte Bedingung liefern, und diese würden mit den Ergebnissen einer klassischen Kultur verglichen werden. Und warum? In diesem Beispiel ist die Wiederherstellung des Organismus durch eine Kultur aus dem erkrankten Patienten eines der Kochschen Postulate, weshalb die Bakterienkultur als Goldstandard angesehen würde. Wenn wir diesen erfundenen Datensatz hätten:

True Condition
Positiv Negativ
Zustand vorhergesagt durch
Test (d.e. qPCR positiv)
Positiv 238 (TP) 21 (FP)
Negativ 2 (FN) 103 (TN)

Wir würden diese diagnostische Sensitivität berechnen als:


\frac{\mathrm{238} }{\mathrm{238+2}} = 238/240 = 0,992 × 100 = 99,2\%

Das bedeutet, wenn wir diese qPCR einsetzen würden, um Patienten auf diesen bakteriellen Erreger zu testen, würden wir in 99% der Fälle die richtigen positiven Ergebnisse erzielen. Aber was ist mit den falsch-positiven Ergebnissen? Auch diese würden mit diesem Test erkannt, denn eine qPCR weist DNA sowohl von lebensfähigen als auch von nicht lebensfähigen Organismen nach, während eine Kultur nur lebensfähige Organismen erkennen würde. Ganz zu schweigen davon, dass die qPCR wahrscheinlich eine viel bessere analytische Empfindlichkeit aufweist als die meisten kulturbasierten Methoden. Wenn man diese beiden Methoden vergleicht und die Kultur als Goldstandard ansieht, würden kulturnegative/qPCR-positive Proben als falsch-positiv eingestuft. In diesem Szenario würden Sie wahrscheinlich einen Bestätigungstest durchführen wollen, um sicherzustellen, dass ein qPCR-positiver Patient wirklich mit einem lebensfähigen Krankheitserreger infiziert ist.

Wie steht es um die diagnostische Spezifität?

Während die Anzahl der falsch-positiven Proben im obigen Beispiel Sie beunruhigen könnte, hängt die tatsächliche Beurteilung der Leistung davon ab, wie Ihr Assay verwendet wird. Wenn Ihr Ziel darin besteht, gesunde Patienten auszuschließen, um Bestätigungstests zu vermeiden, dann wäre eine hohe diagnostische Spezifität der Schlüssel. Oh, Moment, ich habe gerade einen weiteren Begriff eingeführt – die diagnostische Spezifität! Damit wird gemessen, wie wahrscheinlich es ist, dass Ihr Test diejenigen Personen korrekt identifiziert, die nicht erkrankt sind. Denken Sie an die korrekte Identifizierung von Patienten mit fünf Fingern oder an die Erkennung von Patienten, die nicht mit dem bakteriellen Krankheitserreger infiziert sind. Hier berechnen wir den Prozentsatz der Personen, die die Krankheit nicht haben und korrekt negativ auf die Krankheit testen. Die Berechnung erfolgt wie folgt:


Diagnostik\; Spezifität = \frac{\mathrm{TN} }{\mathrm{TN+FP}} = \frac{\mathrm{103} }{\mathrm{103+21}} = 103/124 = 0,831 × 100 = 83,1\%


Das bedeutet, dass wir die gesunden Patienten in 83% der Fälle korrekt identifizieren würden. Da der qPCR-Test viel schneller ist als das Abwarten des Bakterienwachstums, wäre die Durchführung des qPCR-Tests von Vorteil, und Sie könnten sich auf die negativen qPCR-Ergebnisse verlassen, da wir in diesem konstruierten Datensatz nur wenige falsch-negative Ergebnisse hatten. Alle positiven Patienten sollten natürlich erneut mit einer Kultur getestet werden, aber es gäbe weniger Patienten zu testen. Sie können diese Berechnungen auch zum Vergleich eines neuen qPCR-Tests mit einem derzeit verwendeten Test oder eines qPCR-Tests mit einem ELISA verwenden. Und wenn Mathe nicht Ihr Ding ist, gibt es eine Reihe von kostenlosen Online-Rechnern, wie diesen von medcalc, die diese Zahlen für Sie berechnen können!

Hat Ihnen das geholfen? Dann teilen Sie es bitte mit Ihrem Netzwerk.

Geschrieben von Heinz Reiske
Bildnachweis:freepik

Schreibe einen Kommentar