Genauigkeit (Accuracy)
Der Accuracy-Wert misst den Anteil der korrekt klassifizierten Beispiele in einem Datensatz. Er dient somit als erste, leicht verständliche Metrik für Klassifikationsmodelle.
Formal definiert sich die Genauigkeit (Accuracy) folgendermaßen:
\[
\text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{TN} + \text{FP} + \text{FN}}
\]
- TP: True Positives – Korrekt vorhergesagte positive Fälle
- TN: True Negatives – Korrekt vorhergesagte negative Fälle
- FP: False Positives – Fälschlicherweise als positiv klassifizierte Fälle
- FN: False Negatives – Fälschlicherweise als negativ klassifizierte Fälle
Wichtige Eigenschaften
- Schnelle Einschätzung: Accuracy gibt sofort eine grobe Übersicht darüber, wie viele Vorhersagen insgesamt richtig sind.
- Problem bei unbalancierten Datensätzen: Bei stark unterschiedlicher Klassenverteilung kann ein hoher Accuracy-Wert entstehen, obwohl das Modell eine Klasse überrepräsentiert.
- Ergänzende Metriken: Um ein umfassendes Bild zu erhalten, sollten Precision, Recall und F1-Score insbesondere bei ungleichen Klassenverteilungen berücksichtigt werden.
Accuracy ist daher eine gute Einstiegsmetrik, muss jedoch immer im Kontext der Aufgabenstellung und der Klassenverteilung interpretiert werden.