Zum Inhalt

Genauigkeit (Accuracy)

Der Accuracy-Wert misst den Anteil der korrekt klassifizierten Beispiele in einem Datensatz. Er dient somit als erste, leicht verständliche Metrik für Klassifikationsmodelle.

Formal definiert sich die Genauigkeit (Accuracy) folgendermaßen:

\[ \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{TN} + \text{FP} + \text{FN}} \]
  • TP: True Positives – Korrekt vorhergesagte positive Fälle
  • TN: True Negatives – Korrekt vorhergesagte negative Fälle
  • FP: False Positives – Fälschlicherweise als positiv klassifizierte Fälle
  • FN: False Negatives – Fälschlicherweise als negativ klassifizierte Fälle

Wichtige Eigenschaften

  • Schnelle Einschätzung: Accuracy gibt sofort eine grobe Übersicht darüber, wie viele Vorhersagen insgesamt richtig sind.
  • Problem bei unbalancierten Datensätzen: Bei stark unterschiedlicher Klassenverteilung kann ein hoher Accuracy-Wert entstehen, obwohl das Modell eine Klasse überrepräsentiert.
  • Ergänzende Metriken: Um ein umfassendes Bild zu erhalten, sollten Precision, Recall und F1-Score insbesondere bei ungleichen Klassenverteilungen berücksichtigt werden.

Accuracy ist daher eine gute Einstiegsmetrik, muss jedoch immer im Kontext der Aufgabenstellung und der Klassenverteilung interpretiert werden.