Zum Inhalt

Feature Engineering

Feature Engineering bildet das Herzstück moderner Machine-Learning- und Data-Science-Prozesse. Es umfasst die Transformation und Optimierung roher Daten in aussagekräftige Merkmale, die als Grundlage für präzisere Vorhersagen und fundierte Entscheidungen dienen. Im Folgenden werden zentrale Methoden des Feature Engineering erläutert.

Datenaggregation

Bei der Datenaggregation werden Einzelinformationen zu sinnvollen Kennzahlen zusammengefasst. Dies kann durch Berechnung von Summen, Durchschnitten, Mediane oder anderen statistischen Werten erfolgen. Die Aggregation vereinfacht komplexe Datensätze und hebt dabei wichtige Trends und Zusammenhänge hervor, die für die Modellbildung von zentraler Bedeutung sind.

Skalierung

Skalierungsmethoden passen die Wertebereiche unterschiedlicher Features aneinander an. Oft kommen Verfahren wie die Min-Max-Skalierung oder Standardisierung (Z-Score) zum Einsatz. Dadurch wird sichergestellt, dass Algorithmen, die empfindlich auf den Wertebereich sind – beispielsweise Gradient-Descent-basierte Modelle – stabiler und schneller konvergieren.

Normalisierung

Während Skalierung die Größenordnung der Daten angleicht, zielt die Normalisierung darauf ab, die Verteilung der Daten anzupassen. Typische Verfahren umfassen die Transformation in eine Normalverteilung oder das Rescaling, sodass die Daten in einem einheitlichen Bereich liegen. Dies verbessert die Leistungsfähigkeit vieler Modelle, indem Ausreißer abgeschwächt und die Vergleichbarkeit der Daten erhöht wird.

Kodierung

Viele Machine-Learning-Algorithmen benötigen numerische Eingaben. Daher werden kategoriale Daten in numerische Formate umgewandelt.

Gängige Ansätze sind:

  • One-Hot-Encoding: Jede Kategorie wird in einen binären Vektor umgewandelt.
  • Label-Encoding: Kategorische Werte werden in diskrete numerische Werte transformiert.

Diese Methoden ermöglichen es, qualitative Informationen in quantifizierbare Größen zu überführen.

Text-Vektorisierung

Texte stellen eine besondere Herausforderung dar, da sie unstrukturierte Daten darstellen. Mit Text-Vektorisierung werden Texte in numerische Vektoren übersetzt, sodass sie von Algorithmen verarbeitet werden können.

Häufig eingesetzte Methoden sind:

  • Bag-of-Words: Zählt das Vorkommen von Wörtern.
  • TF-IDF: Bewertet Wörter anhand ihrer Relevanz im Dokument.
  • Word Embeddings: Nutzt Modelle wie Word2Vec oder BERT, um kontextuelle Bedeutungen in dichte Vektoren zu überführen.

Augmentation

Augmentation bezeichnet Techniken zur Erweiterung des Datensatzes durch Erzeugen neuer, synthetischer Beispiele. Dies verbessert die Robustheit von Modellen, insbesondere wenn originale Daten knapp sind.

Beispiele umfassen:

  • Bildaugmentation: Transformationen wie Drehung, Skalierung oder Spiegelung.
  • Feature-Augmentation: Kombination oder Transformation bestehender Merkmale zur Erzeugung neuer, informativer Features.
  • Textaugmentation: Ersetzen von Wörtern durch Synonyme oder leichte Umformulierungen, um Variabilität in Sprachdaten einzubringen.

Klassenungleichgewicht

In Klassifikationsproblemen führt ein Ungleichgewicht der Klassen zu einer Verzerrung der Vorhersagen. Wenn beispielsweise eine Klasse stark unterrepräsentiert ist, kann das Modell diese vernachlässigen.

Zur Bewältigung dieses Problems kommen verschiedene Strategien zum Einsatz:

  • Resampling: Über- oder Unterstichprobierung der betroffenen Klassen.
  • SMOTE (Synthetic Minority Over-sampling Technique): Generiert synthetische Beispiele für die Minderheitsklasse.