Zum Inhalt

ML | Machine Learning

Lernparadigmen

Machine Learning basiert auf verschiedenen Lernparadigmen, die sich in der Art unterscheiden, wie Modelle trainiert werden:

  • Überwachtes Lernen (Supervised Learning): Das Modell wird mit gelabelten Daten trainiert, d. h. es erhält Eingaben zusammen mit den korrekten Ausgaben. Beispiele sind Klassifikations- und Regressionsprobleme.
  • Unüberwachtes Lernen (Unsupervised Learning): Hier werden Muster und Strukturen in Daten ohne vordefinierte Labels gefunden. Clustering-Algorithmen wie k-Means oder PCA gehören zu dieser Kategorie.
  • Bestärkendes Lernen (Reinforcement Learning): Ein Agent lernt durch Interaktion mit seiner Umgebung und erhält Belohnungen oder Strafen, um optimale Strategien zu entwickeln. Dies wird z. B. in der Robotik und bei Spielen eingesetzt.

ML-Algorithmen

Machine Learning umfasst eine Vielzahl von Algorithmen, die für verschiedene Aufgaben eingesetzt werden:

  • Lineare Regression: Ein einfaches Modell zur Vorhersage kontinuierlicher Werte auf Basis linearer Zusammenhänge.
  • Logistische Regression: Wird zur Klassifikation genutzt und berechnet Wahrscheinlichkeiten für bestimmte Kategorien.
  • Entscheidungsbäume: Hierarchische Modelle, die datenbasierte Entscheidungen durch Sequenzen von Bedingungen treffen.
  • Boosting-Modelle: Ensemble-Methoden wie XGBoost oder CatBoost kombinieren schwache Klassifikatoren zu einem starken Modell.
  • Neuronale Netze: Inspiriert vom menschlichen Gehirn, bestehen sie aus mehreren Schichten von Neuronen und sind besonders leistungsfähig in Deep-Learning-Anwendungen.

Hyperparameter

Die Optimierung von Hyperparametern ist entscheidend für die Leistung eines Machine-Learning-Modells. Zwei zentrale Konzepte sind:

  • Pipelines: Sie helfen, den gesamten ML-Workflow zu strukturieren, indem Vorverarbeitung, Modelltraining und Evaluierung automatisiert werden.
  • Kreuzvalidierung ist eine Technik zur Modellbewertung, bei der die verfügbaren Daten in mehrere Teilmengen aufgeteilt werden, um das Modell auf verschiedenen Trainings- und Testsets zu testen und so eine robustere Einschätzung der Modellleistung zu erhalten.

Durch das richtige Feintuning dieser Parameter kann die Genauigkeit und Robustheit eines Modells erheblich verbessert werden.