Daten-Grundlagenarbeit in Python
Machine Learning und intelligente Systeme werden immer allgegenwärtiger, vom Spam-Filter zum Chat-Bot, vom Staubsaugerroboter zum selbstfahrenden Auto. So unterschiedlich wie die Anwendungsszenarien, so vielfältig sind auch die zugrunde liegenden Verfahren. Deep Learning ist medial besonders breit vertreten und eignet sich für anspruchsvolle Probleme mit ausreichender Datenlage. Für tabellarische Daten hingegen sind die etablierten Klassifikations- und Regressions Algorithmen nach wie vor state-of-the-art. Diese können etwa von Cloud-Dienstleistern als Service eingebunden, mittels AutoML gefunden oder auch “von Hand” programmiert werden. Dabei gilt: Je untypischer und unsauberer die Daten, desto größer ist nicht nur der Aufwand, sondern auch das Verbesserungspotential von individueller Lösungen gegenüber fertigen Services.
Unabhängig davon, auf welche Art Machine Learning eingesetzt werden soll, lohnt es sich, die wesentlichen Grundlagen und Frameworks zu kennen, denn auch Cloud Services und AutoML-Tools nutzen unter der Haube ähnliche Prinzipien und Bibliotheken wie eine selbstentwickelte Lösung. In der vorherrschenden Python-Machine-Learning Welt sind vor allem NumPy, pandas und scikit-learn drei Frameworks, welche allgegenwärtig sind. Für das Heise Machine Learning Sonderheft haben wir daher einen entsprechenden Einführungsartikel geschrieben, welcher die wichtigen Prinzipen und Wirkungsweisen dieser Bibliotheken vorstellt und anschließend durch den manuellen Trainingsprozess eines einfachen Regressionsmodells führt.
Die interaktive Notebook-Version des Artikels ist frei zugänglich. Mittels Binder können Interessierte selbst Änderungen vornehmen, um spielend ein besseres Verständnis der Frameworks zu erlangen.