Künstliche Intelligenz in der Betriebsoptimierung von erneuerbaren Erzeugungsanlagen bei der EnBW

Die Künstliche Intelligenz und das Maschinelle Lernen wird immer mehr zu einem alltäglichen Begleiter und hält somit auch Einzug in die Energie-Branche. Im Rahmen eines Projekts bei der EnBW stellten wir Untersuchungen zu dem bereits implementiertem Predictive Maintenance System, das Schäden in Erzeugungsanlagen rechtzeitig erkennen soll, an und testeten zusätzlich neuere Algorithmen zur rechtzeitigen Schadenserkennung in Windkraftanlagen.

Advanced security of PaaS based Azure data applications – from setup to ALM

I want to share my experience from my projects of creating data applications from a security perspective, covering cloud infrastructure and application parts, as well as application lifecycle challenges during CI/CD. We‘ll go through examples how to handle secrets savely and manageable and configure Azure resources with diverse security concepts.

Data engineering pattern in der Azure Data Factory

In dem Vortrag werden die typischen Muster für Datenverarbeitung in der Azure Data Factory aufgezeigt und verglichen. Das wird abgerundet mit best practices zum Application Lifecylce Management.

Microsoft Certified Data Monster

In der Aufzeichnung sprechen MVP Frank Geisler und Stefan Kirner über Microsoft Zertifizierungen im Allgemeinen und insbesondere für die Data Platform.
Warum sollte ich mich damit beschäftigen?
Was gibt es für Zertifizierungen von MS im Data Bereich?
Wie geht das mit der Anmeldung?
Wie bereite ich mich darauf vor?
Wie läuft so eine Prüfung ab?

Professionelles Arbeiten mit Jupyter Notebooks/Lab

Materialien zum Vortrag Professionelles Arbeiten mit Jupyter Notebooks/Lab von Nico Kreiling

Five shades of dataflow

Talk is an overview of the „shades“ of data flows in Power Platform and Azure Data Factory, their purpose and of course the technologies

Daten-Grundlagenarbeit in Python

Machine Learning und intelligente Systeme werden immer allgegenwärtiger, vom Spam-Filter zum Chat-Bot, vom Staubsaugerroboter zum selbstfahrenden Auto. So unterschiedlich wie die Anwendungsszenarien, so vielfältig sind auch die zugrunde liegenden Verfahren. Deep Learning ist medial besonders breit vertreten und eignet sich für anspruchsvolle Probleme mit ausreichender Datenlage. Für tabellarische Daten hingegen sind die etablierten Klassifikations- und Regressions Algorithmen nach wie vor state-of-the-art. Diese können etwa von Cloud-Dienstleistern als Service eingebunden, mittels AutoML gefunden oder auch “von Hand” programmiert werden. Dabei gilt: Je untypischer und unsauberer die Daten, desto größer ist nicht nur der Aufwand, sondern auch das Verbesserungspotential von individueller Lösungen gegenüber fertigen Services.

Unabhängig davon, auf welche Art Machine Learning eingesetzt werden soll, lohnt es sich, die wesentlichen Grundlagen und Frameworks zu kennen, denn auch Cloud Services und AutoML-Tools nutzen unter der Haube ähnliche Prinzipien und Bibliotheken wie eine selbstentwickelte Lösung. In der vorherrschenden Python-Machine-Learning Welt sind vor allem NumPy, pandas und scikit-learn drei Frameworks, welche allgegenwärtig sind. Für das Heise Machine Learning Sonderheft haben wir daher einen entsprechenden Einführungsartikel geschrieben, welcher die wichtigen Prinzipen und Wirkungsweisen dieser Bibliotheken vorstellt und anschließend durch den manuellen Trainingsprozess eines einfachen Regressionsmodells führt.

Die interaktive Notebook-Version des Artikels ist frei zugänglich. Mittels Binder können Interessierte selbst Änderungen vornehmen, um spielend ein besseres Verständnis der Frameworks zu erlangen.

Ein kurzer Blick zurück

Ein turbulentes Jahr neigt sich dem Ende entgegen. Ein Jahr, in dem Corona praktisch alles überschattet hat. Dennoch können wir voller Dankbarkeit auf ein sehr erfolgreiches erstes Geschäftsjahr zurückblicken.

The political discourse on discrimination  –  how to use natural language processing for good

At this year’s CorrelCon, we presented our work in the OpenDiscourse project. Leveraging techniques from natural language processing, we analyzed the speeches held in the Bundestag.

AutoML – A Comparison of cloud offerings

AutoML is the process of automatically applying machine learning to real world problems, which includes the data preparation steps such as missing value imputation, feature encoding and feature generation, model selection and hyper parameter tuning. Even though the research field on AutoML exists at least since its first dedicated workshop at ICML in 2014, real world usage just got applicable recently. This blog post compares the AutoML offerings of AWS, Google and Microsoft in a qualitative fashion.