Maschinelles Lernen könnte im Autohandel eingesetzt werden.

Foto: APA / Sebastian Kahnert

Mit der App Tinder entscheidet man mit einem Wisch nach links oder rechts über die Sympathie potenzieller Partner. Warum sollte dieses Prinzip nicht auch bei der Vermittlung von Gebrauchtwagen funktionieren? Nutzer könnten bei einem "Car-Tinder" Autos positiv oder negativ bewerten und damit ein Machine-Learning-Modell mit Daten füttern. Auf diese Art kann das System immer bessere Empfehlungen machen und Autos zeigen, die den Anwendern mit erhöhter Wahrscheinlichkeit gefallen.

Ingo Nader, Senior Data Scientist beim IT-Dienstleister The unbelievable Machine Company in Wien, illustriert mit dieser Anwendung, wie stark die Nutzung lernfähiger Algorithmen bereits die Wirtschaft durchdringt. Das Feld sei längst nicht mehr allein Konzernen wie Google oder Amazon vorbehalten. Unternehmen aller Branchen und Größen arbeiten daran, maschinelles Lernen für ihre Problemstellungen einzusetzen. Der Boom kommt langsam, aber sicher in der Praxis an.

Eine Studie, die das Unternehmen bei den IT-Beratern von Crisp Research in Auftrag gegeben hat, unterstreicht diese Entwicklung: Die Befragung von Entscheidungsträgern in der deutschen Wirtschaft kommt zu dem Ergebnis, dass man sich in der Hälfte der Unternehmen aktiv mit Machine-Learning beschäftigt, 22 Prozent würden die Technologie bereits produktiv einsetzen. Knapp die Hälfte der Befragten geht davon aus, dass die Technologien "in den nächsten zwei Jahren mehr als 20 Prozent der Wertschöpfung bei neuen digitalen Produkten und Dienstleistungen ausmacht".

Optimierung bestehender Prozesse

In der Studie wird unter anderem hervorgehoben, dass Entwicklungen im Hardwarebereich ein wesentlicher Treiber des Trends sind. "Der Bedarf an spezialisierte Hardware geht mit der Verbreitung sogenannter Deep-Learning-Modelle einher", sagt Nader dazu. Sehr komplexe Aufgaben – ein klassisches Anwendungsgebiet ist etwa das Erkennen von Objekten auf Bildern – werden dabei auf einfache mathematische Operationen heruntergebrochen, die millionenfach durchgeführt werden.

Diese Berechnungen seien leicht zu parallelisieren, also auf eine Vielzahl leistungsfähiger Chips aufzuteilen. "Ein halbwegs komplexes Bilderkennungsmodell trainiert auf koventioneller Hardware durchaus einige Tage, manchmal auch ein, zwei Wochen. Mit spezialisierten Prozessoren verkürzt sich diese Zeit um den Faktor zehn oder mehr", sagt Nader.

Laut der Studie geht es in vielen Anwendungen um die Optimierung bestehender Prozesse. Dementsprechend oft kommen die Daten also etwa aus der Produktion oder der Unternehmenssoftware SAP. "Generell ist es sinnvoll, zuerst interne Daten zu verwenden, die den Geschäftsprozess abbilden. Nur in seltenen Fällen eignen sich auch externe Quellen wie Wetterdaten oder Bilder aus dem Internet", so die Einschätzung Naders. "Viele stürzen sich gleich auf Social-Media-Daten. Aber hier bin ich sehr skeptisch. Sie bringen meist viel weniger als erhofft."

Bevor man firmeneigene Daten verwenden kann, um ein Machine-Learning-Modell zu trainieren, müssen sie bereinigt werden. Für den Data Scientist ist das eine der Hauptarbeiten im Prozess. "Vielen ist nicht bewusst, wie wichtig es ist, die Daten sauber zu halten", bedauert Nader. Die Datensätze werden durch Ausfälle, Messbereichsverschiebungen, uneinheitliche Zeitstempel oder ein nichtdokumentiertes menschliches Eingreifen in den Produktionsprozess verzerrt.

Vorausschauende Wartung

Angesichts des Know-hows, das für die Etablierung von Machine-Learning-Systemen nötig ist, entscheidet man sich in vielen Unternehmen für eine Auslagerung. Diese kann über "Machine-Learning-as-a-service", also die Nutzung von automatischen Cloud-Systemen von Plattformanbietern wie Amazon oder durch die Zusammenarbeit mit spezialisierten Dienstleistern geschehen.

Nader betont, wie wichtig eine prozesshafte Auseinandersetzung mit den Daten ist: "Auf dem Weg entstehen neue Einsichten, neue Fragestellungen und Auswertungsmöglichkeiten, an die man zuerst vielleicht gar nicht gedacht hat."

Ein Anwendungsfeld für Deep Learning ist eine vorausschauende Wartung von Maschinen mithilfe akustischer Sensoren. Dahinter steht die Frage: Wie hört sich eine Maschine bei normaler Funktion an und auf welche Anomalien kann bei abweichendem Klang geschlossen werden? Ultraschallsensoren überwachen zu diesem Zweck etwa bereits Motoren oder Verpackungsanlagen.

Nader beschäftigte sich bereits mit einem Modell, das Kugellager in Windturbinen akustisch analysiert. "Wir haben untersucht, welche Frequenzen pro Zeitabschnitt wie oft und in welcher Intensität vorkommen. Per Machine-Learning-Modell haben wir analysiert, welche Vorhersagen man auf diese Art treffen kann." (Alois Pumhösel, 1.3.2019)