Kollege Algorithmus macht die Planung

Viele Unternehmen freunden sich gerade mit der Digitalisierung an, und nun steht mit Big Data schon wieder ein Elefant im Raum. Darf man da etwas verwirrt sein, Johannes Binswanger?
Man sollte zumindest unterschiedliche Fragen auseinanderhalten. Digitalisierung und datenbasierte Lösungen sind etwas Unterschiedliches. Unter Big Data summiert man Data Science und Künstliche Intelligenz, also maschinelles Lernen. Mit solchen Techniken lösen Menschen ein Problem nicht mehr alleine, sondern lassen sich durch den Einsatz von Daten unterstützen.
Wie darf man sich das vorstellen?
Nehmen wir ein einfaches Beispiel: Aus historischen Daten hat ein Flugzeugtriebwerk gelernt, dass ein bestimmtes Ventil in den nächstens zwei Tagen ausgetauscht werden muss, wenn eine bestimmte Konstellation in den Messungen von vielleicht 90 Sensoren auftritt.
Wie hatten die Airlines das bisher gelöst?
Sie hatten fixe Wartungsintervalle und kontrollierten vielleicht wöchentlich unzählige Komponenten des Flugzeugs – oft vergeblich, weil alles in Ordnung war. Das Flugzeug stand aber auf dem Boden, die Kontrolle war teuer. Hätte eine Airline die engen Wartungsintervalle aufgegeben, nähme sie das Risiko in Kauf, dass bei einem vollen Flugzeug auf der Startbahn ein Warmlämpchen blinkt und das Flugzeug im dümmsten Moment am Boden bleiben muss.
Dieses Risiko fällt nun weg?
Wenn man einen guten Algorithmus hat, der aus historischen Mustern der Sensor-Daten gelernt hat, wie sich das Ventil verhält, lässt sich ein Ausfall prognostizieren. Dadurch kann man Wartungsarbeiten besser planen und diese zu einer Zeit durchführen, wenn das Flugzeug sowieso am Boden steht.
Die datenbasierte Lösung ersetzt also das frühere, starre Regelwerk.
Ja, ich kann einen Prozess nach Regelwerk ausrichten, das ein Experte einmal ausgearbeitet hat, oder ich kann aus Daten ständig lernen. Die Daten unterstützen mich beim Entscheid, was wann zu tun ist. Versicherungen setzen inzwischen Algorithmen ein, die Bilder von Blechschäden bei Autos beurteilen können.
«Wenn man zu viel auf Beispiele schaut, bremst das die Kreativität.»
Dann schreiben also heute die Daten das neue Regelwerk und verfeinern es ständig?
Wenn Menschen ein Regelwerk schreiben, kann das nicht beliebig komplex sein – man muss es ja noch verstehen können. Variationen in den kleinsten Details fallen da ausser Betracht. Ich kann mir keinen Menschen vorstellen, der im Zusammenspiel von 90 Messgrössen zuverlässig die relevanten Muster herausliest. Ein Algorithmus hingegen kann selbstständig diese hochkomplexen Muster lernen, genau da sind Algorithmen stark, sie können 90 oder auch 3000 Messgrössen gleichzeitig lesen und Muster erkennen.
Darf man da jetzt von künstlicher Intelligenz sprechen?
Wenn Daten ein Regelwerk selbst schreiben, dann haben wir eine datenbasierte Lösung, typischerweise umgesetzt via maschinelles Lernen. Das ist Statistik mit moderner Rechnerpower dahinter. Künstliche Intelligenz ist nichts anderes. Bei KI kombiniert man solche Anwendungen, bei einem selbstfahrenden Auto beispielsweise hat man mehrere solche Lösungen zu einem System zusammengesteckt.
Das klingt jetzt fast etwas banal.
Den Begriff KI benutzen vor allem jene, die selbst nicht wissen, was das ist.
Wie soll man es bezeichnen, wenn man kompetent wirken will?
Es ist eigentlich Maschinelles Lernen. Das heisst, die Maschine lernt selbst, Muster in den Daten zu erkennen, und die Muster kann man verwenden, um eine Entscheidung zu automatisieren.
Dadurch wird mein Flugzeug sicherer, und ich spare erst noch Geld. Wieso werden datenbasierte Technologien dennoch nicht an breiter Front eingeführt? Welche Hemmschwellen gibt es?
Lösungen mit Künstlicher Intelligenz einzuführen ist ein längerer Prozess. Es sind viele Schritte bis zum Ziel, und bei jedem Schritt kann einiges schief gehen. Viele Leute sagen «wir haben Daten, schauen wir mal, was wir daraus machen können» – meistens aber haben die vorhandenen Daten wichtige Löcher, man kann also nicht gleich loslegen, sondern muss zusätzliche Faktoren messen. Oft sind die Kompetenzen dafür im eigenen Haus nicht vorhanden, man müsste also neue Leute anstellen. Weil das Wissen fehlt, ist auch schwierig zu beurteilen, ob man gerade die richtigen oder die falschen Leute neu rekrutiert. Ebenso kann man ohne eigenes Wissen nur schwerlich beurteilen, ob hinzugezogene Consultants tatsächlich mein Problem lösen oder mir einfach eine Standardlösung verkaufen wollen. Die Frage, ob sich eine solche Übung lohnt, ist in der Geschäftsleitung deshalb schnell auf dem Tisch.
Auch interessant
«Ich kann mir keinen Menschen vorstellen, der im Zusammenspiel von 90 Messgrössen zuverlässig die relevanten Muster herausliest.»
Solche Fragen sprechen Sie in Ihren Lehrgängen an?
Das Bewusst sein schärfen, was alles schief gehen kann, gehört zum Inhalt unserer Wahlkurse im Rahmen des Executive MBA. Wir vermitteln dort das nötige Minimalwissen in knapp einer Woche.
Wie erleben Sie die Entscheidungsträger von Ostschweizer KMU in ihren Kursen?
Es werden stetig mehr Teilnehmer aus Ostschweizer KMU, dadurch bekommen wir einen Einblick, wo sie stehen: Es ist ein bisschen eine Zwei-Klassen-Gesellschaft. Es gibt ein paar wenige Unternehmen, die schon sehr weit sind – typischerweise die grossen Firmen. Diese Unternehmen können es sich leisten, ein neues Team aufzubauen, das klärt, welche Chancen Big Data bietet. Bei den kleinen Unternehmen sind es die sehr innovativen, meistens jungen Unternehmen, die schon gut unterwegs sind. Solche, die noch keinen historischen Ballast vor sich herschieben.
Führungsleute aus KMU müssen nicht den Algorithmus programmieren können, sondern wissen, dass es ihn gibt.
Bei Ihnen geht um Management-Entscheidungen. Aber ich finde es immer gut, wenn die Leute verstehen, wie ein Algorithmus aus Daten lernt, deshalb bauen wir uns in den Kursen jeweils einen kleinen Zwölf-Zeilen-Algorithmus zur Veranschaulichung. Ein Data-Scientist findet es natürlich cooler, einen komplizierten Algorithmus zu schreiben, aber es gibt auch Fragen, die nur die Verantwortlichen beantworten können.
Welche Fragen sind das?
In einem Spital kann mein Algorithmus fälschlicherweise einen Kranken für gesund oder einen Gesunden für krank erklären: Welche Entscheidung ist schlimmer? Was ist blöder für eine Bank: Einen Kredit zu vergeben an einen Kunden, der nicht zurückzahlen wird, oder einem Kunden, der zurückbezahlt hätte, ein Kreditgesuch abzulehnen? Ein Data-Scientist kann diese Abwägung nicht machen.
Spitäler, Banken oder Airlines sind grosse Organisationen. Können auch KMU von Maschinellem Lernen profitieren?
Nehmen wir ein reales Beispiel aus einer Grossbäckerei, die Cracker herstellt. Dort steht ein riesiger Ofen, die Teiglinge fahren rein, werden gebacken, dann abgekühlt und am Schluss verpackt. Die Anlage ist 60 Meter lang und läuft 24 Stunden jeden Tag – wenn sie nicht verklebt. Das tut sie aber, und den Verantwortlichen war lange nicht klar, wann und unter welchen Verhältnissen dies geschieht. Verklebt die Anlage, muss jemand kommen, alles ausschalten, alles putzen ... und nur eine Minute später kann das bereits wieder passieren.
Ziemlich ärgerlich, weil Produktionszeit verloren geht.
Die Daten dienen hier zwei Zwecken: Zum einen, überhaupt zu verstehen, was passiert, und zum anderen, den Prozess besser zu steuern. Das betroffene Unternehmen hatte schon ziemlich viel Daten: Wie heiss ist der Ofen, wie warm ist die Umgebungstemperatur, welche Luftfeuchtigkeit herrscht, welche Sorte Cracker wird gerade produziert und so weiter. Es gab aber auch Daten, die noch fehlten, nämlich: In welcher Konstellation musste man die Maschine stoppen? Das ist die wichtigste Variable, wenn ich die Muster erkennen will. Also wurden zusätzliche Sensoren eingebaut, die Anlage lief ein weiteres Jahr, um alle saisonalen Schwankungen in den Messungen drin zu haben.
Und woran lag es?
Hauptfaktor für das Verkleben ist die Feuchtigkeit an einem ganz bestimmten Ort im Raum: Dort, wo die Cracker aus dem Ofen rauskommen. Die Sorte – ob etwa gerade Cracker mit Käse gebacken werden – spielte hingegen keine Rolle. Das wäre ja auch eine denkbare Variable gewesen. Die Daten helfen also, besser zu verstehen, was eigentlich passiert. Und sie ermöglichen es, den Prozess vorausschauend besser zu steuern. Das kann bedeuten, dass die Grossbäckerei an Tagen mit hohem Risiko gleich einen Mitarbeiter fix an der neuralgischen Stelle positioniert.
«Wenn Daten etwas nicht hergeben, dann geben sie es nicht her.»
Wenn man Daten richtig interpretiert, kann man also Prognosen für die Zukunft machen?
Wenn ein Hotel eine stark schwankende Nachfrage hat, kann man nach Mustern suchen – unter Berücksichtigung von Faktoren wie Jahreszeit, Wetterprognosen und so weiter. Damit sollte man die Nachfrage besser prognostizieren und somit auch die Planbarkeit erhöhen können.
Als Hotelier weiss ich also, ob ich am Wochenende mehr Personal brauche oder noch eine Aktion lancieren sollte, um meine Betten zu füllen. Ist das Theorie oder funktioniert das schon?
Das funktioniert oft, aber nicht immer. Ob es funktioniert, stellt sich erst in der Phase einer Projektentwicklung heraus. Gerade diese Unsicherheit ist auch ein wichtiger Stolperstein bei datenbasierten Projekten. Oft löst sie sich aber nach wenigen Tagen auf. Das kann bedeuten, dass ein Projekt, in das viel Hoffnung gesetzt wurde, nach wenigen Tagen begraben werden muss, weil die Daten nicht das hergeben, was wir erwartet haben Klar ist aber, dass nur datenbasierte Lösungen in die praktische Anwendung genommen werden, bei denen man intensiv untersucht hat, ob sie mit sehr hoher Wahrscheinlichkeit funktionieren.
Was kann man tun, wenn es nicht funktioniert?
Leider läuft das nicht wie das Einführen einer neuen IT-Lösung. Wenn es da nicht rund läuft, setze ich eben noch drei Leute mehr aufs Projekt an, dann sind wir schneller. Wenn aber Daten etwas nicht hergeben, dann geben sie es nicht her. Dann kann ich noch so viele Leute zusätzlich einsetzen, da kommt nichts dabei raus. Das weiss man aber erst, nachdem man das angeschaut hat, das ist etwas unberechenbar. Allenfalls kann ich warten und mehr Daten erheben. Das kann jedoch auch mal recht lange dauern.
Vermutlich nützt es, wenn ich die richtigen Fragen stelle – solche, bei denen ich mit den Antworten auch etwas anfangen kann. Und nicht einfach auf Teufel komm raus Daten anhäufe.
Das ist extrem wichtig: Erst einmal gute Fragen stellen. Der falsche Weg ist, zu beschliessen «wir machen jetzt eine datenbasierte Strategie», und dann diskutieren, welches Tool man sich kaufen könnte. Darüber kann man zwar an einer GL-Sitzung lange debattieren, aber dann ist noch gar nichts gemacht. Erst muss man mal ein gutes Business-Problem formulieren. Typischerweise sind das Painpoints, das beschreibt den Ansatz recht gut: Irgendetwas nervt, irgendetwas ist sehr repetitiv, man verschwendet Ressourcen – wie der Mitarbeiter, der ständig die Cracker-Anlage wieder zum Laufen bringen muss. Wenn man einen solchen Punkt identifiziert hat, der aktiv nervt, dann macht es vielleicht «Klick!» und man hat eine Idee, wie man das datenbasiert lösen könnte. Für das muss man allerdings wissen, was datenbasierte Lösungen können – und was nicht. Sonst passiert dieser Klick nicht.
Geht es um Big Data oder doch eher um Smart Data?
Ich formuliere es in meinen Kursen gerne etwas provokativ: Ich generiere zufällige Daten, multipliziere die mit einem Faktor eine Million, und dann haben wir Big Data. So brauchen wir zwar ganz viel Speicherplatz, aber es ist immer noch – Pardon –Bullshit. Die relevanten Daten sind wichtig. Relevant heisst: Die Daten mit Mustern aus der Vergangenheit müssen hinreichend repräsentativ sein für mein Problem und auch für die Zukunft. Nehmen wir den Flughafen Zürich, der die Nachfrage in den Duty-free-Shops prognostizieren wollte – wie viele Zigaretten, wie viele Schokoladen brauche ich wann und wo? Kaum hatten die das ein bisschen am Laufen, kam Covid. Dann ist das Modell natürlich wertlos. Die Vergangenheits-assoziierten Daten sind nur brauchbar, wenn die Vergangenheit noch relevant ist.
Auch interessant
Können mich gesammelte Daten auf ein neues Geschäftsmodell bringen?
John Deere ist ein gutes Beispiel für einen Technologiesprung. Eigentlich hat das Unternehmen Traktoren gebaut, heute ist es ein Datenbusiness. John Deere platziert Sensoren in den Böden, mit den gemessenen Daten kann nun praktisch für jeden Quadratmeter die Bewässerung oder der Düngereinsatz optimiert werden, die entsprechenden Vorgaben werden direkt an den Traktor gesandt. Die Daten geben vor, wo welche Samenmischung ausgetragen wird, und auch der Pestizideinsatz kann mit maschinell gelesenen Bildern von Drohnen optimiert werden. Traktoren bauen war früher das Kerngeschäft von John Deere, heute sind die Traktoren primär fahrende Datenträger. Das ist ein extremes Beispiel, nicht realistisch für den Durchschnitt, aber es zeigt, was möglich ist.
Wer von Daten profitieren will, muss sie verstehen und muss auch bereit sein, Prozesse zu verändern.
Sonst nützen die Daten nichts. Es ist wie die Besteigung eines Berges in mehreren Etappen. Das braucht Ausdauer. Man muss auch bereit sein, eine Besteigung in Angriff zu nehmen, wenn noch unklar ist, ob und wo es weitergeht.
Haben unsere KMU diese Ausdauer?
Sie hätten sie, aber es gibt eben auch immer Sachen, die scheinbar dringender sind. Gerade wenn die Konkurrenz auch noch nicht so viel macht, redet man sich gerne ein, man könne noch etwas warten. Es gibt immer einen plausiblen Grund, um abgelenkt zu sein.
Besteht daher die Gefahr, dass ein aktuell erfolgreiches Unternehmen die Notwendigkeit oder auch die Chancen vom Einsatz von Daten nicht sieht?
Das ist der Fluch des Erfolgs.
... und die Erfolglosen? Haben sie die Fantasie und die Energie dafür?
Es gibt durchaus clevere Unternehmen, die unter Druck stehen, deshalb etwas anpassen und am Schluss sehr erfolgreich sind.
Gibt das dann auch Nachahmer? Merken Sie etwas in Ihren Kursen?
Die Teilnehmer wollen sehr viele Beispiele hören – das verstehe ich, das ist inspirierend. Die Gefahr ist jedoch: Wenn eine Lösung bei einem Unternehmen erfolgreich ist, ist das noch lange keine Garantie, dass das bei einem anderen Unternehmen auch funktioniert. Vielleicht habe ich ja einen etwas anderen Painpoint. Wenn man zu viel auf Beispiele schaut, bremst das die Kreativität. Man sollte eher in sich reinhören, die eigenen Probleme erkennen.
«Die Daten mit Mustern aus der Vergangenheit müssen hinreichend repräsentativ sein.»
Es gibt keine einfache Standard-Lösung.
Wir haben viele Teilnehmer in unseren Kursen, die sich nerven und sagen, die Consultants kämen immer mit der gleichen Leier. Sie erkennen aber, dass sich das so für sie nicht lohnt. Ein Unternehmen muss sein Geschäftsmodell sehr genau verstehen, und auch sehen, wo es sich von den anderen unterscheidet. Das ist ein Grund, warum maschinelles Lernen noch nicht sehr viel mehr eingesetzt wird: Es gibt nicht so viele Standard-Lösungen, die für alle passen.
Kommt das noch?
Eine im Prinzip standardisierte Anwendung ist Predictive Maintenance. Sensoren messen das Verhalten einer Maschine, aus den Daten sieht man, ob eine Komponente gewartet oder ersetzt werden muss. Als Hersteller reicht es oft nicht mehr, eine Maschine zu produzieren und abzuliefern. Heute warten die Hersteller die Maschine auch und garantieren ihre Verfügbarkeit in einem Service-Vertrag. Dafür werten sie laufend Daten aus.
Daten, die manche Kunden wohl lieber nicht herausrücken wollen.
Verhandlungen mit Kunden können schwierig sein, wenn ich nicht aufzeigen kann, dass dies eine Win-win-Situation ist. Dieses Geschäftsmodell ist zwar klar im Trend, es ist aber nicht ohne Tücken. Es ist manchmal auch unklar, was ein guter Preis ist für solche Leistungen, und ob die Daten Teil des Preises sind.
«Wir brauchen zwar ganz viel Speicherplatz, aber es ist immer noch – Pardon – Bullshit.»
Wenn der Hersteller beim Kunden an allen Ecken und Enden Daten sammelt, bewegen wir uns schon auf juristischem Terrain?
Eigentlich ist es mit der DSGVO, der Datenschutz-Grundverordnung, recht einfach gelöst: Man muss stets das Einverständnis des Nutzers haben. Wenn die Datennutzung gekoppelt ist an die Qualität des Produkts, liegt sie ja im Interesse des Kunden. Wir geben bereitwillig jede erdenkliche Information an Facebook oder Google, aber wenn es im Interesse eines eigenen guten Produkts ist, sind wir superkritisch ...
Wissen wir zu wenig, was Datenschutz eigentlich bedeutet?
Es gibt wahnsinnig viele Missverständnisse. Wir hatten den Fall eines Spitals, das schilderte, der Kanton würde es ihnen nicht erlauben, Unterlagen zu digitalisieren, um digitale Workflows zu ermöglichen. Das ist absurd. Das Spital soll schlechtere Qualität abliefern, weil der interne Datenschutz dies so will? Das kann nicht der Zweck von Datenschutzgesetzgebung sein, hier herrschen Missverständnisse. Das ist ein recht typisches Beispiel.
Dass Unternehmen ihre Daten sichern, ist aber nicht verkehrt.
Viele KMU haben das Gefühl, ihre eigenen Server, die sie im Keller stehen haben, betrieben von ihren eigenen Spezialisten, seien sicherer als die Cloud von Microsoft. Sie übersehen dabei, dass Microsoft mehrere hundert Hackerangriffe pro Tag abprallen lässt. Ihr Geschäftsmodell ist spezialisiert darauf, sie haben tausend Mal mehr Anreiz, in die Sicherheit zu investieren. Server in Firmen hingegen sind in dem Moment, wo sie mit dem Internet verbunden sind, in den meisten Fällen weniger sicher als eine Cloud-Lösung.
Text: Philipp Landmark
Bild: Marlies Thurnheer