Zum Inhalt springen

  • Beiträge
    72
  • Kommentare
    239
  • Aufrufe
    12.658

Springer Campus Präsenztag am 10.03.2018 - Teil 2


kurtchen

776 Aufrufe

Hier kommt die Fortsetzung meines Berichts über den Springer Campus Präsenztag am 10.03.2018.

 

12:15 Uhr - Vortrag: Big Data, Prof. Dr. Uwe Schmitz, FH Dortmund

 

Ich gebe die Inhalte des Vortrages auf der Grundlage eigener Notizen in knapper Form wieder.

 

Ausgangssituation

  • Es ist zu erwarten, dass Industrie 4.0 die Industrieproduktion verändern wird.
  • Es fallen massenhaft strukturierte Daten aus operativen Informationssystemen an.
  • Hinzu kommen massenhaft unstrukturierte Daten, z.B. aus sozialen Netzwerken.
  • Viele der anfallenden Daten bleiben noch ungenutzt.

 

Was kennzeichnet Big Data?

  1. Volume (Umfang): Das Datenvolumen steigt jedes Jahr im den Faktor 40.
  2. Variety (Vielfalt): Es gibt eine Vielfalt der Formate und der Quellen. Daten können strukturiert, unstrukturiert und halbstrukturiert vorliegen. Strukturierte Daten kennzeichnen klassische Datenbanken. Unstrukturierte Daten sind z.B. Photos, Videos oder Audiodateien. Halbstrukturierte Daten sind z.B. E-Mails oder Word-Dokumente.
  3. Velocity (Geschwindigkeit): Hier geht es um die Geschwindigkeit, mit der Daten generiert und ausgewertet werden. Velocity hat zwei Aspekte. Zum einen die Geschwindigkeit, mit der Daten verarbeitet werden. Zum anderen die Geschwindigkeit, in der Daten sich ändern. Heute möchte man Updates möglichst in Echtzeit, d.h. die Geschwindigkeit der Verarbeitung soll mit der Geschwindigkeit der Veränderung Schritt halten.
  4. Veracity (Richtigkeit): Dies betrifft die Datenqualität. Man möchte wissen, mit welcher Wahrscheinlichkeit ein Wert valide ist. Beispielsweise müssen Stromerzeuger recht zuverlässig wissen, wie das Wetter der nächsten Tage wird, denn das beeinflusst Produktion und Verbrauch von Strom.
  5. Value (Mehrwert): Das Sammeln und Auswerten von Daten ist kein Selbstzweck. Die dazu nötigen Investitionen müssen sich lohnen.

 

Aktuell bedeutsame Datenquellen sind noch immer Transaktionsdaten, Protokolldaten, Ereignisdaten. Transaktionsdaten werden seit Jahrzehnten in klassischen relationalen Datenbanken erfasst. Auch Log-Dateien gibt es seit langem. Für die Zukunft werden große Zuwächse bei anderen Datenquellen prognostiziert, z.B. bei Social Media, Sensordaten oder Geodaten.

 

Die gesammelten Daten sind potentiell in allen Unternehmensbereichen nützlich, also z.B. im Vertrieb, in Finanzen & Controlling, im Marketing, in der Produktion, der Logistik, im Supply-Chain-Management und im Kundenservice.

 

Big Data Technologie leistet einen unverzichtbaren Beitrag für die Industrie 4.0. Zu nennen sind vier Bereiche:

  1. Smart Factory: Sensoren schaffen bessere Planungsfähigkeit.
  2. Smart Operations: Vernetzte Produktion ermöglicht flexible Steuerung der Produktion.
  3. Smart Service: Durch Vernetzung von Produkt und Hersteller und werden neue Dienstleistungen möglich.
  4. Smart Products: Hier gab es eine kleine Diskussion über die Frage, was ein smartes Produkt kennzeichnet.

 

Beispiel Netflix

 

Die Plattform versucht vorauszusagen, was Nutzer künftig sehen wollen. Nutzerprofile werden dazu ausgewertet, z.B. Korrelationen, wann ein begonnener Film abgebrochen wurde. Auf diese Weise werden Präferenzen für Schauspieler, Inhalte, Themen und ähnliches für bestimmte Nutzergruppen ermittelt. Dies hat Auswirkungen auf die Produktion von Serien. Zum Beispiel wurde die bekannte Serie "House of Cards" auf der Grundlage solcher Nutzerdaten produziert. (Eigene Anmerkung: Natürlich haben Produzenten von Filmen und Serien immer versucht, den Geschmack ihrer Zielgruppen zu treffen. Neu erscheint mir hier, die Geschwindigkeit der Rückkopplung und die Verknüpfung von Informationen. Früher konnte man sagen, dass die Einschaltquoten für eine Serie zurückgegangen sind. Für jeden Zuschauer, der abspringt, kann man heute sagen, was er stattdessen geschaut hat.)

 

Big Data Technologien verändern die Datenhaltung, den Datenzugriff, die analytische Verarbeitung, die Datenintegration und die Visualisierung.

 

Beispiel Datenhaltung

 

In-Memory-Datenbanken laden bei Programmstart den kompletten Datenbestand in den Hauptspeicher. Dies erhöht die Geschwindigkeit der Verarbeitung erheblich. Die Datenbankserver müssen dann natürlich besonders gegen Stromausfälle gesichert werden, z.B. durch Akkus. In zeitlichen Abständen gibt es Backups auf nicht-flüchtige Datenspeicher (Save Points). Diese Datenbanken können viele Terrabytes umfassen. Aufgrund der hohen Geschwindigkeit entfällt der bisherige ETL-Prozess. (ETL steht für Extract, Transform, Load. Bislang mussten Daten aus operativen Systemen aufbereitet und verdichtet werden, bevor man sie analysieren konnte. In-Memory-Datenbanken sind schnell genug, um direkt auf den vollständigen operativen Datenbeständen zu arbeiten.) Vorteile sind z.B. schnelle Reaktion auf Preisschwankungen, schnelle Sperrung bei Missbrauchsverdacht, schnelle Reaktion auf aufkommende Gerüchte (Shitstorm-Erkennung!), Verringerung von Out-of-shelf-Problemen, positiveres Image durch schnellere Reaktion auf Kundenanfragen. Ein Beispiel für eine In-Memory-Datenbank wäre SAP Hana.

 

Beispiel Sentiment-Analyse

 

Bei der Sentiment-Analyse geht es darum, wie eine Person zu etwas steht. So gibt es mittlerweile Standard-Extraktoren für Posts auf Plattformen wie Twitter und Facebook über standardisierte Schnittstellen. Diese ermitteln z.B. Korrelationen zwischen Schlüsselwörtern und Adjektiven wie "successful" oder "bad". Auf die Weise kann man nicht nur schnell ermitteln, wie ein Produkt, ein Service oder eine Organisation wahrgenommen wird, sondern auch, wie diese Wahrnehmung sich aktuell verändert. Das kann man im Marketing und in der Öffentlichkeitsarbeit nutzen.

 

Anforderungen

 

Um Big Data nutzen zu können, muss man verschiedene Arten von Anforderungen erfüllen:

  • Technische Anforderungen: Dazu zählen z.B. Skalierbarkeit, um mit dem rasanten Wachstum der Bestände Schritt halten zu können, aber auch Schnittstellen, um Daten aus immer vielfältigeren Quellen verknüpfen zu können.
  • Personelle Anforderungen: Es erweist sich als schwierig, Mitarbeiter mit den nötigen Kompetenzen zu beschaffen. Dazu später mehr bei den Herausforderungen.
  • Organisatorische Anforderungen: Man braucht Regelungen zum Umgang mit den neuen Daten. Auch Regelungen zum Datenschutz sind wichtig. (Wie man in jüngerer Zeit immer wieder erleben muss, kann sorgloser Umgang mit Kundendaten den Ruf eines Unternehmens nachhaltig schädigen.)
  • Projektspezifische Anforderungen: Hier geht es darum, Business-Cases zu finden, also Möglichkeiten, durch Analyse und Verknüpfung von Daten einen Mehrwert zu erzeugen. Dies könnten Einsparungen in der Produktion sein, eine schnellere Bereitstellung von Diensten als Mitbewerber, eine gezieltere Ansprache von Kunden durch Werbung, eine bessere Planung des Produktportofolios und vieles mehr.

 

Herausforderungen beim Einsatz von Big Data

 

Der Einsatz und die Einführung von Big Data Technologien ist mit verschiedenen Herausforderungen verbunden:

  • Fehlendes analytisches Know-How: Ideale Mitarbeiter haben Kenntnisse in Statistik, BWL und Informationstechnologie. Die Person, die diese Fähigkeiten kombiniert, nennt man Data Scientist. Offen bleibt die Frage, wie wahrscheinlich es ist, diese Kompetenzen tatsächlich häufig genug vereint in einer Person zu finden. Voraussichtlich wird man eher interdisziplinäre Teams bilden müssen.
  • Datenschutz: Hier geht es einerseits darum, was Unternehmen dürfen und müssen, und andererseits darum, wie Kunden auf Sicherheitslecks reagieren.
  • Fehlendes technisches Know-how
  • Datensicherheit: Wie verhindert man z.B. unauthorisierten Zugriff?
  • Kosten
  • Fehlender Business-Case
  • Die Geschäftsprozesse sind nicht reif genug für den Einsatz von Big Data

 

Wie etabliert man Big Data in einem Unternehmen?

 

Dafür gibt es das BITKOM-Vorgehensmodell:

  1. Assessment: Eine Ist-Analyse erfasst, was die aktuellen Daten sind und wie die aktuelle Systemlandschaft aussieht.
  2. Readyness: Neue Datenquellen werden eingebunden. Die Datenquellen werden vereinheitlicht.
  3. Implementierung und Integration: Die eigentliche Einführung einer Big Data Applikation.
  4. Konsilidierung und Migration
  5. Nutzung der neuen Daten
  6. Reportung und Predictive Analytics: Hier geht es um die Gewinnung neuer Einsichten, indem man unbekanntes und ungenutztes Wissen in den zusammengeführten Datenbeständen entdeckt.
  7. End-to-End-Prozesse: Man wandelt die gewonnenen Einsichten in Vorteile, indem man neue und bessere Geschäftsprozesse konzipiert und einführt. Im Grunde wird erst durch diesen Schritt der Nutzen realisiert.
  8. Optimierung und Tuning: Hier geht es um die Frage, wie eine künftige und bessere Systemlandschaft aussehen könnte. Damit schließt sich ein Kreis und die Phasen können erneut durchlaufen werden.

 

Erwarteter Nutzen

 

Durch den Einsatz von Big Data erwartet man vielfältigen Nutzen:

  • Bessere Informationen über das Informations- und Konsumverhalten der Kunden
  • Bessere Steuerung von Marketing und Vertrieb
  • Optimierte Logistik
  • Einschätzung von Marktpotentialen und Business Cases
  • Höhere Renditen durch optimierte Preisgestaltung: Das ist ein heißes Eisen. Technisch betrachtet, könnten Algorithmen eine Prognose erstellen, wie viel ein Kunde für ein Produkt oder eine Leistung zu zahlen bereit oder in der Lage ist. Sie könnten dann einen individuellen Preis je nach Größe des Geldbeutels und Ausgabenbereitschaft machen. (Eigene Anmerkung: Rechtlich ist das problematisch. Bekannt wurde zum Beispiel, dass Disneyland Paris unterschiedliche Preise je nach Herkunftsland der Kunden nahm.)
  • Wettbewerbsvorteile durch genauere Marktkenntnis

 

Reifegrad-Modelle

 

Reifegrad-Modelle beantworten die Frage: Ist mein Unternehmen reif genug, um Big Data Technologien einsetzen zu können? Ein Beispiel ist das Business Intelligence Maturity Model von Steria Mummert Consulting. Es unterscheidet fünf Stufe der Reife.

  1. Lokale Daten, bezogen auf bestimme einzelne Aufgaben
  2. Informationsinseln, z.B. nach Unternehmensbereichen
  3. Informationsintegration, d.h. die Daten sind unternehmensweit vernetzt
  4. Informations-Intelligence, d.h. die Daten sind logisch integriert
  5. Informationsgetriebenes Unternehmen

 

Zur Person

 

Prof. Dr. Uwe Schmitz betreut im Online-Studiengang B.Sc. Wirtschaftsinformatik die Module "Strategisches Management & Controlling" und "Grundlagen BWL".

 

Soweit zum ersten Vortrag des Präsenztages.

 

13:30 Uhr - Vortrag: DevOps, Dr. Hendrik Neumann (W3L AG)

 

Nach einer Pause gab es ab 13:30 Uhr einen weiteren Vortrag zum Thema "DevOps" von Dr. Hendrik Neumann (W3L AG), der ebenfalls interessant und aufschlussreich war. Allerdings machte sich an diesem Punkt bemerkbar, dass ich am gleichen Tag auch noch eine zweistündige Klausur geschrieben hatte. Die Qualität meiner Notizen war leider nicht mehr ausreichend, um die Inhalte hier detailliert wiederzugeben.

 

Fazit

 

Wichtig war wie immer auch der informelle Austausch mit anderen Studierenden. In Kombination mit dem gebotenen Programm war es die lange Anfahrt nach Dortmund wert. Allmählich kommt für mich die Zielgerade in Sicht. Allzu oft werde ich wohl nicht mehr Gelegenheit haben, an einem Präsenztag teilzunehmen. Mindestens einmal fahre ich aber noch nach Dortmund, wahrscheinlicher sogar zweimal. Ich werde hier im Blog berichten.

2 Kommentare


Empfohlene Kommentare

Danke für deinen Bericht. Das Thema Big Data finde ich wichtig und aktuell.

 

Wurde auch über Risiken in der Art gesprochen, dass möglicherweise falsche Schlüsse aus den Daten gezogen werden und es dadurch zu Fehlentscheidungen kommt?

Link zu diesem Kommentar

Das stand nicht im Mittelpunkt des Vortrages. Das Thema wurde schon klar aus der Perspektive Wirtschaftsinformatik betrachtet. Es ging also in erster Linie um die Frage, was für informationstechnische Möglichkeiten es gibt und wie man sie unternehmerisch nutzen kann. Die Probleme Datenschutz und Datensicherheit tauchten auf, aber vor allem unter den Blickwinkeln, dass Datenlecks einem Unternehmen schaden können, und dass es anspruchsvoll ist, Datenschutz und Datensicherheit zu gewährleisten.

 

Natürlich steckt in dem von dir angesprochenen Problem wesentlich mehr. Data Mining Methoden finden Korrelationen, klassifizieren und kategorisieren Nutzer, machen Prognosen über deren Verhalten. Diese Erkenntnisse zu nutzen, bedeutet natürlich, vorhandene oder potentielle Kunden unterschiedlich anzusprechen. Das kann zum Beispiel heißen, dass man einem Kunden ein Produkt oder eine Dienstleistung zu bestimmten Konditionen anbietet und anderen nicht. Nun wäre zum Beispiel denkbar, dass Menschen aufgrund ihrer Rasse, ihrer Herkunft, ihres sozioökonomischen Status oder sogar aufgrund einer Behinderung unterschiedlich behandelt werden. Das könnte auch geschehen, wenn derlei Kriterien gar nicht direkt in die Auswertung eingehen.

 

Im vergangenen Jahr hat ja Justizminister Heiko Maas eine Art Antidiskriminierungsgesetz für Algorithmen gefordert. Dazu gehörte auch die Forderung, die Funktionsweise von Algorithmen transparent zu machen. Hier ist ein entsprechender Artikel im Handelsblatt. Im gleichen Artikel wird Oliver Süme vom eco Branchenverband Internetwirtschaft mit dieser Äußerung wiedergegeben:

Zitat

Algorithmen sind per se ohnehin erstmal diskriminierungsfrei und entfalten erst im Kontext des jeweiligen Geschäftsmodells, in dem sie eingesetzt werden, evaluierende Funktionen.

 

Das klingt, als müsste zunächst ein Geschäftsmann eine Idee für eine diskriminierende Geschäftspraxis haben, für die er dann einen diskriminierenden Algorithmus in Auftrag gibt. Aber so einfach ist es nicht. Data Mining Techniken sollen ja in vorhandenen Datenbeständen bislang unbekannte Zusammenhänge entdecken. Künstliche neuronale Netze lernen, Muster zu erkennen. Wie sie ihre Leistungen vollbringen, ist auch für ihre Schöpfer nicht nachvollziehbar. Sie sind "Black Boxes". Ich meine, dass es daher durchaus denkbar ist, künftig die Verantwortung für eine de facto diskriminierende Geschäftspraxis auf Algorithmen abzuwälzen, die Korrelationen finden, nach denen man nie explizit gefragt hat. Wie in den Sketchen in Little Britain heißt es dann vielleicht achselzuckend: "Computer sagt sein."

 

Natürlich verstehe ich auch den Einwand, dass eine enge Regulierung ein Wettbewerbsnachteil ist. Dann stehen die Server eben im Ausland, wo es für unsere gewählten Regierungen noch schwieriger wird, überhaupt einen Einfluss auszuüben.

 

Eine einfache Antwort oder eine klare Meinung habe ich nicht. Umso wünschenswerter wäre es, über solche Themen zu diskutieren. Das ist dann natürlich kein reines Informatik-Thema mehr.

 

So ein Bachelorstudiengang ist ja schon jetzt ziemlich vollgestopft mit Themen und Inhalten. Dennoch bleiben stets viele Wünsche offen, was man noch hätte lernen wollen und müssen. Manche Wirtschaftsstudiengänge enthalten ja inzwischen ein Ethik-Modul. Das wurde gerade nach der Finanzkrise chic. Ich glaube aber nicht, dass so etwas ausreicht. Die Bereitschaft, in einem breiteren gesellschaftlichen Rahmen zu denken und über Technikfolgen nachzudenken und zu diskutieren, lässt sich meiner Meinung nach nicht per Curriculum verordnen oder per Klausur abprüfen.

 

Ich sehe es eher so: Neue Technologien und damit verbundener gesellschaftlicher Wandel schaffen Chancen aber auch Probleme und werfen viele neue Fragen auf. Informatiker können zu dieser Diskussion viel beitragen, weil sie besser als andere verstehen, wie neue Techniken funktionieren. Wenn aber technisch kompetente Akteure die gesellschaftliche Perspektive ausblenden, Probleme nicht ernst nehmen, herunterspielen oder sich schlicht für nicht zuständig erklären, müssen sie sich nicht wundern, falls eines Tages auch mal Entscheidungen ohne ihre Beteiligung fallen.

Link zu diesem Kommentar

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden


×
  • Neu erstellen...