Springe zum Inhalt
  • Einträge
    61
  • Kommentare
    186
  • Aufrufe
    7.163

Über diesen Blog

Seit September 2015 studiere ich berufsbegleitend Web- und Medieninformatik bei Springer Campus. Mein Ziel ist der Bachelor of Science in Web- und Medieninformatik. In diesem Blog möchte ich rückblickend über von mir abgeschlossene Module des Studiums berichten.

 

Meine Motivation für diesen Blog speist sich aus zwei Quellen:

  1. Vor der Entscheidung für mein Studium hätte ich neben den Materialien von Springer Campus auch gerne Informationen aus Teilnehmerperspektive gehabt. Leider konnte ich damals niemanden finden,  der diesen Studiengang studierte und mir Auskünfte geben konnte. Ich hoffe, dass meine Berichte anderen Interessierten helfen, sich für oder auch gegen meinen Studiengang zu entscheiden. Wichtig ist ja, dass die Inhalte aber auch das "Drumherum" zu euren Interessen und Zielen aber auch zu eurer Lebenssituation passen.
  2. Beim Schreiben dieses Blog habe ich bemerkt, dass ich selbst auch eine Menge davon habe. Das Verfassen der Modulberichte ist für mich Anlass, meine Lernerfahrungen zu reflektieren. Was habe ich mitgenommen? Was hat mir Spaß gemacht? Was hat mich weniger interessiert? Was hätte ich besser machen können? Was hätte ich gerne noch gelernt? Ich finde, dass diese Rückschau mir hilft, die einzelnen Module in ein Gesamtbild einzuordnen, so dass ich nicht nur von Prüfung zu Prüfung haste sondern (hoffentlich) auch einen roten Faden im Curriculum meines Studiums und in meiner persönlichen Entwicklung zum Informatiker erkenne.

 

Dieser Blog richtet sich zwar in erster Linie an Leser, die sich für den Studiengang B.Sc. Web- und Medieninformatik bei Springer Campus interessieren. Er könnte auch für Leser interessant sein, die beim gleichen Anbieter Wirtschaftsinformatik studieren möchten. Viele Module aus meinem Studiengang sind nämlich auch für angehende Wirtschaftsinformatiker Pflicht, z.B. aus den Bereichen Softwaretechnik, Mathematik und Grundlagen der Informatik. Außerdem habe ich einige Module aus dem Bereich Wirtschaftsinformatik als Wahlpflichtmodule belegt.

 

Viel Spaß beim Lesen!

Einträge in diesem Blog

 

Modulbericht: IT-Projektmanagement

Zur Rolle des Moduls im Studium   Das Modul "IT-Projektmanagement" ist ein Pflichtmodul im Studiengang "B.Sc. Wirtschaftsinformatik" und wird dort auch dem Studienbereich Wirtschaftsinformatik zugerechnet. Vorgesehen ist es für das 4. Fachsemester. Formale Zugangsvoraussetzungen gibt es keine. Als inhaltliche Vorbereitung werden die Module "Geschäftsprozessmanagement" und "Software-Management 2" empfohlen. Ich meine, man könnte das Modul auch ohne diese Vorbereitung belegen. Web- und Medieninformatiker können dieses Modul im Wahlpflichtbereich belegen. Es gibt auch einen besonderen Anreiz, gerade dieses Modul zu wählen: Es ist Pflichtmodul für die Hochschulzertifikate "Requirements Engineer" und "Software-Manager".   Persönliche Motivation   Da ich Web- und Medieninformatik studiere, hätte ich dieses Modul nicht unbedingt belegen müssen. Nun war mir das Pflichtmodul "Software-Management 1" nicht leicht gefallen und auch die Klausur hätte besser laufen können. Darum hoffte ich, fachlich davon profitieren zu können, mich dem Thema Software-Management noch einmal aus einer anderen Perspektive zu nähern.   Zum Lehrbuch   Das Buch "Management von IT-Projekten" ist von Hans W. Wieczorrek und Peter Mertens. Es ist ein gebundenes Hardcover vom Springer Verlag aus der Serie Xpert.press. Im Modul verwendet wird die 4. Auflage von 2011. Sie hat einen Umfang von ca. 450 Seiten. Ich hatte das Glück, dass einer der Autoren mich als Tutor betreute.   Das Buch behandelt sein Thema umfassend und aus vielen unterschiedlichen Perspektiven. In Kapitel 2 werden Grundbegriffe des Projektmanagements geklärt, Projektarten vorgestellt und Erfolgsfaktoren des Projektmanagements identifiziert. Kapitel 3 beschäftigt sich mit dem institutionellen Management von IT-Projekten. Hier geht es z.B. um Vor- und Nachteile verschiedener Projektorganisationsformen und auch um die Aufbauorganisation von Projekten. Schon nach diesen zwei Kapiteln wird deutlich, dass das Modul gegenüber dem Modul "Software-Management 1" eine stärker betriebswirtschaftliche Perspektive einnimmt. Ich finde, auch die Praxis bekommt ein etwas stärkeres Gewicht als im Lehrbuch von Herrn Balzert, dass dafür mehr Aufwand bei der scharfen Definition von Begriffen treibt.   Kapitel 4 beschäftigt sich mit dem Vorgehen in IT-Projekten. Es geht um die Phasen der Projektinitialisierung und Projektdefinition. Dann geht es um mögliche Vorgehensmodelle, wobei auch agile Modelle eine Rolle spielen. Auch das Thema Prototyping wird behandelt. Insgesamt gibt es hier viel inhaltliche Überlappung mit dem Modul "Software-Management 1". Aber die Kapitel scheinen stärker aus der Perspektive der Praxis geschrieben zu sein. Mit dem Vorwissen aus dem Lehrbuch von Herrn Balzert war der präsentierte Stoff für mich gut lesbar. Ich hatte das Gefühl, hier viele Dinge noch einmal anders zu verstehen als beim ersten Anlauf. Insofern hatte ich schon hier den Eindruck, dass die Bearbeitung dieses Moduls sich für mich lohnte.   Dem agilen Projektmanagement ist das Kapitel 5 gewidmet. Hier geht es unter anderem um das agile Manifest und Prinzipien agiler Entwicklung, aber auch um Voraussetzungen für den Einsatz agiler Modelle.   Die Kapitel 6 und 7 beschäftigen sich mit der Planung von IT-Projekten und Techniken der Projektplanung. Projektmanagment wird als Regelkreis vorgestellt und Schritte und Phasen der Planung werden beschrieben. Neben der Listentechnik und den vielen bekannten Gantt-Diagrammen werden vor allem CPM-Netzpläne beschrieben, die auf der Graphentheorie basieren. Die Erstellung solcher Netzpläne sollte man für die Online-Klausur üben.   Recht interessant war für mich das Kapitel zur Führung in IT-Projekten, wo es z.B. um soziologische Führungsmittel ging. Hier gab es z.T. sehr konkrete Hinweise, wie ein fairer Umgang mit Mitarbeitern aussehen müsste. Auch Themen wie Budgetierung, Steuerung und Controlling wurden behandelt.   Für mich weniger zugänglich war das Kapitel 9 zur Aufwandsschätzung in IT-Projekten. Hier wurden verschiedene Methoden knapp vorgestellt. Es schafft somit einen Überblick. Leider wird nicht für alle Verfahren anschaulich gezeigt, wie sie im einzelnen funktionieren. Dass allerdings hätte den Umfang des Lehrbuches auch stark erhöht. Viele Schätzungen basieren auf dem Vergleich neuer Projekte (mit bislang unbekannten Kosten) mit abgeschlossenen Projekten (mit bekannten Kosten). Das setzt natürlich voraus, dass Projekte ordentlich dokumentiert und ausgewertet werden.   Im Kapitel 10 geht es um die Wirtschaftlichkeit von IT-Projekten. Hier war mir das Tempo oft zu hoch. Es wird deutlich, dass die Autoren sich in einem betriebswirtschaftlichen Umfeld gut auskennen. Dabei setzen sie möglicherweise Begrifflichkeiten als allgemein bekannt voraus, die zumindest mir durchaus unklar waren. So habe ich zum Beispiel anhand der Ausführungen nicht begreifen können, was die Kapitalwertmethode ist. Allerdings war mein Tutor auf Nachfrage gerne bereit, mir dafür zusätzliches Übungsmaterial zur Verfügung zu stellen. Allgemein kann ich sehr empfehlen, Kontakt zu den Tutoren herzustellen und zu halten und sie als Ansprechpartner bei fachlichen Schwierigkeiten zu nutzen.   Kapitel 11 gibt Tipps und Tricks für Leiter von IT-Projekten. Die folgenden Kapitel behandeln Subsysteme des Projektmanagements, Projektpolitik und stellen einen Rahmen für das Projektmanagement vor. Den Abschluss bildet, wie so oft bei Springer Campus, eine Fallstudie, die für meinen Geschmack noch ein bisschen mehr Raum hätte einnehmen dürfen.   Insgesamt fand ich das Lehrbuch gut lesbar und praxisnah geschrieben. Obwohl ich bislang nicht im IT-Bereich arbeite, konnte ich einige Analogien zu Situationen in meinem beruflichen Alltag herstellen und so viele Ausführungen besser nachvollziehen. Die Materie an sich ist durchaus trocken, aber die Autoren behandeln den Stoff auf eine praxisorientierte Weise. Insgesamt habe ich von der Lektüre profitiert. Vieles, was ich beim Lesen des Lehrbuches von Herrn Balzert recht mühsam verstanden habe, fiel mir hier leichter. Das mag zum Teil an der inhaltlichen Überlappung liegen, aber ich glaube, dass Texthandwerk der Autoren leistet auch einen wichtigen Beitrag dazu.   Tests und Einsendeaufgaben   Die Tests habe ich selten auf Anhieb richtig lösen können. Gut gefallen hat mir, dass sie umfangreich kommentiert sind. So habe ich stets nachvollziehen können, warum meine erste Lösung falsch war. Oft habe ich gerade durch meine Fehler neue Einsichten in den Stoff gewonnen. Die Tests waren auf den Stoff der Kapitel bezogen und ergänzten ihn in sinnvoller Weise.   Die Einsendeaufgaben zielten meist auf Reproduktion des Stoffes und waren somit relativ leicht lösbar. Hier hätte ich mir mehr Aufgaben gewünscht, die auf Anwendung abzielen und Transferleistungen beinhalten, denn das spielt in der Online-Klausur und in der Präsenzklausur natürlich eine Rolle.   Die Rückmeldungen meines Tutors kamen zügig und waren konkret und hilfreich. Auf Nachfrage verwies mein Tutor auch auf zusätzliches Material, um z.B. das Erstellen von CPM-Netzplänen zu üben. Das erwies sich als sinnvoll und nützlich, denn erst in der Anwendung merkt man, ob man den Stoff verstanden hat. Allerdings hielte ich es deswegen für wünschenswert, wenn auch einige Einsendeaufgaben stärker auf Anwendung und Transfer abzielten.   Online-Test und Online-Klausur   Der Online-Test fiel mir recht leicht und passte gut zu den Aufgaben, die ich zuvor geübt hatte. Es war gut, dass ich zuvor mit zusätzlichem Material geübt hatte, auf das mich mein Tutor verwiesen hatte. Ich empfehle hier allen Studierenden, Kontakt mit dem Tutor zu suchen und auch konkret nachzufragen, wie und womit man üben kann. Es gibt im Netz viel Material, das frei zugänglich ist. Aber wenn man nicht im Dialog bleibt, entgeht einem womöglich die Chance, sich bestmöglich vorzubereiten. Leicht denkt man nach Lektüre der Kapitel, dass man alles verstanden hat und auch anwenden kann. Aber das kann trügerisch sein.   Präsenzklausur   Die Präsenzklausur lief für mich leider nicht gut. Die ersten Aufgaben fielen mir zwar leicht und ich konnte sie in weniger als der Hälfte der Zeit bearbeiten. Aber die letzte Aufgabe machte 40% der Punkte aus und war umfangreicher. Und ausgerechnet hier gelang es mir nicht, die Aufgabenstellung zu verstehen und die enthaltenen Hinweise zu verwerten. Am Ende war ich überzeugt, hier keinen einzigen Punkt erzielen zu können. So habe mich entschieden, alle bearbeiteten Aufgaben durchzustreichen, um mit null Punkten durchzufallen und einen neuen Anlauf nehmen zu können.   Ursprung meiner Schwierigkeiten war ein Missverständnis. Ich hatte eine Auflistung von Werten falsch gelesen und so jeweils zwei durch ein Komma getrennte Werte als einen einzigen Wert mit Nachkommastellen aufgefasst, der dann völlig unrealistisch war. Leider waren diese Werte grundlegend für alle folgenden Arbeitsschritte. Offenbar war ich dann so aufgeregt, dass ich eine Art Tunnelblick entwickelt habe. Ich habe eine Stunde lang immer nervöser nach einer Möglichkeit gesucht, mit den unsinnigen Werten zu rechnen oder irgendeine sinnvolle Erklärung dafür zu finden. Ärgerlich daran ist, dass auch die letzte Aufgabe gut machbar gewesen wäre.   An dieser Stelle zeigte sich wieder einmal der Wert einer guten tutoriellen Betreuung. Ich habe zu Hause umgehend meinen Tutor kontaktiert, weil ich zu diesem Zeitpunkt noch nicht verstanden hatte, was eigentlich schiefgelaufen war. Dementsprechend verunsichert war ich, auch im Hinblick auf eine Wiederholungsprüfung. Mein Tutor hat sehr umgehend reagiert und mit seiner Hilfe konnte ich verstehen und für mich reflektieren, was eigentlich passiert war. Für Außenstehende dürfte offensichtlich sein, dass ich dieses Mal die Nerven verloren hatte. Mir selbst war das zunächst gar nicht klar. Dies war meine 38. Klausur im Studiengang und bislang hatte ich unter Stress immer gut funktioniert und bis zum Schluss einer Klausur lösungsorientiert weiterarbeiten können. Möglicherweise habe ich mich wegen der stärker betriebswirtschaftlichen Perspektive des Moduls und dem Management-Fokus unsicher gefühlt.   Jedenfalls habe ich mich nach der Klärung mit meinem Tutor wieder beruhigen und das Geschehene für mich einordnen können. Ich plane nun, einfach das nächste Modul zu bearbeiten und beim nächsten Klausurtermin die Wiederholungsklausur zu schreiben. Eigentlich sollte das klappen.   Fazit   Ursprüngliche Motivation für die Belegung dieses Moduls war, das Thema Software-Management noch einmal in den Blick zu nehmen. Und zwar nicht, weil ich mich für eine Tätigkeit mit diesem Schwerpunkt interessiere. Sondern eher, um die Perspektive eines Projektmanagers auf den Gesamtprozess besser verstehen zu können, auch wenn ich selbst lieber umsetzend als planend und führend tätig werden möchte. In meinem Arbeitsbereich habe ich die Erfahrung gemacht, dass ein wenigstens rudimentäres Verständnis für die Aufgaben des Managements die Kommunikation am Arbeitsplatz verbessert. In dieser Hinsicht hat sich das Modul für mich gelohnt. Das liegt in erster Linie am verständlich geschriebenen Lehrbuch und an der guten tutoriellen Betreuung.   Obwohl das Projektmangement im Softwarebereich einige Besonderheiten hat, meine ich, dass ich einige Einsichten auch auf meinen gegenwärtigen Arbeitsbereich übertragen kann, der nichts mit IT zu tun hat. Möglichkeit zur Verbesserung sehe ich bei den Einsendeaufgaben. Diese könnte man um zwei bis drei komplexere Aufgaben ergänzen, die mehr Transfer und Anwendung erfordern.   Um das Modul abschließen zu können, muss ich nun noch die Wiederholungsklausur bestehen. Ich werde hier im Blog berichten. Ich glaube, für meine persönliche Entwicklung ist es gar nicht schlecht, dass ich auch mal eine Klausur nicht bestanden habe. Mein Umgang damit war zunächst alles andere als gelassen. Für die Zukunft denke ich, dass ich an meiner Fähigkeit arbeiten muss, Rückschläge zu verdauen und mich bei eigenen Fehlern nicht gleich in Frage zu stellen. Das Phänomen, aus dem "kognitiven Tunnel" nicht mehr herauszufinden, ist auf jeden Fall Aufmerksamkeit und Reflexion wert. So etwas könnte ja auch in anderen Zusammenhängen passieren. Die nächste Chance, es besser zu machen, kommt Mitte März.

kurtchen

kurtchen

 

Modulbericht: Präsentieren

Das Modul "Präsentieren & Moderieren" wird in den IT-Studiengängen von Springer Campus dem Wahlkatalog 1 "Basiskompetenz Beruf" zugeordnet. Es gehört damit zu den Soft Skill-Modulen dieser Studiengänge. Andere Module aus diesem Katalog sind "Selbst- und Zeitmanagement", "Kreativitätstechniken", "Rhetorik" und "Soziale Kompetenz". Auch das Modul "Wissenschaftliches Arbeiten" gehörte in diese Gruppe, es ist aber inzwischen ein Pflichtmodul. Angehende Web- und Medieninformatiker wählen ein Soft Skill-Modul, die Wirtschaftsinformatiker zwei. Zu den Modulen "Rhetorik" und "Präsentieren & Moderieren" gehört aus naheliegenden Gründen eine mündliche Prüfung. Die Klausur fällt dafür nur einstündig aus.   Normalerweise wählt man diese Module ganz zu Beginn des Studiums. Ich war mir unsicher, was ich hier belegen sollte, weil ich viele Themen interessant fand. Lediglich das Modul zu den Kreativitätstechniken hätte ich nicht belegen wollen, weil ich hier - bedingt durch meine Ausbildung - schon relativ viel kannte. Für das Modul Präsentieren habe ich mich entschieden, weil ich annahm, es sei eine gute Vorbereitung für die Präsentation der Bachelorarbeit. Die Entscheidung fiel gegenüber Rhetorik sehr knapp aus. Den Ausschlag für Präsentieren gab dann das Thema Umgang mit Präsentationsmedien, das im Modul Präsentieren natürlich stärker ausgeprägt ist. Rhetorik konzentriert sich stärker auf den mündlichen Vortrag und die Argumentation.   Wer das Hochschulzertifikat "Requirements-Engineer" oder "Software-Manager" erwerben will, muss Präsentieren belegen.   Das Lehrbuch   Das Lehrbuch "Moderieren, Präsentieren, Faszinieren" ist von Petra Motte. Es hat an die 300 Seiten und enthält viele Abbildungen, insbesondere in den Kapiteln zum Umgang mit Präsentationsmedien. Der Schreibstil unterscheidet sich natürlich deutlich von einem Informatik-Lehrbuch. Aber auch im Vergleich zum Modul Wissenschaftliches Arbeiten merkt man hier, dass man im Bereich der Soft Skills ist. Präsentation und Moderation haben viel mit der Person des Moderators zu tun, mit seiner Haltung, seiner Persönlichkeit, seinem Auftreten. Im wissenschaftlichen Arbeiten geht es stärker um etablierte Konventionen und Regeln. Das wirkt im Vergleich "faktisch". Beim Präsentieren geht es stärker darum, seine Persönlichkeit einzubringen, mit eigenen Stärken und Schwächen zu arbeiten. Das Buch ist daher im Vergleich zu einem Informatik-Lehrbuch eher in einem Tonfall verfasst, der den Leser persönlicher anspricht. Es zeigt eher Wege und Möglichkeiten auf als eine Handlungsanweisung vorzulegen.   Deutlich wird dies zum Beispiel im Kapitel 3, in dem es um die Person des Moderators geht. Anhand von Photos (oder auf der Lernplattform auch kleinen Videos), werden Aspekte wie Körpersprache, Mimik und Gestik behandelt. Das Thema Umgang mit Lampenfieber spielt eine Rolle. Im Vergleich dazu geht es im Modul Wissenschaftliches Arbeiten stärker um das fachliche und die sachgerechte Aufbereitung der Inhalte. Hier steht mehr im Mittelpunkt, dass die Inhalte durch die Person des Präsentierenden zur Geltung kommen. Darum ist es sinnvoll, sich auch mit sich selbst und seiner eigenen Wirkung zu befassen.   Im Kapitel 4 geht es um die Vorbereitung und Gliederung einer Präsentation. Hier geht es vor allem um einen gelungenen Spannungsbogen, der das Publikum weder über- noch unterfordert. Auch Themen wie Zeitmanagement und Umgang mit Störungen spielen eine Rolle. Die Perspektive ist stärker didaktisch. Im Vergleich zum Modul Wissenschaftliches Arbeiten wird hier stärker dem Umstand Rechnung getragen, dass Zuhörer eine begrenzte Aufnahmekapazität und Aufmerksamkeit haben. Sie können aus einem Vortrag aussteigen, wenn sie sich langweilen, ermüden oder sich überfordert fühlen. Diese Aspekte waren im Modul Wissenschaftliches Arbeiten weniger präsent als hier.   Das recht ausführliche Kapitel 5 widmet sich den verschiedenen Präsentationsmedien. Nicht überraschend beginnt es mit der Bildschirmpräsenation oder dem, was man einen Beamer-Vortrag nennt. Hier geht es freilich nicht um konkrete Software-Produkte oder dem Umgang damit, auch wenn der Name PowerPoint fällt. Vielmehr geht es darum, die Vorzüge und Nachteile verschiedener Medien zu kennen und gegeneinander abzuwägen, um für jede Situation das geeignete Medium wählen zu können.   Auch der vermeindlich altmodische Overhead-Projektor kommt vor, z.B. wegen der Möglichkeit Folien während des Vortrages zu bearbeiten. So etwas ist zwar heute auch mit digitalen Hilfsmitteln möglich, aber die Arbeit mit den Folienstiften hat eine hohe Unmittelbarkeit und ermöglicht zum Beispiel auch, Teilnehmer einzubeziehen, die im Umgang mit digitalen Medien wenig versiert und gehemmt sind.   Noch unmittelbarer ist die Moderation mit einer Flipchart. Auch sie ermöglicht eine direkte Einbeziehung und Interaktion mit Teilnehmern, eignet sich allerdings eher für kleinere Gruppen. Mit dem Medium Whiteboard ist im Kapitel noch nicht das sogenannte interaktive Whiteboard sondern tatsächlich die weiße Tafel gemeint, die ebenfalls mit Folienstiften bemalt und mit Zetteln beklebt werden kann. Sie ist eher als Nachfolger der klassischen Kreidetafel zu sehen. Schließlich geht es um die Pinwand-Moderation, die ebenfalls viele Möglichkeiten zum aktiven Mitmachen und zur Arbeit in Kleingruppen bietet.   Im Verlauf des Kapitels wird auch langsam ein Bogen zu Arbeitsformen geschlagen, bei denen nicht mehr der Vortrag des Moderators sondern die Beiträge der Teilnehmer im Mittelpunkt stehen. Auch wenn die mündliche Prüfung in diesem Modul ein Vortrag ist, hat es mir gut gefallen, dass hier interaktive Arbeitsformen mit Gruppen betont wurden, denn schließlich halten Informatiker nicht nur Fachvorträge.   Das Kapitel 5 betont interaktive Methoden in der Moderation. Hier geht es um den Einsatz von Mind Maps, um Methoden des Brainstormings und Brainwritings und die Moderationsformen Open Space, World Café und Zukunftswerkstatt. Open Space ermöglicht es zum Beispiel, mit sehr großen Gruppen in einer Weise zu arbeiten, die den Austausch untereinander und das Sammeln fachlicher Beiträge der Teilnehmer unterstützt. Hier geht es nicht mehr darum, dass der Moderator als Wissender seinem Publikum Informationen vermittelt. Er soll vielmehr einen Austausch in Gang bringen, in dem die Teilnehmer ihr eigenes Wissen teilen und miteinander in Kommunikation kommen. Die Teilnehmer werden also eher zu Teilgebern. Sie und nicht der Moderator präsentieren Ergebnisse ihrer Arbeit in Kleingruppen.   Im Rahmen dieses Kapitels kommt dann auch das sogenannte interaktive Whiteboard zur Sprache, dass ja mit großem finanziellen Aufwand an immer mehr Schulen Einzug hält. Ichpersönlich störe mich ein wenig an dem Begriff, weil er mir zu implizieren scheint, das klassische Whiteboard sei nicht interaktiv gewesen. Ein hohes Maß an Publikumsbeteiligung erreicht man nicht allein durch ein bestimmtes Medium sondern in erster Linie durch die Arbeitsform. Hier bieten klassische analoge Medien noch immer viele Vorteile, weil sie unmittelbar zu benutzen sind. Gerade für Menschen, die mit digitalen Medien weniger Erfahrung haben, sind sie "niedrigschwellig".   Das letzte Kapitel wagt einen Blick in die Zukunft der Moderation. Hier geht es auch um eine wahrgenommenen Veränderung in der Rolle des Moderators, der heute stärker die Selbstlernkräfte seiner Teilnehmer aktivieren soll. Um Raum für Beiträge der Teilnehmer zu schaffen, muss der Moderator sich selbst stärker zurücknehmen.   Tests und Aufgaben   Die Einsendeaufgaben fordern einen in diesem Modul natürlich anders als in anderen Modulen im Informatikstudium, wo vor allem abstraktes Denken und Logik gefragt sind. Hier geht es eher ums Abwägen oder darum, sich in Situationen einzufühlen, Möglichkeiten und Wege zu skizzieren. Für mich war das eine willkommene Abwechslung, vor allem im Kontrast zum Modul "Text Mining", welches das abstrakte Denken sehr forderte. Insofern kann ich empfehlen, so ein Soft Skill-Modul mit einem als sehr schwierig empfundenen Modul zu kombinieren. Man zehrt dann beim Lernen von unterschiedlichen Ressourcen. So kommt man gut voran.   Die Rückmeldungen meiner Tutorin kamen schnell. In diesem Modul wurde ich auch mal telefonisch betreut, weil ich eine Frage hatte, die auf diesem Wege besser zu klären war. Betreut wurde ich von der Autorin des Buches, der man anmerkt, dass sie für ihr Thema und ihren Beruf brennt.   Klausur und mündliche Prüfung   Schrifliche Einsendeaufgaben eignen sich bei diesem Modul natürlich nur bedingt zur Kontrolle des eigenen Lernerfolges. Als entscheidenden Baustein empfand ich darum die mündliche Prüfung. Hier ist ein (Beamer-)Vortrag zu einem Thema auszuarbeiten, dass mit Informatik nichts zu tun haben muss. Ich hatte z.B. ein Thema, bei dem es um die deutsche Sprache ging. Aus Gesprächen mit Kommilitonen weiß ich, dass die Themen oft beinhalten, eine eher offene Fragestellung zu beantworten, eine eigene Position zu einem Thema zu finden und argumentativ zu vertreten.   Im Gegensatz zum Modul Wissenschaftliches Arbeiten reicht man hier keine Vorschläge ein. Man bekommt das Thema zwei Wochen vor der Prüfung vom Studienbüro. Es ist also ein "Überraschungei". Ich war ganz zufrieden mit dem, was ich bekommen habe.   Für mich war es schön, mal zu einem ganz anderen Thema zu recherchieren. Und mir zu überlegen, wie ich das in begrenzter Zeit rüberbringe. Im Gegensatz zum Modul Wissenschaftliches Arbeiten, bei dem formale Korrektheit eine große Rolle spielt, geht es hier stärker darum, die Sache ein bisschen interaktiv zu gestalten. Für mich war jedenfalls die mündliche Prüfung die Messlatte dafür, ob ich aus dem Modul etwas mitgenommen haben. Mir hat es großen Spaß gemacht.   Die Klausur dauert in diesem Modul nur eine Stunde. Sie war absolut fair gestellt. Leider war mir neben der Vorbereitung der mündlichen Prüfung und dem Lernen für Text Mining kaum Zeit geblieben, den Stoff des Lehrbuches in diesem Modul zu wiederholen. Das habe ich ein bisschen zu spüren bekommen. Mal sehen, wie sich das auswirken wird.   Klausur und mündliche Prüfung gehen gleichermaßen in die Endnote ein. Das Ergebnis der mündlichen Prüfung erfährt man unmittelbar danach. Das ist auch schön, Feedback einmal so unmittelbar zu bekommen. Ich habe daraus noch ein paar Anhaltspunkte für die Präsentation meiner Bachelorarbeit mitgenommen, die ja nächstes Jahr fällig wird.   Die mündliche Prüfung in diesem Modul erfordert allerdings auch viel Vorbereitungszeit. Man muss ziemlich schnell ein Thema recherchieren, das mit dem Studium und dem Modul nicht viel zu tun hat. Auch die Vorbereitung der Folien kostet Zeit. Schließlich möchte man üben, ob man mit der Zeit auskommen wird. Ich hätte rückblickend betrachtet die Klausur zu diesem Modul vielleicht eher auf den nächsten Termin schieben sollen, um mich voll auf eine Sache konzentrieren zu können. Vielleicht wollte ich diesmal zu viel auf einmal.   Zu den mündlichen Prüfungen ist noch zu sagen, dass sie nur in Dortmund stattfinden. Es gibt zu jedem Prüfungstermin drei Slots am Vormittag. Mündliche Prüfungen müssen etwas früher angemeldet werden als schriftliche, weil der organisatorische Aufwand höher ist. Die Details dazu stehen in jeder Einladung zum Prüfungstag, die man als Studierender per E-Mail bekommt.   Fazit   Ich glaube schon, dass das Modul Präsentieren mir für die Verteidigung der Bachelorarbeit im nächsten Jahr noch einmal etwas bringen wird. Das war für mich ein Grund, es zu belegen. Es bisschen wehmütig bin ich auch, denn Rhetorik hätte mich schon auch interessiert. Der Schwerpunkt lag hier stärker auf dem Umgang mit Medien und auf interaktiven Arbeitsformen mit Gruppen. Im Modul Rhetorik spielt das Argumentieren anscheinend eine größere Rolle. Auch interessant! Aber man kann nicht alles machen.   Allmählich wird es übersichtlich. Im Januar möchte ich noch die Module "IT-Projektmanagement" und "Electronic Business" abschließen. Die Klausuren möchte ich voraussichtlich in Heidelberg schreiben. Dann steht die Bachelorarbeit an. Insgesamt muss ich also nur noch einmal nach Dortmund reisen. (Vielleicht ein zweites Mal, um den nächsten Präsenztag mitzunehmen.) Schade, dass Springer Campus keinen Master anbietet, der an diesen Bachelor anschließt, denn die Anbindung an die staatliche FH Dortmund gefällt mir sehr.

kurtchen

kurtchen

 

Modulbericht: Text Mining

Das Modul "Text Minining" kann in den Studiengängen von Springer Campus im Vertiefungsbereich (also als Wahlpflichtfach) belegt werden. Es ist auch Teil des Hochschulzertifikates "Junior-Data-Analyst". Um dieses Zertifkat zu erlangen, muss man allerdings auch eine Projektarbeit mit dem inhaltlichen Schwerpunkt Datenanalyse schreiben.   Ich hatte mich für dieses Modul entschieden, weil ich auch Data Mining belegt hatte. Der Schwerpunkt dieses Moduls lag stark auf der Anwendung von Data Mining Techniken in einem betrieblichen Kontext. Es war also eher aus der Perspektive der Wirtschaftsinformatik geschrieben. Mich hätte mehr interessiert, wie die verschiedenen Techniken zur Wissensextraktion mathematisch und algorithmisch funktionieren. Das spielte eine vergleichsweise geringe Rolle. Die Beschreibung des Moduls "Text Mining" ließ erwarten, dass der Schwerpunkt hier anders gelegt sein würde; nämlich auf Mathematik, Statistik und Algorithmen. Insofern hoffte ich, in diesem Modul das zu finden, was ich eigentlich im Modul "Data Mining" gesucht hatte. Ich wurde nicht enttäuscht.   Wer dieses Modul im Wahlpflichtbereich belegen möchte, sollte wissen, dass es inhaltlich zu den anspruchsvollsten Modulen im Studiengang gehört. Das Modul "Statistik" wird als fachliche Voraussetzung genannt. Das finde ich nachvollziehbar. In diesem Modul spielen auch einige Inhalte aus dem ersten Mathematik-Modul eine Rolle: Mengen, Relationen und Graphen. Das Modul ist recht mathematisch. Wer nach seiner letzten Mathe-Klausur froh war, keine Formeln mehr lesen zu müssen, sollte um dieses Modul eher einen Bogen machen. In der Beschreibung heißt es, das Modul "Data Mining" erlaube es, Querbezüge herzustellen. Das trifft es recht gut. Wer die hier beschriebenen Verfahren begriffen hat, kann sich gut vorstellen, wie man vergleichbares mit den strukturierten und halbstrukturierten Daten in Datenbanken machen kann. Für mich hat daher das Modul "Text Mining" einige der Inhalte aus Data Mining noch einmal neu "zum Leben erweckt".   Beim Thema Text Mining berühren sich Informatik, Mathematik, Statistik und die Geisteswissenschaften. Gerade letzteres könnte für manchen Informatik-Studenten herausfordernd sein. So lässt es sich beispielsweise nicht vermeiden, ein wenig linguistische Terminologie zu lernen. Begriffe wie Phonem, Graphem, Morphem, Flexiv, Derivativ oder Allomorphe muss man sich erschließen, wenn sie aus Schulzeiten nicht mehr geläufig sein sollten. Beim Thema Text Mining muss der Informatiker den Geisteswissenschaften ein Stück weit entgegenkommen. Es ist sehr interessant, wie Informatik und Sprachwissenschaft sich gegenseitig fachlich bereichern können. In diesem Bereich tut sich gerade einiges. So bezeichnet der Begriff "digital humanities" die Nutzung computergestützter Verfahren und digitaler Wissensressourcen in den Geisteswissenschaften. Solche digitalen Ressourcen sind zum Beispiel die großen Mengen natürlichsprachlicher Texte im Internet.   Das Lehrbuch   Das Lehrbuch "Text Mining: Wissensrohstoff Text" von Gerhard Heyer, Uwe Qualsthoff und Thomas Wittig hat an die 350 Seiten. Mir liegt der 3. Nachdruck vom Mai 2016 vor. Ursprünglich erschienen ist es 2006. Nun könnte man meinen, das sei für ein Lehrbuch im Bereich Informatik ein stattliches Alter. Man muss sich aber klarmachen, dass es hier nicht um konkrete Implementierungen und Technologien geht, die schnell wieder aus der Mode kommen. Das Buch beschäftigt sich mit Konzepten, Methoden und Algorithmen. Solches Wissen hat eine deutlich höhere Halbwertszeit. Insofern bin ich bei diesem Modul nicht der Meinung, eine inhaltliche Aktualisierung sei nötig. In der Lernplattform und bei den Einsendeaufgaben wird allerdings manchmal auf Online-Ressourcen verwiesen, die in dieser Form nicht mehr existieren. Eine Bearbeitung der Aufgaben ist trotzdem möglich, aber hier wäre eine Aktualisierung sicher benutzerfreundlicher.   Das Thema Text Mining ist komplex. Man braucht viele Konzepte, Begriffe und Verfahren, die wechselseitig stark voneinander abhängen. Daraus ergibt sich die Schwierigkeit, in welcher Reihenfolge man die Inhalte präsentiert. Es lässt sich bei diesem Thema nicht vermeiden, manche Themen mehrfach anzusprechen, weil man ein erstes Verständnis braucht, um sich weitere Konzepte zu erschließen, die dann erst ein vertieftes Verständnis der ersten Themen ermöglichen. So ist es auch in diesem Buch. Immer wieder tauchen Themen aus früheren Kapiteln auf und erscheinen nun in neuem Licht. Diese didaktischen Schleifen sind nötig, weil man den Stoff nicht im ersten Anlauf begreifen kann.   Das Einführende Kapitel "Wissen und Text" gibt auch einen kleinen historischen Rückblick über die automatische Wissensverarbeitung. Hier geht es u.a. um den Ansatz der Expertensysteme, der auf Logik, Fakten und Regeln basierte (Klassische KI). Dieser Ansatz erwies sich als nicht so fruchtbar, wie ursprünglich erhofft. Expertensysteme blieben Insellösungen, die über eine gewisse Komplexität nicht hinaus kamen. Außerdem war ein hoher Aufwand zur Wissenserschließung nötig. Text Mining beschäftigt sich mit der (halb-)automatischen Erschließung von Wissen aus unstrukturiertem Text und bietet somit neue Lösungsansätze.   Im Kapitel "Grundlagen der Bedeutungsanalyse" berühren sich Linguistik und Statistik. Es geht um drei sehr grundlegende Begriffe, die für das Verständnis des gesamten Moduls essentiell sind: syntagmatische Relationen paradigmatische Relationen semantische Relationen   Vereinfacht gesagt, bezeichnet die syntagmatische Relation das gemeinsame Auftreten zweier Wortformen in einem Satz. Im vorhergehenden Satz stehen also die Wortformen "Satz" und "Auftreten" in syntagmatischer Relation. Das alleine hilft aber nicht weiter. Interessanter ist die statistisch-signifikante syntagmatische Relation. Hierzu betrachtet man die relativen Häufigkeiten einzelner Wortformen im Korpus. Auf dieser Grundlage bestimmt man die Wahrscheinlichkeit dafür, dass zwei Wortformen in einem zufällig zusammengestellten Satz vorkommen. Interessant sind nun Paare von Wortformen, die im Korpus wesentlich häufiger in syntagmatischer Relation stehen, als dies statistisch zu erwarten gewesen wäre. Der Grund ist oft, dass es einen Bedeutungszusammenhang zwischen den Wortformen gibt. So werden zum Beispiel die Wörter Butter und Brot häufiger gemeinsam auftreten als etwa Butter und Schraube.   Der betrachtete Ausschnitt muss nicht immer ein Satz sein. Für viele Anwendungen ist es interessant, benachbarte Wörter zu betrachten. Wörter die statistisch häufig gemeinsam auftreten, bezeichnet man als Kookkurrenzen. Das Finden von Kookkurrenzen ist die Grundlage der Bedeutungsanalyse.   Die paradigmatische Relation hat einen höheren Abstraktionsgrad. Hierfür betrachtet man den globalen Kontext einer Wortform. Das ist einfach die Menge ihrer signifikanten Kookkurrenzen. So könnte z.B. ein Wort wie Brot Kookkurrenzen wie Butter, Marmelade, Bäcker, Wurst und Honig haben. Das Wort Semmel könnte ähnliche oder die gleichen Kookkurrenzen haben. Die Kookkurrenzen sind also Mengen von Wörtern. Man vergleicht nun für Paare von Wörtern diese Wortmengen mittels eines Ähnlichkeitsmaßes. Sind die Kookkurrenzen ähnlich, so sagt man, die Wörter stehen in paradigmatischer Relation. Dies dürfte bei Brot und Semmel der Fall sein. Man sucht also Wörter, die in ähnlichen Kontexten verwendet werden. Dies ist für die Bedeutungsanalyse sehr fruchtbar.   Semantische Relationen findet man, indem man die globalen Kontexte vor Bestimmung der Ähnlichkeit nach verschiedenen Kriterien filtert. Auf diese Weise findet man Zusammenhänge wie Kategorie, Funktion, Maßeinheit, Qualifizierung oder Ersetzungsklassen von Wörtern. Logische Relationen sind besonders trennscharf. Sie erlauben das Ziehen von Schlüssen. Dazu gehören z.B. Ober- und Unterbegriffe oder Gegensatzpaare.   Interessant ist hierbei, dass Logik aus der Perspektive der Bedeutungsanalyse nicht als grundlegend erscheint. Grundlegend sind die statistisch-signifikanten syntagmatischen Relationen, also das auffällig häufige gemeinsame Auftreten von Wortformen. Logische Relationen erscheinen erst auf relativ hohen Abstraktionsstufen (sozusagen als emergente Eigenschaft). Dies ist ein wichtiger Unterschied zu den klassischen Expertensystemen, bei denen die Logik grundlegend war. Mit der Bedeutungsanalyse lassen sich logische Beziehungen zwischen Begriffen durch statistische Verfahren extrahieren.   Im Kapitel "Textdatenbanken" geht es um Datenstrukturen, die sich für die Verarbeitung sehr großer Mengen natürlich-sprachlicher Texte eignen. Diese sollen einerseits platzsparend sein, andererseits einen sehr schnellen Zugriff erlauben. So soll es beispielsweise möglich sein, bei einem Korpus aus hunderten Millionen Wörtern schnell zu überprüfen, ob ein bestimmtes Wort enthalten ist. Eine Datenstruktur, die sich dafür gut eignet, sind sogenannte Tries. Sie sind letztlich Baumstrukturen, wobei jeder Knoten für einen Buchstaben eines Wortes steht. Das interessante an einem Trie ist, dass die Zugriffszeit nicht von der Anzahl der enthaltenen Wortformen sondern allein von der Länge des gesuchten Wortes abhängt.   Auch die Herausforderungen der Segmentierung von Texten sind ein Thema dieses Kapitels. So könnte man meinen, das Ende eines Satzes lasse sich leicht finden, weil deutsche Sätze auf einen Punkt enden. Denkt man einen Moment darüber nach, merkt man, dass die Sache wesentlich komplizierter ist. Nicht jeder Satz endet mit einem Punkt. Nicht jeder Punkt markiert das Ende eines Satzes. Zum Beispiel kann ein Algorithmus leicht eine Abkürzung mit einem Satzende verwechseln. Auch die Identifikation einzelner Wortformen kann durch zahlreiche Sonderfälle erheblich verkompliziert werden.   Im Kapitel "Sprachstatistik" geht es zunächst um die Zipfschen Gesetze. Diese erlauben z.B., die Anzahl der verschiedenen Wortformen eines Textes relativ gut zu schätzen, wenn seine Länge und seine Sprache bekannt sind. Sehr wichtig für das Verständnis der folgenden Kapitel ist der Abschnitt zur Differenzanalyse. Diese beruht auf dem Vergleich einer Textsammlung allgemeinsprachlicher Texte (dem Referenzkorpus) mit einer Sammlung bestimmter Texte (Analysekorpus). Die bestimmten Texte könnten zum Beispiel Zeitungsartikel eines bestimmten Themenbereiches sein. Die Differenzanalyse sucht mit statistischen Methoden nach Wortformen im Analysekorpus, die wesentlich häufiger auftreten als im Referenzkorpus. Dies ist ein Hinweis darauf, dass diese Wortformen für den Text oder die Textgattung in besonderer Weise bedeutungstragend sind. Dies ist zum Beispiel eine Grundlage für die automatische Beschlagwortung von Texten.   Relativ anspruchsvoll sind die Abschnitte zum probabilistischen Sprachmodell. Hier geht es um Hidden-Markov-Modelle. Sie sind endliche Automaten, deren Zustandsübergänge mit Wahrscheinlichkeiten versehen sind. Hidden-Markov-Modelle (HMMs) kann man vielfältig einsetzen, zum Beispiel in der Spracherkennung. HMMs können nämlich mehrdeutige Fälle durch Auswertung des Kontextes auflösen. Sie können z.B. entscheiden, welches von mehreren gleich oder ähnlich klingenden Wörtern gemeint ist.   Spannend sind die Verfahren zur Visualisierung von Kookkurrenzen mit Graphen. Um Begriffe herum erscheinen Wortwolken mit Begriffen, die in einem inhaltlichen Zusammenhang stehen. Bei manchen Begriffen sind diese Wortwolken zusammenhängend. Bei anderen zerfallen sie in Cluster. Das sind dann oft mehrdeutige Begriffe. Ein Beispiel wäre der Begriff Maus. Er ist umgeben von einem Cluster aus Wortformen, die mit der Bedeutung Nagetier zusammenhängen. Ein weiterer Cluster steht für die Bedeutung Eingabegerät.   Im Kapitel "Clustering" geht es um die entsprechenden Algorithmen. Gerade hier kann man vieles auf die Inhalte des Moduls "Data Mining" übertragen. Im Text Mining verwendet man Clustering-Algorithmen, um z.B. Dokumente mit ähnlichem Inhalt zu gruppieren. Es ist faszinierend, dass so etwas allein auf der Grundlage von Kokkurrenzen und Differenzanalyse möglich ist.   Im Kapitel "Musteranalyse" geht es reguläre Ausdrücke, die ja jedem Informatiker geläufig sind. Diese eignen sich gut, um aus Texten bestimmte Informationen mit vergleichsweise geringem Aufwand zu extrahieren. Die Suche nach Morphem-Mustern eignet sich dagegen zur automatischen Extraktion von Fachbegriffen eines Fachgebietes.   Die letzten beiden Kapitel beschäftigen sich mit "Hybriden Verfahren" und "Beispielanwendungen". Insbesondere im letzten Kapitel werden viele Inhalte aus den vorangegangenen Kapiteln im Anwendungskontext noch einmal präsentiert. Nicht zu vernachlässigen sind in diesem Modul die Anhänge, die z.B. linguistische Begriffe klären oder Stoff aus dem Modul Statistik wiederholen.   Tests und Aufgaben   Dass die Inhalte anspruchsvoll sind, merkte ich bei diesem Modul auch bei den Tests und Einsendeaufgaben. Selten gelang es mir, die Tests auf Anhieb richtig zu lösen. Gut war, dass die meisten relativ umfangreiche Kommentare enthielten, so dass man erklärt bekam, warum etwas falsch war. Das half ungemein. Es empfiehlt sich, die gleichen Tests nach ein paar Tagen zu wiederholen, um zu schauen, ob man den Stoff verinnerlicht hat.   Bei allen Aufgaben dieses Moduls habe ich deutlich länger für die Bearbeitung gebraucht als angegeben. In vielen Aufgaben geht es darum, zu erklären, wie bestimmte Verfahren und Anwendungen des Text Minings funktionieren. Es geht um Methoden und Algorithmen. Ich musste die Kapitel schon sehr gründlich durcharbeiten, um den Stoff gut genug zu verstehen. Die Implementierung der Verfahren in einer konkreten Programmiersprache spielte im Modul dagegen keine Rolle. Das ist kein Kurs für Leute, die mal wieder etwas programmieren wollen. Es geht allerdings durchaus darum, bestimmte Algorithmen so gut zu verstehen, dass man sie implementieren könnte. Ich habe jetzt z.B. eine ganz gute Vorstellung davon, wie Clustering funktioniert. Das schöne daran ist: Wenn man das verstanden hat, könnte man alles mögliche clustern, nicht bloß Texte oder Wortformen. Das Modul hat für mich so ein paar Wünsche erfüllt, die mir im Modul zu Algorithmen und Datenstrukturen offen geblieben sind.   Klausur   Bei der Online-Klausur habe ich leider gemerkt, dass ich die Aufgaben zwar prinzipiell hätte lösen können, allerdings nicht in der zur Verfügung stehenden Zeit. Dazu hätte man die Konzepte und Methoden schon sehr verinnerlichen müssen, um Lösungen praktisch ohne Nachdenken hinschreiben zu können. Das lief bei mir eher mittelprächtig, weswegen ich der Präsenzklausur mit Sorge entgegen sah.   Die Präsenzklausur war dann einfacher als gedacht. Aber das ist kein Modul, das man nebenbei macht. Es ist nötig, alle Einsendeaufgaben gründlich zu bearbeiten. Und man sollte das Feedback seines Tutors nutzen, um fachliche Lücken zu schließen.   Die Rückmeldungen meines Tutors waren in diesem Modul z.T. recht umfangreich, was mir bei diesem Thema auch sehr geholfen hat. Nachdem mir in der Online-Klausur die Zeit davongelaufen war, bekam ich auch ein paar Hinweise, wie ich schneller werden könnte. Ich habe versucht, dass in der Präsenzklausur zu beherzigen und hoffe, dass ich etwas davon umsetzen konnte. Auf das Ergebnis warte ich noch.   Fazit   Dieses Modul hat mich leider sehr lange beschäftigt. Gebucht hatte ich es schon Anfang 2017. Ich hatte angenommen, das irgendwann "zwischendrin" zu bearbeiten. Aber es war zu anspruchsvoll, um es nebenbei zu schaffen. Ich habe dann zunächst geschaut, dass ich Pflichtmodule abarbeite. Dann hielt mich meine Projektarbeit auf Trab. Nach dem Sommer war ich ein bisschen genervt, dass ich Text Mining noch immer nicht abgeschlossen hatte. Ich hatte das Lehrbuch schon zwei Mal zu zwei Dritteln gelesen, hatte es aber immer wieder abbrechen müssen. Um das Modul fertig zu kriegen, musste ich nun abermals von vorne anfangen. Hilfreich war dabei, dass ich Text Mining mit dem Modul "Präsentieren" kombiniert habe, dass mich auf eine ganz andere Weise forderte. Noch mehr abstraktes Denken hätte ich parallel zu Text Mining nicht geschafft.   Man kann also sagen, dass Text Mining für mich ein anstrengendes Modul war. Es war allerdings auch ein Modul, dass ich inhaltlich unheimlich interessant fand. Gerade weil es fachlich zwischen Informatik, Statistik und Sprachwissenschaft angesiedelt ist, was die Sache natürlich auch schwierig macht. Im Wahlpflichtbereich gibt es leichtere Optionen. Andererseits meine ich, dass die Module "Data Mining" und "Business Intelligence" erst mit diesem Modul "komplett" sind, weil eben hier die mathematische und algorithmische Perspektive betont wird. Das Modul ist klar für Studierende, die sich im Wahlpflichtbereich ein bisschen fordern wollen.   Aktuell warten nur noch zwei gebuchte Module auf mich - IT-Projektmanagement und Electronic Business. In beide habe ich schon reingeschnuppert. Ich hoffe, diese beiden Module im Januar abschließen zu können. Danach sollte nur noch die Bachelorarbeit vor mir liegen.

kurtchen

kurtchen

 

Springer Campus Präsenztag am 29.09.2018 - Teil 3

14 Uhr - Vorlesung: "Smarte Gegenstände, hybride Produkte, disruptive Geschäftsmodelle, neue Arbeitsformen, Always on-Gesellschaft - wie Vernetzung und Digitalisierung Wirtschaft, Verwaltung und Gesellschaft verändern", Prof. Dr. Uschi Gröner, FH Dortmund   Die letzte Vorlesung des Tages hielt Prof. Dr. Uschi Gröner vom Fachbereich Wirtschaft der FH Dortmund. Sie lehrt Betriebsinformatik und verteilte Informationssysteme. Da am Ende des Präsenztages meine Aufmerksamkeit schon etwas nachließ, waren meine Notizen dazu nicht mehr so detailliert. Insofern kann ich über ihren Vortrag nur skizzenhaft berichten.   Ist-Zustand   Frau Gröner begann mit einer Analyse des Ist-Zustandes. 81% der Bevölkerung sind Online. Das bedeutet im Umkehrschluss, dass immerhin noch 19% - also fast ein Fünftel der Bevölkerung - "Offliner" sind. 15-16 Millionen Deutsche sind NICHT im Internet. 94% davon sind älter als 50. Frauen stellen in dieser Gruppe die Mehrheit.   Wie nimmt man diese Gruppe mit? Diese Frage ist relevant, denn gerade Führungskräfte sind oft ältere Mitarbeiter. Startups haben dagegen meist junge Mitarbeiter. Es fehlt oft an Kompetenzen, ältere Mitarbeiter und solche, die nicht so technikaffin sind, in Übergänge einzubinden.   Weltweit sind ca. 4 Milliarden Menschen online. Wir befinden uns in der Phase der 4. industriellen Revolution. Wie sind wir dorthin gelangt?   Blick zurück   Frau Gröner lieferte einen knappen historischen Rückblick über die bisherigen 3 industriellen Revolutionen. (Im Modul "Electronic Business" wird dieses Thema ausführlicher behandelt.) Einen guten Überblick liefert in diesem Zusammenhang eine Timeline zur Geschichte der Digitalisierung, die man unter www.swisscom.ch finden kann.   1. Industrielle Revolution   Sie begann um 1784 mit der Nutzung von Wasser und Dampfkraft und war gekennzeichnet durch mechanische Produktionsanlagen, die harte körperliche Arbeit ersetzten. In diese Ära fallen auch Innovationen wie die Eisenbahn und der Photoapparat. (Die Eisenbahn eröffnet z.B. die Möglichkeit, auch weiter entfernte Märkte zügig zu beliefern.)   2. Industrielle Revolution   Sie begann um 1870 und ist gekennzeichnet durch die Nutzung elektrischer Energie, künstliches Licht (das z.B. Produktion rund um die Uhr ermöglichte), das Fließband, die Erfindung des Telefons. Es war die Ära der arbeitsteiligen Massenproduktion. Frau Gröner empfahl in diesem Zusammenhang den Spielfilm-Klassiker "Moderne Zeiten" von Charlie Chaplin. Er zeigt und parodiert die monotone Arbeit dieser Zeit.   3. Industrielle Revolution   Sie begann um 1969. Es ist die Ära der speicherprogrammierten Steuerung und der Miniaturisierung von Technik. Dies ermöglichte automatisierte Produktion durch elektronische Steuerung. In diese Phase fallen Innovationen wie E-Mail, Mikrosystemtechnik, Mikroprozessoren oder RFID. Durch Software können immer mehr Arbeitsprozesse automatisiert werden, z.B. im Rechnungswesen. Unternehmenskennzahlen sind erstmals zeitnah verfügbar. Vorher war der Jahresabschluss eines Vorjahres oft erst im August fertig. Auch das World Wide Web, GPS, Mobilfunk oder Skype werden dieser Epoche zugerechnet.   4. Industrielle Revolution   Sie findet gerade statt und ist gekennzeichnet durch die Verschmelzung von virtueller und realer Welt. Alles ist mit allem vernetzt. Es ist eine Ära der Sensorik und Robotik und der weltweiten Vernetzung von intelligenten Gegenständen (Internet of things, IOT). Menschen und Geräte sind "always on". Durch die Vernetzung aller Dienste entsteht Big Data. Intelligente Algorithmen übernehmen zunehmend Denkarbeit. Nutzer haben nicht nur Smartphones sondern zunehmend Smart Things.   Konsequenzen von "always on"   Der Mensch und seine Wünsche stehen im Mittelpunkt. Internetbasierte Dienste bieten ihren Nutzern enormen Komfort und enorme Preistransparenz. Nutzer erwarten, alles sofort und zum bestmöglichen Preis zu bekommen. Sie wollen personalisiert angesprochen werden (also z.B. nur Angebote bekommen, die für ihre Präferenzen und Bedürfnisse relevant sind).   Interessant in diesem Zusammenhang ist die Infografik "60 Sekunden im Internet" auf de.statista.com.   An dieser Stelle thematisierte Frau Gröner einen Widerspruch: Die oben erwähnten Erwartungen an schnelle und günstige Bedürfnisbefriedigung stehen im Widerspruch zu unserem Wunsch, nicht transparent zu werden. Dafür müssten wir allerdings lernen, bestimmte Dinge nicht mehr zu tun, oder darauf verzichten, bestimmte Dienste zu nutzen. Als Beispiel nannte sie Fitness-Tracker, die Bewegungsprofile erfassen. Selbstverständlich könnte man sich auch ohne solche Hilfsmittel fit halten.   An dieser Stelle entspann sich eine kleine Diskussion unter den Zuhörern. Manche Studierende setzen ihre Hoffnung auf bessere Aufklärung und Bildung insbesondere jüngerer Nutzer. Wenn diese über Risiken informiert seien, würden sie bewusster mit der Preisgabe persönlicher Daten umgehen. Andere sahen das pessimistischer. So gibt es z.B. kostenpflichtige Alternativen zu Diensten wie WhatsApp. Diese werden aber wenig genutzt, obwohl sie nur wenig kosten. Frau Gröner verwies in diesem Zusammenhang darauf, dass die meisten Menschen inzwischen sehr viele Dienste nutzen. Selbst wenn pro Dienst nur überschaubare Beträge fällig würden, käme so im Monat doch eine nennenswerte Summe zusammen.   Was ist Digitalisierung?   Die Überführung analoger Werte in digitale Wert ist in diesem Zusammenhang nicht gemeint. Auch nicht die Automation, denn die gab es schon in der 3. industriellen Revolution. Auch die Kombination von Automation und Änderung des Geschäftsmodells ist noch nicht gemeint. Ein Beispiel dafür wäre eine digitale Überweisung und auch die gibt es schon länger.   Gemeint ist vielmehr ein Paradigmenwechsel. Software und Hardware werden für völlig neue Geschäftsmodelle eingesetzt. Wenn diese neuen Geschäftsmodelle alte ersetzen, nennt man sie disruptiv. Oft decken solche Modelle aber auch einen bislang ungedeckten Bedarf.   Ein Beispiel für solch ein neues Geschäftsmodell findet sich unter www.moovel.com. Daimler und BMW bündeln dort ihre Mobilitätsdienste. ÖPNV, car2go, mytaxi und Bahn werden in einer App verbunden. Man kann schnellste Routen über unterschiedlichste Verkehrsträger suchen, buchen und bezahlen. Das hat das Potential, Dienste, die nur einen Verkehrsträger abdecken, zu ersetzen.   Warum macht ein Unternehmen wie Daimler so etwas? Wahrscheinlich weil man erwartet, dass künftig nicht das Auto im Mittelpunkt des Kundeninteresses steht sondern die Mobilität an sich.   Bei einem disruptiven Geschäftsmodell ändern sich die Art der Leistungserbringung, die Leistung, das Produkt oder die Art der Bezahlung. Elektronische Zahlverfahren spielen dabei eine wichtige Rolle.   Ein Beispiel für ein (künftiges) disruptives Geschäftsmodell wäre Carsharing mit fahrerlosen Autos. Die Fahrzeuge wären besser ausgelastet und man bräuchte weniger Platz für parkende Autos. Der Kunde "kauft" seine Fahrt zu Arbeit und nicht ein Fahrzeug, das die meiste Zeit ungenutzt herumsteht.   Kennzeichnend für neue Geschäftsmodelle sind oft neue Erlösmodelle. Gängig ist inzwischen, dass neben Nutzern und Anbietern eines Dienstes noch Dritte involviert sind. Frühere Geschäftsmodelle folgten dem Muster: "Ich kaufe oder nutze, also muss ich auch bezahlen." Bei neuen Geschäftsmodellen zahlt die Leistung immer häufiger ein Dritter, weil er personalisierte Werbung platzieren will oder mit personenbezogenen Daten der Nutzer handeln möchte.
 
Welche Technologien haben Bedeutung für die Wettbewerbsfähigkeit deutscher Unternehmen?   Industrie 4.0: Maschinen und Gegenstände werden mit Hard- und Software gekoppelt. Es entsteht ein Cyber Physical System, z.B. eine Smart Factory, in der Maschinen miteinander kommunizieren. Sie rüsten sich z.B. schneller ein oder um, weil sie wissen, welche Teile von anderen Maschinen kommen. Big Data: Entsteht als Folge der Vernetzung aller Dienste und Geräte. Big Data bezieht sich auf das Volumen der Daten und auf die Geschwindigkeit ihrer Generierung, aber auch auf eine größere Datenvielfalt (Formate, unstrukturierte und halbstrukturierte Daten). Real-Time Analytics ermöglicht die Auswertung solcher Daten in Echtzeit und somit schnellere Entscheidungen. Predictive Analysis versucht, auf der Grundlage vorhandener Daten in die Zukunft zu blicken. Prescriptive Analysis geht noch einen Schritt weiter, indem automatisiert Handlungsempfehlungen gegeben werden. Im Zusammenhang mit Big Data entstehen neue Berufsfelder mit Bezeichnungen wie Data Scientist, Datenanalyst, Datenarchitekt, Datenwissenschaftler. Die Datenmengen sind in den Unternehmen oft längst da. Die Unternehmen bekommen nun aber neue Möglichkeiten, die vorhandenen Daten zu nutzen. Augmented Reality: Techniker bekommen bei Reparaturen Hilfestellungen in ihr Sichtfeld eingeblendet. Robotik: Ein Beispiel für eine neue Robotik-Anwendung ist Pepper, ein humanoider Roboter, der z.B. in Verkaufräumen oder an Empfangstischen eingesetzt werden könnte. Ein anderes Beispiel sind Roboter für die letzte Meile im Logistikbereich. Blockchain: Mit dieser Technologie lassen sich Daten fälschungssicher ablegen. Estland nutzt dies z.B. für Bürgerdaten. 3D-Druck: Ein Beispiel wären 3D-Drucker, die ein Wohnhaus bauen können. Spracheingabe-Systeme: Viele Nutzer haben bereits solche Sprachassistenten. Diese müssen sich an ihre Nutzer anpassen, indem sie trainiert werden. Das geht mittlerweile meist recht schnell.   Was sind Folgen der Digitalisierung?   Die Arbeit wird sich verändern: Microsoft hat in München ein Gebäude, in dem nur Arbeitsplätze für zwei Drittel der Mitarbeiter zur Verfügung stehen. Der Rest ist im Home Office. Auch Digitale Nomaden sind ein Beispiel für veränderte Arbeit. Es gibt Plattformunternehmen ohne Produktionsmittel: Sie haben schon heute produzierende Unternehmen als Börsenchampions abgelöst. Börsenwert und Anzahl der Beschäftigen entkoppeln sich. Für vergleichbare Leistungen werden viel weniger Beschäftigte gebraucht. Ein vergleichbarer oder sogar höherer Börsenwert lässt sich mit weniger Beschäftigten generieren. Der IT-Fachkräftemangel spitzt sich in allen Branchen zu.   9 von 10 Unternehmen halten die Digitalisierung für eine Chance.   Im Verlauf des Vortrages kam es immer wieder zu kleinen Diskussionen. Gerade über das Thema "Folgen der Digitalisierung" hätten wir noch lange sprechen können. Leider endete nicht nur diese interessante Vorlesung sondern auch der Präsenztag. Gerade Studierende, die eine weitere Anreise hatten, mussten ihre Anschlüsse bekommen.   Fazit (zum Präsenztag):   Der Präsenztag war wieder mal sehr schön. Bei Kaffee und Kuchen, Snacks und Getränken gab es immer wieder Gelegenheit, mit anderen Studierenden, Mitarbeitern des Studienbüros und der Hochschule ins Gespräch zu kommen. Auch wenn der Studiengang gewachsen ist, die im Vortrag unserer Absolventen beschriebene familiäre Atmosphäre ist noch immer spürbar. Ich freue mich auf den nächsten Präsenztag. Falls ich gut vorankomme, könnte es mein letzter werden. Bei dem Gedanken mischt sich auch ein bisschen Bedauern in meine Vorfreude.

kurtchen

kurtchen

 

Springer Campus Präsenztag am 29.09.2018 - Teil 2

13 Uhr - Vorlesung: "Don't believe the Hype - Ein Blick in den Dschungel der Web-Entwicklung", Prof. Dr. Sven Jörges, FH Dortmund   Web-Entwicklung früher und heute   Professor Jörges begann seinen Vortrag zunächst mit einem Blick zurück auf die Anfänge der Web-Entwicklung. In den 2000er Jahren reichten Grundkenntnisse in HTML und PHP, um mit Web-Entwicklung Geld zu verdienen. Damals wurden viele Studierende quasi über Nacht Web-Entwickler. Herr Jörges visulisierte diese Phase mit dem Sinnbild einer weiten grünen Wiese. Es war noch überall Platz und man konnte sich leicht orientieren. Heute ist Web-Entwicklung im großen Maßstab eine komplexe Sache. Herr Jörges visualisierte die aktuelle Situation mit dem Sinnbild Dschungel.   4 Aspekte des Sinnbildes Dschungel   Ein Dschungel ist gekennzeichnet durch überschießendes Wachstum. Das zeigt sich z.B. in Userzahlen, in der Anzahl von Anfragen und vielem mehr. Einen Eindruck davon vermittelt die Seite The Internet in Real-Time. Eine Konsequenz daraus ist, dass die Skalierbarkeit von Web-Anwendungen heute extrem wichtig ist. Ein zweiter Aspekt des überschießenden Wachstums ist die Bedeutung von Plattformen. Früher genügten einem Unternehmen eigene Web-Seiten. Um heute wahrgenommen zu werden, ist es wichtig, auf vielen Plattformen präsent zu sein. Ein dritter Aspekt des Wachstums ist die steigende Vielfalt von Endgeräten und Formfaktoren. In den 2000er Jahren wurde auf Startseiten oft der Hinweis eingeblendet, für welche Bildschirmauflösung sie optimiert war. Heute muss eine Web-Anwendung auf allen Geräten vom Smartphone bis zum Desktop PC gut benutzbar sein. Am besten sollte sie auch auf einer Smartwatch funktionieren. Das macht Web-Entwicklung komplizierter. Ein vierter Aspekt des Wucherns ist die unüberschaubare Vielfalt an Frameworks. Diese bieten natürlich einen stabilen Rahmen mit Basisfunktionen. Man muss nicht bei Null anfangen und kann dadurch schneller entwickeln. Außerdem helfen gute Frameworks, Standardfehler zu vermeiden. Aber die Vielfalt ist inzwischen so überwältigend, dass der Einstieg dadurch schwierig wird. Für welches Framework soll man sich entscheiden?   Einen Eindruck dieser Vielfalt vermittelt der Wikipedia-Eintrag Comparison of Web Frameworks. Das schnelle Entstehen neuer Technologien wird auch humorvoll aufgegriffen, z.B. durch die Seite Days since last javascript framework. Auf www.heise.de findet man auch das witzige Quiz "JavaScript oder Metal Band". Auch der nicht ganz erst gemeinte Begriff "JavaScript fatigue" zeigt, dass die sich erweiternde Auswahl neuer Technologien mittlerweile als überfordernd wahrgenommen wird.   Gerade in diesem Zusammenhang passt das Sinnbild des Dschungels, denn im Dschungel ist es schwierig, sich zu orientieren und seinen Weg zu finden. Einsteiger im Bereich Web-Entwicklung fragen sich heute: Was soll ich eigentlich lernen? Womit fange ich an? Welches Wissen hält länger als eine Woche?   Web-Seite vs. Web-Anwendung vs. Desktop-Anwendung   An dieser Stelle spielte Herr Jörges mit uns ein kleines Quiz-Spiel, dass mich an die alte Kindersendung "1, 2 oder 3" erinnerte. Er zeigte uns am Beamer eine Szene und wir sollten raten: Ist es eine Web-Seite, eine Web-Anwendung oder eine Desktop-Anwendung?   Die ersten Beispiele waren noch einfach zuzuordnen, z.B. Fefes Blog oder Google Docs. Der bekannte Editor Visual Studio Code wird lokal installiert, ist also eigentlich eine Desktop-Anwendung. Er ist aber mit dem Framework Electron erstellt, das es ermöglicht, Desktop-Anwendungen mit den Web-Technologien HTML, CSS und Javascript zu programmieren. Ein schönes Beispiel war auch das Spiel HexGL. Es ist ein Racing Spiel im Stil des Klassikers Wipeout. Vor einigen Jahren hätte man es noch für ein Konsolenspiel halten können. Es basiert aber auf JavaScript und ist eine Web-Anwendung, die im Browser läuft. Die letzte Quizfrage richtete sich auf die Anwendung, mit der der Beamervortrag präsentiert wurde. Man hätte auf PowerPoint tippen können. Tatsächlich sahen wir eine Web-Seite, die mit dem Framework reveal.js erstellt worden war.   Das Fazit dieses Spiels? Man kann die Dinge nicht mehr so leicht kategorisieren wie früher. Web-Anwendungen, Web-Seiten und Desktop-Anwendungen sind voneinander nicht mehr so klar abgegrenzt. Die Grenze zwischen Web und Native oder Web und Desktop verschwimmt zusehends. Abgesehen von Spezialisten für Embedded Systems kommt bald kein Entwickler mehr ohne Web-Technologien aus.   Ein Beispiel dafür sind GUI-Frameworks für Java. Swing ist abgekündigt. Der designierte Nachfolger JavaFX ist ebenfalls abgekündigt. Aber wohin geht die Reise? Oracle weiß es selbst nicht. Womöglich braucht man in Zukunft gar kein klassisches GUI-Framework für den Desktop. Herr Jörges versuchte sich an dieser Stelle noch einmal an einer Definition der Begriffe Web-Seite, Web-Anwendung, Desktop-Anwendung, wohl wissend, dass die Unterscheidungskriterien nicht mehr scharf und nicht mehr dauerhaft sein können.   Was tun?   Herr Jörges meint: Es gibt Wege durch den Dschungel. Im letzten Abschnitt seiner Vorlesung gab er zwei konkrete Tipps, um wieder Orientierung zu gewinnen.   Tipp 1: Go back to the roots!   Man sollte die Grundlagen kennen und beherrschen. Die 3 wichtigsten Web-Technologien sind HTML, CSS und Javascript. Man sollte also HTML(5) gut kennen. Laut Herrn Jörges beinhaltet das sehr viel mehr Wissen, als eine einführende Lehrveranstaltung an einer Hochschule vermitteln kann. Diese kann einen Überblick und einen Einstieg verschaffen. Dann sollte man aber in die Tiefe gehen. CSS kann ebenfalls sehr komplex werden. Schließlich ist es wichtig, Javascript gut zu beherrschen, denn diese Sprache hat ihre "Untiefen". Der Tipp, JavaScript zu lernen, gilt ausdrücklich auch für Entwickler, die sich von Sprachen wie Typescript oder Frameworks wie React angezogen fühlen.   Die Sprache Javascript hat sich in den vergangenen Jahren stark weiterentwickelt. Frameworks, die früher essentiell waren, verlieren dadurch schnell an Bedeutung. Als Beispiel nannte Herr Jörges jQuery oder Bootstrap. jQuery war z.B. für DOM-Manipulation und für AJAX unerlässlich. Doch diese Dinge kann man inzwischen standardmäßig mit der DOM-API machen. Bootstrap hat man gerne für Raster verwendet. So etwas geht jetzt auch mit CSS Grid Layouts. Man braucht also Frameworks nicht mehr unbedingt.   Herr Jörges empfiehlt Einsteigern, sich von Frameworks zunächst fernzuhalten und stattdessen die Tiefen und Möglichkeiten der 3 Basistechnologien auszuloten. Es gibt zur Zeit viele Web-Seiten und Blog-Posts mit Titeln wie  "You might not need jQuery". (Für jQuery kann man ein beliebiges Framework oder eine beliebige Library einsetzen.) Eine Google-Suche nach so etwas führt auf Artikel, die aufzeigen, wie man vergleichbare Funktionalität mit Basistechnologien realisieren kann.   Tipp 2: Das Handwerk beherrschen   Web-Engineering ist eine Ingenieursdisziplin. Es gibt Prinzipien und Methoden. Das wird im Web und beim Hype um die nächste Technologie schnell vergessen.   In den Software-Technik Vorlesungen lernen Studierende z.B. das Model View Controller Muster (MVC) kennen. Es entstand schon in den 70er Jahren. Für die junge Disziplin Informatik ist es also steinalt. Es ist aber immer noch extrem relevant. Inzwischen existiert es in unzähligen Varianten: MVVM = Model View View Model MVP = Model View Presenter MVI = Model View Intent und so fort...   Igor Minar, bekannt für seine Arbeit an Angular, hat eine weitere schöne Variante definiert: "... I hereby declare AngularJS to be MVW framework - Model-View-Whatever. Where Whatever stands for "whatever works for you".   Wenn man MVC versteht, versteht man auch seine Varianten. In ähnlicher Weise profitieren angehende Entwickler davon, andere Grundmuster der Softwaretechnik zu lernen.   Laut Herrn Jörges sollten diese beiden Tipps bereits genügen, sich im Dschungel der Web-Entwicklung zu orientieren.   Q&A:   Eröffnet sich nicht mit Web-Assembly die Möglichkeit, künftig in beliebigen Sprachen für den Browser zu entwickeln?
Herr Jörges meinte, dass er das für die Zukunft halte. Aber noch sei es nicht soweit. Einstweilen sei es empfehlenswert, JavaScript zu lernen.   Ist geplant, dass Curriculum im Sinne der drei genannten Basistechnologien weiter zu entwickeln?
Herr Jörges bekräftigte, dass seine Pläne für die Studiengang in diese Richtung gehen, auch im Licht der anstehenden Reakkreditierung. Allerdings sei es nicht immer leicht, solche Pläne im gewünschten Tempo umzusetzen. Dies sei in einem reinen Präsenzstudiengang tatsächlich etwas leichter. (Dort müssen die Inhalte z.B. nicht für eine Lernplattform aufbereitet werden.)

kurtchen

kurtchen

 

Springer Campus Präsenztag am 29.09.2018 - Teil 1

Wie üblich war vor dem Präsenztag - also am Freitag, den 28.09.2018 - auch ein Prüfungstag mit der Möglichkeit, bis zu drei schriftliche Prüfungen zu schreiben. Ich selbst konnte leider erst am Freitagabend anreisen. Darum musste ich meine Prüfung Samstags um 08:30 Uhr schreiben. Der Raum war gut gefüllt; es scheint also noch andere Studierende zu geben, die am Freitag nicht ohne weiteres für eine Prüfung freinehmen können. Bei mir stand das Modul "Business Intelligence" auf dem Plan. Darüber habe ich anderer Stelle berichtet.   Ein Prüfungstermin ist natürlich immer eine gute Gelegenheit, mit anderen Studierenden ins Gespräch zu kommen, z.B. über zurückliegende oder bevorstehende Module. Dies hat mir oft geholfen, Module sinnvoll miteinander zu kombinieren. Da nun nicht mehr so viele Module vor mir liegen, erfahre ich hier natürlich nicht mehr so viel relevantes.   Im September 2015 war ich zum ersten Mal in Dortmund, um "Grundlagen der Informatik 1" zu schreiben, also die Klausur zum einführenden Java-Kurs. Ich weiß noch gut, wie aufregend das damals alles war. Um mich herum lauter "alte Hasen", die in ihrem Studium schon weit fortgeschritten und sich lebhaft austauschten. Jetzt bin ich einer von denen, die vor dem Endspurt stehen. Wie schnell die Zeit vergangen ist.   Nach der Prüfung gab es wie üblich ein Frühstücksbuffet. Dann begann der offizielle Teil.   11-12:30 Uhr - Aktuelles für Studierende   Diesen Teil übernahmen Frau Arens aus dem Studienbüro und Prof. Dr. Sven Jörges, der sich uns bei dieser Gelegenheit vorstellte. Herr Jörges hat seit dem 01.03.2018 eine Professur für Web-Engineering und Softwaretechnik am Fachbereich Informatik. Insbesondere ist er unser neue Studiengangsleiter.   Infos aus dem Studienbüro   1. Reakkreditierung   Herr Jörges informierte über den laufen Reakkreditierungsprozess für die beiden Studiengänge WMI und WI. Die zuständige Akkreditierungsagentur ist die AQAS. Die von ihr erstellen Gutachten lassen sich online abrufen unter:
www.aquas.de -> Programmakkreditierung -> Ergebnisse Akkreditierungsverfahren BA/MA   Hier findet man also auch die Ergebnisse der letzten Akkreditierung unserer Studiengänge. Und eines Tages hoffentlich das Ergebnis der Reakkreditierung.   Der Antrag ist inzwischen abgegeben. Nächster Schritt wäre eine Begehung durch eine Gutachtergruppe. Diese besteht aus Professoren anderer Hochschulen, Vertretern aus der Industrie, aber auch aus Absolventen und Studierenden. In diesem Zusammenhang sucht die FH Dortmund Studierende, die bereit wären, an der Begehung teilzunehmen. Ein genauer Termin steht noch nicht fest, wird uns aber bekannt gegeben. Interessierte Studierende dürfen sich beim Studienbüro melden. Laut Herrn Jörges kann es gut sein, dass die Gutachter den Studierenden ziemlich konkrete Fragen stellen: "Können Sie im Beruf brauchen, was sie hier lernen?" - "Wie gut können Sie das Online-Studium mit ihrer Berufstätigkeit verbinden?"   Die Evaluierung im März diesen Jahres war ein wichtiger Baustein zur Reakkreditierung. Die Ergebnisse lagen aus und konnten eingesehen werden.   Prüfungstermine und Prüfungsmodalitäten   Hierüber informierte Frau Arens. Die Prüfungstermine für 2018 stehen in der Lernplattform im virtuellen WMI-Café. Die Termine für 2019 folgen noch.   Auf mehrfache Nachfrage sollen ab März 2019 parallel zum Präsenztag in Dortmund auch Prüfungen in München angeboten werden. Bislang war es so, dass man an den Präsenztagen nur Prüfungen in Dortmund ablegen konnte. Studierende aus dem Raum München, die nicht nach Dortmund anreisen konnten, verpassten so zwei Mal im Jahr eine Prüfungsmöglichkeit. Dieses Problem soll nun der Vergangenheit angehören.   Eigentlich sollte es längst bekannt sein, aber Frau Arens wies wegen gelegentlicher Nachfragen noch einmal ausdrücklich darauf hin: Die in der Einladung zu den Prüfungen genannte Deadline für die spätestmögliche Anmeldung gilt!   Mündliche Prüfungen können nach wie vor ausschließlich in Dortmund abgenommen werden. Sie finden grundsätzlich am Freitag statt. Es gibt drei Slots am Vormittag. Bei der Vergabe gilt: "Wer zuerst kommt, mahlt zuerst." Zu beachten ist auch: Die Anmeldefrist für mündliche Prüfungen ist knapper als für schriftliche. Dafür muss nämlich ein Prüfer der Uni Dortmund eingeplant werden, während bei schriftlichen Prüfungen eine Klausuraufsicht genügt. Frau Arens empfiehlt daher, sich zügig an Studienbüro zu wenden, wenn eine mündliche Prüfung ansteht.   Klausuren sollen innerhalb von 6 Wochen korrigiert werden. Oft geht es schneller. (Im Schnitt dauerte es bei mir so um die 3 Wochen.) Das Studienbüro leitet Ergebnisse umgehend an die Studierenden weiter. Wenn man nach 6 Wochen noch nichts gehört hat, darf man sich an Studienbüro melden.   Bescheinigungen   Einen Notenspiegel oder eine Leistungsübersicht kann man kurzfristig im Studienbüro anfordern. Unmittelbar vor Präsenz- oder Prüfungstagen kann es ein bisschen länger dauern.   Studienbescheinigungen stellt nicht das Studienbüro aus sondern die FH. Man beantragt sie über die ODS (Online Dienste für Studierende).   Absolventen   An diesem Präsenztag waren fünf Absolventen zu feiern. Leider konnten nur zwei von ihnen nach Dortmund anreisen und uns über ihre Erfahrungen berichten.   Unsere erste Absolventin ist in der Wasserwirtschaft tätig und hatte ihre Bachelorarbeit in diesem beruflichen Umfeld verfasst. Leider durfte sie nicht über Inhalte ihrer Arbeit sprechen. Gleichwohl sprach sie über den Prozess der Anfertigung einer Bachelorarbeit und die damit verbundenen Herausforderungen und Strategien zur Bewältigung. Hier sind einige ihrer Tipps: Frühzeitig nach einem Thema Ausschau halten. Ein Jahr Vorlauf schadet nicht. Intrinsische Motivation ist wichtig. Den roten Faden nicht aus dem Auge verlieren. In der Recherchephase Quellen sofort erfassen. Sonst weiß man nachher nicht mehr, woher man was weiß. Dann hat man doppelte Arbeit, die Quelle wieder zu finden. Ein geringer zeitlicher Abstand zwischen Projekt- und Bachelorarbeit ist günstig. Man ist im Flow. Insbesondere ist man im wissenschaftlichen Arbeiten. Außerdem gab sie allgemeine Tipps zum Fernstudium: Sich Ziele setzen. Sich feste Lernzeiten vornehmen, z.B. an 5 Tagen pro Woche lernen. Sich zu jedem Prüfungstermin für mindestens eine Prüfung anmelden. So hat man stets das Gefühl, dass es voran geht. Sich Belohnungssystem ausdenken, z.B. nach jeder Prüfung einen Tag frei nehmen, um etwas Schönes zu machen. Direkt nach der Modulbuchung einen Zeitplan für das Modul machen. Der Kontakt zu anderen Studierenden ist wichtig. Unsere zweite Absolventin hatte eine Web-Anwendung zur Eignungsprüfung von Winterfahrzeugen erstellt. Auch sie berichtete nicht über ihre Bachelorarbeit. Stattdessen reflektierte sie den Verlauf ihres gesamten Studiums. Da sie eine Studierende "der ersten Stunde" war, hatte sie noch den Gründer unseres Studienganges - Professor Helmut Balzert - erlebt. Sie berichtete vom Start des Studienganges mit ca. 20 Studierenden in damals noch sehr familiärer Atmosphäre. Neue Module entstanden. Während anfangs nur Prüfungen in Dortmund möglich waren, kamen später weitere Prüfungszentren hinzu. Damals waren Präsenztage noch Pflicht! Der Studiengang wuchs und irgendwann kannte nicht mehr jeder jeden. Die familiäre Atmosphäre blieb allerdings erhalten, nicht zuletzt durch die Arbeit des Studienbüros.   Zuletzt berichtete sie, was aus dem Studium neben fachlichem Input für ihre Persönlichkeitsentwicklung mitgenommen hatte: Keine Angst vor Neuem. Schritt für Schritt Schwieriges schaffen. Herausforderungen leben. Auch mal über den Tellerrand schauen. Infos zu Projekt- und Bachelorarbeit   Es ist üblich, dass an Präsenztagen auch das Thema Projekt- und Bachelorarbeit aus verschiedenen Blickwinkeln beleuchtet wird. Herr Jörges beschäftigte sich diesmal insbesondere mit den Unterschieden zwischen Projekt- und Bachelorarbeit. Beiden gemeinsam ist, dass innerhalb einer zeitlichen Frist ein bestimmtes Thema selbstständig bearbeitet wird. Die Projektarbeit soll dabei eine konstruktive und problembezogene Arbeit sein. Sie ist also eher ingenieursmäßig, auch wenn bei der Problemlösung wissenschaftliche Erkenntnis und wissenschaftliche Methoden der Recherche eine große Rolle spielen. Im Vergleich dazu ist die Bachelorarbeit in erster Linie eine wissenschaftliche Arbeit, auch wenn sie eine konstruktive Arbeit sein kann, bei der ein praktisches Problem gelöst wird. Mehr noch als bei der Projektarbeit spielen die Methoden wissenschaftlichen Arbeitens und der wissenschaftlichen Recherche die tragende Rolle.   An der FH Dortmund hat man überwiegend positive Erfahrungen mit Bachelorarbeit, die auf einer Projektarbeit aufbauen. Dabei muss aber klar sein: Die Bachelorarbeit ist eine eigenständige Arbeit, kann also die Projektarbeit nicht beinhalten. Gelegentlich gibt es Studierende, die erwarten, mit ihrer Projektarbeit schon einen Baustein für ihre Bachelorarbeit in der Hand zu halten. Das geht natürlich nicht. Die Bachelorarbeit trägt ja ihren eigenen Workload und wird eigenständig bewertet. Möglich ist freilich, in der Bachelorarbeit die eigene Projektarbeit zu referenzieren, um die dort geleistete Arbeit inhaltlich weiter zu entwickeln.   Zur Themenfindung berichtete Herr Jörges, dass diese lange dauern könne. Auch Recherche und Einlesen ins Thema gehören dazu. Letztlich geht es in dieser Phase darum, den Kern der Fragestellung zu identifizieren. Themen für die Projektarbeit kann man oft im eigenen Betrieb finden, selbst wenn man gar nicht im IT-Bereich arbeitet. Auch Herr Jörges betonte die Bedeutung eines eigenen Interesses am Thema. Dies hilft als innere Antriebsquelle durch schwierige Phasen der Arbeit. Ein Vorteil einer Arbeit im Betrieb ist, dass man häufig noch einen kompetenten Ansprechpartner für Ort findet, der den Prozess begleiten kann.   Für die Bachelorarbeit ist die wissenschaftliche Fragestellung noch viel wichtiger. Hierzu gehört auch eine Recherche zum Stand der Forschung. Manchmal wird man dabei leider feststellen, dass die eigene Forschungsfrage schon beantwortet wurde. Man könnte aber die eigene Frage weiter zuspitzen und zum Beispiel einen neuen Gesichtspunkt untersuchen, der bislang noch nicht beachtet wurde.   Beim Finden eines Betreuers kann das Studienbüro finden. Oft geht es nach der Vermittlung eines Betreuers noch nicht los. Es gibt meist eine Startphase, die sich hinziehen kann, weil klar wird, dass das Thema doch noch nicht eingrenzt und geschärft ist. In dieser Phase entstehen oft eine Art Abstract, eine vorläufige Gliederung der Arbeit, eine Auflistung von Zielen, eine Erklärung der eigenen Motivation und Vorgehensweise. Erst wenn das geklärt ist, wird "die tickende Uhr" in Bewegung gesetzt. Manche Betreuer wünschen sich auch Exposé von ca. 4 Seiten. Die Startphase ist wichtig, damit sich nicht mitten in der Bachelorarbeit herausstellt, dass Problemstellung und Struktur der Arbeit unklar oder gar untauglich sind.   Für die Erstellungsphase liefert das Modul "Wissenschaftliches Arbeiten" die nötigen Grundlagen. Die sind sehr wichtig, denn für die meisten Studierenden ist die Erstellung einer wissenschaftlichen Arbeit eine ein- bis zweimalige Erfahrung in ihren Leben. Sehr wichtig ist in diesem Zusammenhang das korrekte Referenzieren von Quellen.   Essentiell ist außerdem, Kontakt zum Betreuer zu halten. Es klingt trivial, aber es kommt immer wieder vor, dass Studierende ihre Arbeit anmelden und abgeben, ohne Kontakt zu ihren Betreuer gesucht zu haben. Das geht fast nie gut. Üblich sind Draft-Versionen, zu denen der Betreuer Feedback gibt. Von Studierenden wird erwartet, dass sie den Kontakt zu ihrem Betreuer aktiv suchen und aufrecht erhalten. Viele Professoren sind sehr beschäftigt, darum ist es empfehlenswert, als Studierender selbst aktiv zu werden.   Hochschulzertifikate   Wie an Präsenztagen üblich, wurden die erreichten Hochschulzertifikate ausgeteilt.   Question & Answers   Hier wurde zunächst eine Frage an die Absolventen gerichtet.   Womit soll man seine Bachelorarbeit schreiben? Mit LaTeX? Oder mit Word?
LaTeX ist ein tolles Werkzeug und kann einem viel Arbeit ersparen. Allerdings ist die Einarbeitung aufwendig. Wer LaTeX kann, soll es nutzen. Wer es zu Beginn der Bachelorarbeit noch nicht kann, soll Word benutzen. Sich zeitgleich zur Bachelorarbeit in LaTeX einarbeiten ist nicht realistisch.   Die weiteren Fragen betrafen Module und Studienorganisation.   Das Modul "Multimedia" ist inhaltlich veraltet? Wann kommt eine neue Version?
Ein neuer Kursautor wird derzeit gesucht. Die Aktualität der Module ist Thema bei der Akkreditierung und bei manchen Modulen ist klar, dass die aktualisiert werden müssen. Leider ist es nicht immer einfach, Autoren zu finden. Auch unterschätzen Autoren selbst oft den Zeitaufwand für das Schreiben eines Buches.   Das Modul "Web-Anwendungen 1" ist in Bearbeitung. Kann man es buchen?
Man kann es buchen, erhält aber dann die bisherige Version des Moduls.   Was machen Studierende der Wirtschaftsinformatik, wenn sie für ein Hochschulzertifikat ein Modul buchen wollen, dass im Curriculum ihres Studienganges nicht vorgesehen ist?
Solche Module kann man über das Studienbüro als Zusatzmodule buchen. Solche Module können auf der Bachelor-Urkunde aufgeführt werden.   Kritik: Aufgrund der Modulkombinationen ist es für Studierende der "Web- und Medieninformatik" relativ leicht, schon während ihres Studiums Hochschulzertifikate zu erlangen. Für die Wirtschaftsinformatiker ist das schwieriger.   Hiermit endete der Teil "Aktuelles für Studierende".   Parallel fand in einem angrenzenden Hörsaal ein Tutorium zu den Inhalten des Moduls "Mathe2" statt. Hier ging es im Lineare Algebra und Analysis. Erfahrungsgemäß macht dieses Mathemodul Studierenden am meisten Sorgen, weshalb Tutorien dazu an fast jedem Präsenztag stattfinden. Da ich es schon hinter mir habe, habe ich es nicht besucht und kann auch nichts näheres dazu sagen.   Im weiteren Verlauf des Tages gab es zwei Vorträge über Web-Entwicklung und Digitale Transformation. Darüber werde ich in folgenden Beiträgen berichten.

kurtchen

kurtchen

 

Modulbericht: Business Intelligence

Zur Rolle des Moduls im Studiengang
Das Modul "Business Intelligence" ist ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort ist es auch dem Studienbereich "Wirtschaftsinformatik" zugeordnet. Studierende der "Web- und Medieninformatik" dürfen es im Vertiefungsbereich belegen. Den Wirtschaftsinformatikern wird empfohlen, dieses Modul zusammen mit "Human Resources" und einem weiteren Wahlpflichtmodul im 6. Fachsemester zu belegen. Es ist also vorgesehen, dieses Modul im gleichen Semester zu bearbeiten wie die Bachelorarbeit. Dies erklärt vielleicht den vergleichsweise niedrigeren Bearbeitungsaufwand.   Formale Voraussetzungen gibt es keine, so dass das Modul theoretisch auch schon im ersten Fachsemester gebucht werden dürfte. Als inhaltliche Voraussetzungen werden "Data Warehouse & Data Mining" sowie "BWL2" genannt. Dies erscheint mir sinnvoll. Business Intelligence hat eine große inhaltliche Überlappung mit dem Modul Data Mining, nimmt aber noch stärker eine betriebswirtschaftliche Perspektive ein. Mehr noch als im Modul Data Mining liegt also der Fokus darauf, wie man Methoden der Business Intelligence für den Erfolg eines Unternehmens nutzen kann. Die Implementierung dieser Methoden in einer konkreten Programmiersprache ist nicht Thema des Moduls. Es betrachtet Business Intelligence aus Anwender- bzw. Nutzerperspektive. Das Modul Data Mining ist eine nützliche Vorbereitung, weil man dadurch schon viel über die Funktionsweise analytischer betrieblicher Informationssysteme (im Vergleich zu operativen Systemen) weiß. BWL2 ist nützlich, weil es viele inhaltliche Bezüge zwischen dem Lehrbuch zur Unternehmensführung aus BWL2 und den Methoden der Business Intelligence gibt.   Zum Lehrbuch   Das Lehrbuch "Basiswissen Business Intelligence" ist von Christoph Engels und lag mir in der 2. Auflage von 2015 vor. Es hat nur ca. 150 Seiten, gehört aber zu den Lehrbüchern mit kleinerer Schrift und engerem Druck, was die Seitenzahl etwas relativiert. Der Stoffumfang erscheint mir im Vergleich zu anderen Modulen geringer. Allerdings ist das Buch ziemlich dicht geschrieben und treibt sein Thema konsequent voran. Viel Redundanz gibt es hier nicht. Es ist in drei Teile gegliedert: Die betriebswirtschaftliche Sicht Die Methoden der Business Intelligence Die Werkzeuge der Business Intelligence   Teil 1 beginnt mit einem Kapitel zur "multidimensionalen Perspektive". Hier geht es im wesentlichen um den Unterschied zwischen operativen und analytischen Informationssystemen. Operative Systeme sind z.B. durch häufige Schreibzugriffe und eine starke Datensatzorientierung ausgezeichnet. Sie unterstüzten die alltäglichen Geschäftsprozesse des Unternehmens. Ein Beispiel für ein operatives Informationssystem wäre z.B. ein Bestellsystem. Analytische Informationssysteme verdichten Daten aus operativen Systemen (und anderen Quellen), um Führungskräfte bei unternehmerischen Entscheidungen zu unterstützen. Sie helfen also z.B. bei der Steuerung des Unternehmens und bei der Planung.   Weitere Kapitel behandeln Kennzahlensystem, Performance Management, Planungskoordination, externes Rechnungswesen, Konzernkonsolidierung, Zielkostenrechnung und Kampagnen. Das Tempo in diesen Kapiteln ist hoch und der Stoff geht nicht in die Tiefe, behandelt also z.B. keine Spezialfälle. Die Intention scheint vielmehr zu sein, einem Überblick über mögliche Anwendungskontexte von Business Intelligence zu vermitteln. Um die allgemeinen Konzepte bildlicher und konkreter werden zu lassen, werden sie gelegentlich durch Beispiele aufgelockert. Diese stammen vor allem aus der Tourismusbranche. Solche Fallbeispiele werden in den folgenden Teilen des Lehrbuches häufiger und umfangreicher. Touristik bleibt dabei das gemeinsame Thema.   Teil 2 behandelt Methoden der Business Intelligence. Hier geht es zunächst um klassisches Reporting und im Kontrast dazu OLAP (Online Analytical Processing). Für OLAP wird ein multidimensionaler Datenwürfel aufgebaut, der durch die grundlegenden Operationen Slicing, Dicing und Drill down unmittelbar erkundet und untersucht werden kann, um in den aggregierten Daten operativer Systeme unbekannte Zusammenhänge und Muster zu entdecken, die sich unternehmerisch nutzen lassen. Die verschiedenen Nutzungsszenarien stehen im Fokus dieses Kursteils. So wird beispielsweise vorgestellt, wie sich Lift Charts nutzen lassen, um bei Werbekampagnen einen effizienten Werbemitteleinsatz zu erzielen. Wichtig ist auch die Arbeit mit Szenarios. Hierbei unterscheidet man zwischen Predictive Analytics und Prescriptive Analytics. Während man mit Predictive Analytics künftige Situationen anhand bisheriger Entwicklungen vorhersagen möchte, zielt Prescriptive Analytics auf einen künftig wünschenswerten Zustand und wie dieser zu erreichen wäre. Die Fallbeispiele aus der Touristik werden nun umfangreicher und unterstüzten das Verständnis der Konzepte gut. Kapitel zur Visualisierung und zur Präsentation aggregierter Unternehmensinformation in Form von Geodaten runden diesen Kursteil ab. An diesem Punkt hat man eine Vorstellung davon, welche Methoden der Business Intelligence zu den einzelnen Anwendungskontexten des ersten Kursteils passen.   Im Teil 3 geht es dann stärker um die technische Seite der vorgestellten Methoden. Interessant war zum Beispiel das Kapitel über In-Memory Computing in Verbindung mit Kompressionsverfahren, über hybride Datenhaltung (mit spaltenorientierten Datenbanken) und Parallelverarbeitung. Diese Techniken beschleunigen die Analyse aggregierter Unternehmensdaten enorm, so dass man Methoden der Business Intelligence zunehmed in Echtzeit anwenden kann. In den folgenden Kapiteln wird es formaler und theoretischer, denn nun geht es z.B. um multidimensionale Datenmodelle und ihre Realisierung mit verschiedenen Datenbanktypen. Hier spielt auch formale Notation eine große Rolle.   In den letzten Kapiteln wird es wieder konkret. Hier wird die Arbeit mit einem OLAP-System im Text und durch Videos vorgestellt. Ein Fallbeispiel zum Data Warehouse der TUI rundet diesen Kursteil ab.   Einsendeaufgaben   Die Einsendeaufgaben erschienen mir oft recht knapp, konzentrierten sich aber das das wesentliche des vermittelten Stoffes. Man konnte mit ihnen also feststellen, ob man das jeweilige Kapitel verstanden hatte. Die Aufgabentypen waren so unterschiedlich wie der vermittelte Stoff: Konzepte erklären, unternehmerische Situationen einordnen, kleine Rechenaufgaben, Zeichnen von Diagrammen. Sie passten gut zu den Inhalten. Für meinen Geschmack hätte es aber etwas mehr sein dürfen. Interessant waren die letzten Aufgaben. Diese ergänzten die Videos zur Arbeit mit einem OLAP-System. Hier musste man Verständnisfragen beantworten. Dabei musste ich oft zurückspulen, um genauer zu sehen, was der User macht. Nicht selten habe ich bei der Bearbeitung feststellen müssen, dass ich beim ersten Zuschauen doch noch nicht ganz begriffen hatte, was dort ablief. Diese Aufgaben waren etwas umfangreicher und zwangen einen, genauer hinzuschauen. Mein Tutor äußerte in diesem Zusammenhang, dass mittlerweile auch brauchbare Open Source Werkzeuge verfügbar seien, so dass man künftig die Videos durch praktische Übungen an entsprechenden Systemen ersetzen könnte. Schade, dass das noch nicht so weit ist, denn die Idee finde ich gut.   Die Korrekturen kamen schnell, was die zügige Bearbeitung des Moduls erleichterte. Die Rückmeldungen durch meinen Tutor hätten zum Teil ausführlicher ausfallen dürfen. Aber wenn ich einmal etwas nicht verstanden und konkret nachgefragt hatte, bekam ich stets Antworten.   Präsenzklausur   Die Klausur hatte 10 Aufgaben, die Stoff aus allen Kursteilen abdeckten. Die Aufgabentypen waren dabei recht unterschiedlich. Es gab reine Wissenfragen, Aufgaben, bei denen man etwas erklären sollte, Zuordnungsaufgaben, Aufgaben zur multidimensionalen Modellierung und kleinere Rechenaufgaben. (Bei der Klausur ist kein Taschenrechner erlaubt.) Insgesamt war es eine recht abwechslungsreiche Klausur, die gut zum Modul passte.   Fazit   Wirtschaftsinformatik ist ein Thema, mit dem ich nicht sofort warm geworden bin. Ursprünglich hatte ich das Modul Data Mining belegt. Dabei hatte ich mir erhofft, in erster Linie etwas über mathematische und statistische Grundlagen des Data Minings und ihre Implementierung in Code zu erfahren. Stattdessen nahm das Modul aber eine betriebswirtschaftliche Perspektive ein, was mir anfangs gar nicht gefiel. Im Laufe der Zeit merkte ich aber, dass die Wirtschaftsinformatik eine eigene fachliche Perspektive hat, die auch interessant ist. Darum war ich damals neugierig, auch noch das Modul Business Intelligence zu belegen, das noch einen Schritt weiter in diese Richtung geht.   Meine Leidenschaft für Wirtschaftsinformatik habe ich noch nicht entdeckt, aber es war bereichernd, hier noch einmal einen Blick über meinen persönlichen Tellerrand werfen zu können. Gleichwohl vermute ich, dass angehende Web- und Medieninformatiker dieses Modul seltener wählen werden. Für die Wirtschaftsinformatiker ist es ja ohnehin Pflicht. Für die Zukunft wäre es wünschenswert, interaktive Übungen mit einem freien OLAP-System in das Modul aufzunehmen.

kurtchen

kurtchen

 

Modulbericht: Projektarbeit

Die Projektarbeit   Das Modul Projektarbeit ist für das 5. Fachsemester vorgesehen. Es ist ein Pflichtmodul sowohl für die angehenden Web- und Medieninformatiker als auch für die Wirtschaftsinformatiker. Wie bei fast allen Modulen wird der Workload mit 5 ECTS bewertet. Ich habe in der letzten Zeit über einzelne Module berichtet, bei denen ich fand, dass der Workload etwas zu großzügig bewertet war. In dieses Modul sind bei mir deutlich mehr als die angesetzten 150 Arbeitsstunden geflossen. Aus Gesprächen mit Kommilitonen weiß ich, dass es auch anderen so geht. Rückblickend würde ich also sagen: Manche Module machen etwas weniger Arbeit, andere mehr. Unterm Strich gleicht sich das aus. Ich würde allerdings vermuten, dass die Projektarbeit für ALLE Studierenden ein ordentliches Stück Arbeit wird. Insofern würde ich dazu raten, für dieses Modul deutlich mehr Zeit einzuplanen.   Viele Studierende entwickeln ihre Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Dabei bleibt die Bachelorarbeit natürlich eine eigene wissenschaftliche Arbeit. Ich habe mich bislang dagegen entschieden, das so zu machen. Bachelorarbeit und Projektarbeit sollen in meinem Fall also nichts miteinander zu tun haben.   Voraussetzungen   Die inhaltlichen Voraussetzungen hängen bei diesem Modul stark davon ab, was für ein Thema man sich aussucht. Grundsätzlich soll die Projektarbeit in Zusammenhang mit belegten Modulen des eigenen Studienganges stehen. Ich möchte hier ein paar Module nennen, die für jede Projektarbeit wichtig sein sollten: wissenschaftliches Arbeiten Softwaretechnik 1-3   Das Modul "Wissenschaftliches Arbeiten" ist wichtig, weil die Projektarbeit formalen Kriterien genügen muss. Die Projektarbeit ist insofern schon eine Art Testlauf für die Bachelorarbeit.   Die Module "Softwaretechnik 1-3" sind wichtig, weil die Projektarbeit in der Regel eine konstruktive Arbeit sein wird, d.h. man wird ein Problem durch Entwurf und Implementierung eines Software-Systems lösen. Dazu gehört natürlich eine Analyse der Problemdomäne und ein entsprechendes Requirements Engineering. Da objektorientierte Programmierung das derzeit vorherrschende Programmierparadigma ist, wird sich daran wahrscheinlich eine objektorientierte Analyse und ein objektorientierter Entwurf anschließen. Diese Dinge lernt man in den Modulen zur Softwaretechnik.   Themenfindung   Im Gegensatz zu anderen Modulen, bei denen die Inhalte durch Lehrbuch und Lernplattform vorgegeben sind, hat man im Modul "Projektarbeit" ein Vorschlagsrecht. Tatsächlich war ich etwas überrascht, nachdem ich das Modul gebucht hatte. Ich hätte erwartet, dass in der Lernplattform ein neuer Bereich freigeschaltet würde, wo noch einmal eine knappe Anweisung zur Themenfindung und weiteren Vorgehensweise gegeben wird. Das ist aber nicht der Fall. Stattdessen wird darauf gesetzt, dass die grundsätzliche Arbeitsweise durch das Modul "Wissenschaftliches Arbeiten" bekannt ist.   Die genauere (auch zeitliche) Planung wird mit dem Betreuer vereinbart. Um einen Betreuer zu finden, braucht man aber zunächst ein Thema, denn das Studienbüro versucht, einen Betreuer zu vermitteln, der das gewählte Thema gut betreuen kann. Insofern muss man hier den ersten Schritt selber tun. Ein Blick auf die Homepage der FH Dortmund kann bei der Themenfindung helfen. Manche Professoren des Fachbereichs Informatik listen auf, was für Arbeiten in ihr Forschungs- und Lehrgebiet fallen. Leider betreuen nicht alle Professoren auch Studierende aus den Online-Studiengängen. Das liegt vermutlich daran, dass der Online-Studiengang "Web- und Medieninformatik" inhaltlich ein etwas anderes Profil hat als die Präsenzstudiengänge, wo man sich z.B. auch mit medizinischer Informatik oder technischer Informatik beschäftigen kann.   Die Themenfindung hatte mir im Vorfeld viele Sorgen gemacht, denn im Gegensatz zu den meisten meiner Kommilitonen arbeite ich nicht im IT-Bereich. Mein Arbeitsbereich hat sogar besonders wenig Berührungspunkte damit. Die Chancen, dass mir am Arbeitsplatz ein gutes Thema über den Weg läuft, standen also schlecht Ich musste aktiv nach einem Anwendungskontext für mein Projekt suchen. Den fand ich an der örtlichen Universität.   Dort findet Grundlagenforschung zur sogenannten biologischen Uhr statt. Dafür werden Organismen in einer Umgebung gehalten, in der sie einem künstlichen Tag-Nacht-Rhythmus ausgesetzt sind. Beispielsweise wird der Tag-Nacht-Rhythmus beschleunigt oder verlangsamt oder stundenweise verschoben. Bislang wird das durch Mikrocontroller gesteuert. Diese arbeiten Skripte ab, die in einem Texteditor erstellt werden. Schneller und komfortabler ginge es mit einem graphischen Editor. Ein bisschen komplexer als eine einfache Zeitschaltuhr ist das ganze schon. Verschiedene Farben sollten unabhängig voneinander geschaltet werden können. Man möchte verschiedene Übergangsfunktionen definieren können. Insbesondere der Umgang mit dem Thema Zeit kann verwirrend sein. Man muss Tage beschleunigt oder verlangsamt ablaufen lassen können. Für manche Experimente ist aber auch wünschenswert, Tage in mehr oder weniger als 24 Stunden zu unterteilen. Tage haben also eine virtuelle Dauer, die sich auf ihre interne Einteilung in Stunden bezieht, und eine reale Dauer, die sich auf die Zeit bezieht, in der sie abgefahren werden.   Das Problem lösen könnte eine Kombination aus einem graphischen Editor auf dem Desktop und einer Steuersoftware auf einem Raspberry Pi. Da biologische Uhren eine gewisse Zeit brauchen, um sich an äußeren Rhythmen zu synchronisieren, können die Experimente 8-10 Wochen dauern. Eine hohe Zuverlässigkeit der Steuersoftware ist also nötig.   Das Projektthema gefiel mir aus zwei Gründen: Den Anwendungskontext biologische Grundlagenforschung fand ich spannend. Da die Steuersoftware auf einem Raspberry Pi läuft, an den PWM-Treiber und Sensoren angeschlossen werden, hat das Projekt auch den Aspekt physical computing. Das spielte im Studiengang keine Rolle, war aber ein Thema, auf das ich neugierig war.   Im Mittelpunkt des Projektes stand aber die Entwicklung eines grafischen Editors für Lichtskripte. Dabei spielten GUI-Programmierung und Grafik eine Rolle. Daraus ergaben sich erste Bezüge zu Modulen des Studienganges. Und siehe da:  Auch das bei vielen Studierenden ungeliebte Modul "Mathe 2" konnte ich gebrauchen, weil ich mich an verschiedenen Stellen mit Koordinaten-Transformationen beschäftigen musste, die durch Zoomen, Scrollen oder Änderung der Fenstergröße entstehen. Lineare Algebra kann also durchaus nützlich sein.   Finden eines Betreuers   Hier habe ich zunächst auf eigene Faust einen möglichen Betreuer angeschrieben und ihm mein Thema vorgestellt. Dann wollte ich die Projektarbeit beim Studienbüro anmelden. Dort war man von meiner Vorgehensweise wenig begeistert. Das Studienbüro übernimmt nämlich üblicherweise eine Lotsenfunktion und hilft den Studierenden so, einen Betreuer zu finden, der zum Projektthema passt. Das überraschte mich, weil unsere Studiengangskoordinatorin keine Informatikerin ist. Mir war also anfangs nicht ganz klar, wie sie mir bei der Vermittlung helfen sollte.   Nach einigem Überlegen war ich dann aber gewillt, die vorgeschlagene Beratung und Vermittlung zu nutzen. So kam es zu einem längerem Telefonat zwischen mir und unserer Studiengangskoordinatorin, bei dem ich meine Projektidee vorstellte. Es zeigte sich, dass ich völlig falsch eingeschätzt hatte, worauf es bei so einer Vermittlung ankommt. Die Studiengangskoordinatorin kennt die Professoren. Sie hat einen Überblick, wer von wem mit welchem Thema betreut wurde und wie das ganze ausgegangen ist. Sie weiß auch, wer aktuell Zeit hat, noch weitere Studierende aufzunehmen. Und sie kann gut einschätzen, wer zu wem passt. Beim Finden eines Betreuers spielen also neben "harten" fachlichen Kriterien auch "weiche" soziale und organisatorische Kriterien eine große Rolle. Und genau dabei kann die Studiengangskoordinatorin helfen. Für Fernstudierende ist das sogar besonders wichtig.   Nach nach einigen E-Mails habe ich ein persönliches Beratungsgespräch mit meinem Betreuer vereinbart. Ich würde empfehlen, für solch ein Gespräch nach Dortmund zu reisen, weil man so in kurzer Zeit viel klären kann, was online langwierig und missverständlich ist. Es zeigt sich doch deutlich, dass Mimik, Gestik, Artikulation, Stimmungen und andere Faktoren sehr viel zu einer gelingenden Kommunikation beitragen. Jedenfalls hatte ich nach dem Gespräch eine klare Vorgehensweise im Kopf und konnte damit beginnen, einen Zeitplan für mein Projekt zu erarbeiten.   Formale Anmeldung des Projektes   Die folgende Kommunikation mit meinem Betreuer lief per E-Mail. Hier schrieb ich zunächst eine Vorstellung meines Projektes, entwarf eine Vorgehensweise, eine Gliederung der Arbeit und stellte einen Zeitplan auf. Nachdem das Form angenommen hatte, meldete ich die Arbeit formal an. Ab jetzt tickte die Uhr. Ab Anmeldung stehen 3 Monate zur Verfügung. Es ist daher günstig, vorher einen möglichst konkreten Plan zu formulieren und diesem mit seinem Betreuer abzustimmen.   Als grobe Richtlinie für den Umfang wurden mir an die 50 Seiten genannt. Bei mir wurden es deutlich mehr, aber das war dem Thema geschuldet.   Zum Ablauf des Projektes   Hier möchte ich nicht allzu sehr ins Detail gehen, weil die Einzelheiten stark vom Projektthema abhängen, also nicht unbedingt auf andere Studierende übertragbar sind. Folgende Artefakte entstanden in etwa dieser Reihenfolge: Analyse der Problemdomäne Analyse der Nutzergruppe Glossar Lastenheft handschriftliche Skizzen des UIs Mock-up des UIs UML-Klassendiagramme des Datenmodells UML-Klassendiagramme im Rahmen des objektorientierten Entwurfs UML-Paketdiagramm Modellierung als Zustandsautomat eine XML-Schema-Definition Java-Quellcode JavaDoc   Schön wäre gewesen, dem Thema Tests noch Raum zu geben. Allerdings passte das zeitlich nicht mehr in den Rahmen und die Arbeit war ja auch schon recht umfangreich.   In den ersten Wochen schickte ich meinem Betreuer einzelne Textbausteine und erhielt dazu auch Feedback. Wie in der Vorbesprechung angekündigt, zog er seine Unterstützung allmählich zurück, um mich dann etwa ab der Hälfte des Projektes möglichst selbstständig arbeiten zu lassen. Ab diesem Zeitpunkt hätte ich weiter Hilfestellung bekommen können, wenn ich ausdrücklich darum gebeten hätte. Aber hier ging es darum, zu zeigen, wie ich alleine zurecht komme. Diese Vorgehensweise erschien mir didaktisch sinnvoll.   Die Rückmeldungen durch meinen Betreuer kamen sehr zügig. Neben dem fachlichen Aspekt spielten die Konventionen wissenschaftlichen Arbeitens eine große Rolle. Gerade hier waren seine Rückmeldungen hilfreich. Die Erstellung der Artefakte und das Schreiben der eigentlichen Projektarbeit wechselten sich ab. Die Arbeit entstand also abschnittsweise und war so auch eine Dokumentation des Projektverlaufes. Eine große Rolle spielte es, getroffene Entscheidungen zu reflektieren, zu begründen und gegen andere mögliche Entscheidungen abzuwägen. Dabei war es auch immer wieder nötig, Kompromisse einzugehen, um das Projekt in der vorgegebenen Zeit zu einem Abschluss führen zu können. Andererseits war es mir stellenweise auch möglich, Themen zu erkunden, die mich besonders interessiert haben.   Stand am Ende des Projektes   Am Ende des Projektes gab es einen lauffähigen Prototypen des grafischen Editors mit den wesentlichsten Funktionen. Außerdem gab es einen Prototypen der Steuersoftware auf dem Raspberry Pi, der zunächst als Kommandozeilenanwendung funktionierte, die per SSH aufgerufen wurde. Mit dieser Kombination ist es nun möglich, Lichtskripte zu erstellen und Tests mit dem Raspberry Pi durchzuführen. Das ist für die Nutzer wichtig, weil diese sehen wollen, dass der Raspberry Pi Lichtprogramme zuverlässig über 8-10 Wochen ausführen kann. Sollte das der Fall sein, wäre die nächste Entwicklungsstufe ein grafischer Client, um Lichtskripte auf entfernte Raspberry Pi Steuerrechner zu laden und deren Ausführung zu überwachen. Die Steuersoftware müsste dafür zum Server einer verteilten Anwendung ausgebaut werden.   Der Aspekt physical computing spielte im Projekt eine geringere Rolle als erhofft, weil ich den größeren Teil der Entwicklungszeit für den graphischen Editor verwenden musste. Würde ich das Projekt für meine Bachelorarbeit fortführen, würden die nächsten Projektschritte mehr mit dem Raspberry Pi, mit Sensoren und mit Netzkommunikation zu tun haben. Aber für die Bachelorarbeit möchte ich ja etwas anderes machen.   Wissenschaftliches Arbeiten   Wissenschaftliches Schreiben spielt für eine Projektarbeit eine große Rolle. Hilfreich war für mich, dass ich mir schon im Modul "Wissenschaftliches Arbeiten" eine Dokumentenvorlage erstellt hatte. Das war damals keine formale Anforderung, um das Modul gut abzuschließen, aber diese investierte Zeit lohnte sich für mich. Ich konnte meine Vorlage leicht für die Erfordernisse der Projektarbeit erweitern und glaube, sie auch für die Bachelorarbeit gut weiterverwenden zu können.   Benutzt habe ich LibreOffice. Gelegentlich höre ich die Meinung, dass Informatiker ihre Arbeiten per se mit LaTex schreiben. Und dass Office-Software für längere Dokumente per se ungeeignet sei. Ich bin mit LibreOffice gut zurecht gekommen und plane bislang, das auch für meine Bachelorarbeit einzusetzen. Allerdings enthielt meine Projektarbeit auch relativ wenige mathematische Formeln, sonst wäre LaTex wahrscheinlich geeigneter gewesen. Wichtig war, sich gute Vorlagen zu erstellen, um dann Verzeichnisse für Abbildungen, Codebeispiele und Tabellen auch automatisch erzeugen zu lassen.   Häufig gehört habe ich auch, man solle eine eigene Software zur Literaturverwaltung einsetzen, z.B. Zotero. Ich habe für die Projektarbeit an die 20 Quellen referenziert. Bei diesem Umfang sehe ich noch nicht, dass sich der Zeitaufwand für die Einarbeitung in solch eine Software rentiert. Das würde bei einer Arbeit mit deutlich mehr Quellen natürlich anders aussehen.   Gegen Ende des Projektes sollte man in jedem Fall einen Puffer von einer Woche einplanen, z.B. für Korrekturen. Auch das Drucken und Binden der Arbeit braucht seine Zeit. Ich habe im CopyShop gemerkt, dass viele Studierende auf den letzten Drücker kommen und am liebsten noch am selben Tag ihre gebundene Arbeit mit nach Hause nehmen wollen. In Uni-Städten kann das aber zu bestimmten Zeiten problematisch werden, z.B. kurz vor Beginn eines neuen Semesters. Wenn man sich unnötigen Stress ersparen will, ist es daher gut, ein paar Tage Spielraum zu haben.   Einreichen der Arbeit   Die Arbeit wird zwei Mal ausgedruckt und ringgebunden. Sie muss zusätzlich als PDF auf CD oder DVD gebrannt und hinten eingeklebt werden. Wenn man die Arbeit per Post noch Dortmund schickt, gilt das Datum auf dem Einlieferungsbeleg als Abgabedatum. Das Studienbüro bestätigt den fristgerechten Eingang per Mail. Wenn nach ein paar Tagen keine Bestätigung kommt, sollte man also stutzig werden.   Das Ergebnis kam in meinem Fall nach weniger als 3 Wochen. Ich bin zufrieden damit. Gut fand ich, dass die Rückmeldungen zu Beginn meines Schreibprozesses und die abschließende Bewertung zueinander passten. Ich finde also, dass mir die Kriterien, die an eine Projektarbeit angelegt werden, transparent vermittelt wurden. Und zwar nicht nur im Vorfeld durch das Modul "Wissenschaftliches Arbeiten" sondern auch in der Betreuung.   Fazit   Die Projektarbeit hat viel Spaß gemacht, weil ich Themen aus verschiedenen Modulen verbinden konnte, länger selbstständig an einem Thema arbeiten konnte und weil eigene Ideen gefragt waren. Gut gefallen hat mir auch die Betreuung durch meinen Professor, die anfangs noch recht intensiv war und dann in didaktisch sinnvoller Weise zurückgefahren wurde, so dass ich auch mal "ohne Stützräder" fahren musste. Interessant und bereichernd war auch die Interaktion mit den Wissenschaftlern, die Editor und Steuersoftware einmal nutzen sollen.   Auch das wissenschaftliche Schreiben als solches hat mir Spaß gemacht. Die Erfahrungen damit werden mir sicher noch nützlich sein. Ich glaube, nun eine realistischere Vorstellung davon zu haben, was mich in der Bachelorarbeit erwartet. Darauf freue ich mich, aber ich habe auch ganz schönen Respekt davor. Wenn ich mein Studium erfolgreich abschließen will, werde ich mir meine Zeit sehr gut einteilen müssen.   Leider hat die Projektarbeit viel mehr Zeit verschlungen, als ich erwartet hätte. Ich hatte gehofft, nebenbei noch ein bis zwei Module abschließen zu können, musste aber einsehen, dass das nicht realistisch war.   10 Tipps zur Projektarbeit   Wählt ein Thema, auf das ihr Lust habt. Die Projektarbeit kostet ungewöhnlich viel Zeit. Wenn man nur darauf aus ist, die nächsten 5 ECTS abzuhaken, kann das demotivierend wirken. Darum ist es wichtig, auch eine intrinsische Motivation aus der Arbeit selbst zu ziehen. Fangt rechtzeitig mit der Suche nach dem Thema an. Ein Semster Vorlauf schadet nicht. Wenn man mit suchendem Auge durch die Welt geht, sieht man auch Gelegenheiten, die man vorher nicht wahrgenommen hätte. Allerdings laufen einem gute Gelegenheiten nicht unbedingt sofort über den Weg. Schaltet man das suchende Auge rechtzeitig ein, so gibt man dem Zufall eine Chance. Nehmt die Beratung durch das Studienbüro in Anspruch. Man betreut dort viele Studierende und hat daher einen besonderen Blickwinkel, den ihr nicht haben könnt. Trefft euren Betreuer. Von Angesicht zu Angesicht kann man in kurzer Zeit viel klären. Grenzt euer Thema gut ein. Es wird in der Projektarbeit nicht möglich sein, ein Thema erschöpfend zu behandeln. Was für ein Ziel kann man also in 12 Wochen realistisch erreichen? Macht einen Plan. Erstellt eine Gliederung und überlegt euch, wann ihr wie weit gekommen sein wollt. Behaltet euren Plan im Blick. Belegt "Wissenschaftliches Arbeiten" nicht ganz zu Beginn eures Studiums sondern im 4. Fachsemester, wenn die Projektarbeit in Sicht kommt. Nehmt das Modul ernst. Es ist nicht nur ein Pflichtmodul, das 5 ECTS bringt. Haltet Kontakt zu eurem Betreuer. Schickt Bausteine der Projektarbeit und nutzt das Feedback, das ihr bekommt. Macht euch vorher eine gute Dokumentenvorlage. Plant am Ende ein paar Tage Puffer für Korrekturen und Druck ein.

kurtchen

kurtchen

 

Modulbericht: IT-Recht

Das Modul IT-Recht ist bei Springer Campus ein Pflichtmodul in den beiden Studiengängen Web- und Medieninformatik sowie Wirtschaftsinformatik. Laut Studienplan ist es für das erste Fachsemester vorgesehen. IT-Recht ist außerdem ein Pflichtmodul der wissenschaftlichen Weiterbildung "Software-Manager".   Ich bin im Studium schon recht weit fortgeschritten und habe das Modul im ersten Semester nicht belegt, weil ich erst einmal schauen wollte, ob ich mit Fächern wie Mathematik oder Programmierung zurecht kommen würde. Die Beschäftigung mit Recht kannte ich ein bisschen aus meiner Ausbildung. Dort ging es zwar um ganz andere Gebiete des Rechts, aber immerhin habe ich damals den Eindruck gewonnen, dass ich mich mit solchen Fragen auseinandersetzen kann, auch wenn es mich nicht unbedingt brennend interessiert. Insofern habe ich die Belegung dieses Modul anfangs vertagt und es später irgendwie aus den Augen verloren. Jetzt, im letzten Abschnitt meines Studiums, war mir aufgefallen: "Da fehlt doch noch ein Pflichtmodul!"   Also war das Thema jetzt einfach "dran".   Das Lehrbuch   Das Buch "IT-Recht" von Axel Sodtalbers, Christian Volkmann und Andreas Heise liegt mir in einer Auflage von 2010 vor. Sein Umfang ist mit 315 Seiten für ein Lehrbuch bei Springer Campus etwas unterdurchschnittlich. Gegliedert ist das Buch in drei Teile. Zunächst geht es um Softwarerecht, dann E-Commerce-Recht und schließlich Datenschutzrecht. Gerade beim letzten Thema hat es ja mit der DSGVO viele Neuerungen gegeben. So viel sei vorweg genommen: Acht Jahre sind speziell bei diesem Thema eine lange Zeit. Dieser Teil des Lehrbuches müsste inhaltlich dringend überarbeitet werden.   Teil 1 - Softwarerecht   Dieser Teil beginnt mit dem Thema Urheberrecht. Es geht darum, wer überhaupt Urheber ist, wie man einer wird und wieso Software unter das Urheberrecht fällt (aber z.B. das Design einer Blumenvase im allgemeinen nicht). Auch die Themen Patentrecht und Halbleiterschutz werden angerissen. Bei Software sind gegenüber anderen geistigen Schöpfungen wie z.B. einem Roman ein paar Besonderheiten zu beachten. Zum einen wird Software von Entwicklern meist im Rahmen eines Dienst- oder Arbeitsverhältnisses erstellt. Die Entwickler sind dann zwar Urheber, aber das Recht zur wirtschaftlichen Verwertung ihrer Schöpfung hat ihr Arbeitgeber. Zum anderen wird Software heute überwiegend in Teams entwickelt. Das gilt schon für kleine Independent Games. Die Zeiten, in denen ein pfiffiger Programmierer im Alleingang einen großen Spielehit oder eine revolutionäre neue Office-Anwendung entwickeln konnte, liegen eine Weile zurück. Es gibt also meistens viele Miturheber.   Software wird programmiert, weil man sie nutzen und verwerten möchte. Dazu werden Verträge geschlossen. Insofern spielt das Vertragsrecht eine wichtige Rolle. Interessant war für mich, dass auch bei Individualsoftware im allgemeinen ein Kaufvertrag und nicht etwa ein Werkvertrag zustande kommt. Wenn man etwas verkauft, so unterliegt man der Gewährleistung. Wenn man möchte, kann man durch einen zusätzlich geschlossenen Vertrag darüber hinaus gehende Garantien geben. Kaufverträge enthalten oft AGBs, die jedoch - wenn sie schlecht verfasst sind - unwirksam sein können. Es ist juristisch schwierig, insbesondere die Rechte von Verbrauchern durch ABGs wirksam einzuschränken.   Alle diese Themen sind eigentlich allgemeines Recht. Verwiesen wird im Lehrbuch vor allem auf das BGB. Das ist allerdings ein Aspekt des Kurses, der mir gut gefallen hat. Vieles im IT-Recht ist zunächst einmal allgemeines Recht, das in einem speziellen Kontext angewendet wird. In manchen Fällen hat dieser Kontext starke Auswirkungen, in anderen nicht. Jedenfalls lernt man in diesem Lehrbuch durchaus ein paar Dinge, über die man als Bürger und Verbraucher ohnehin informiert sein sollte. (Aber leider oft nicht ist!) Insofern ist dies zwar ein Modul für Informatiker, es hat aber eine gewisse allgemeinbildende Komponente. So etwas schätze ich sehr.   Die Fallbeispiele und Übungsaufgaben sind in der Regel in einem IT-Kontext angesiedelt. Meist zielen die Aufgaben darauf ab, zu zeigen, welches allgemeine Recht hier Anwendung findet. Neben der reinen Aufzählung wird dabei natürlich auch eine Begründung und eine Abwägung erwartet.     Dieses Zitat wird dem US-Journalisten Dan Rather zugeschrieben. Software erledigt in der Regel routinemäßig anfallende Tätigkeiten automatisiert. Das hat eine unangenehme Folge. Arbeitet sie fehlerhaft, wird der Fehler oft tausendfach wiederholt, was den Schaden in die Höhe treibt. Software wird auch in sicherheitskritischen Bereichen eingesetzt. Zur Steuerung medizinischer Geräte oder zur Steuerung von Maschinen, von denen eine erhebliche Unfallgefahr ausgeht. Insofern ist der Bereich Haftung bei Softwarefehlern für die Hersteller sehr wichtig. Hier ist zu beachten, dass man insbesondere bei Schäden für Leib und Leben die Haftung nicht grundsätzlich durch einen Vertrag ausschließen kann. Und der Hersteller einer Software haftet nicht nur gegenüber seinen Kunden, mit denen er einen Vertrag hat, sondern um Umständen auch gegenüber Dritten, die durch einen Fehler seiner Software geschädigt wurden. Mit neuen Anwendungen wie dem autonomen Fahren wird dieses Thema sicher noch drängender werden. Das autonome Fahren ist übrigens bereits Teil einer Übungsaufgabe, wenn auch im Zusammenhang mit einer Straßenbahn und nicht mit einem Auto.   Bleibt noch der für mich besonders spannende Bereich der Open Source Software. Hier geht es darum, verschiedene Arten von Open Source Lizenzen zu unterscheiden. Wer quelloffenen Code in einem eigenen Produkt verwendet muss je nach Lizenz unterschiedliche Dinge beachten. Gut, sich einmal mit so etwas zu beschäftigen.   Dieser erste Teil des Moduls hat mir insgesamt gut gefallen. Ich konnte dem Text gut folgen, fand die Fallbeispiele nachvollziehbar und gut ausgewählt. Tests und Übungsaufgaben erschienen mir gut darauf abgestimmt.   Teil 2 - E-Commerce-Recht   In diesem Teil ging es zunächst noch einmal um das Vertragsrecht, diesmal im Zusammenhang mit E-Commerce. Der Gesetzgeber berücksichtigt, dass Kunden im Zusammenhang mit dem Online-Handel weniger Möglichkeiten haben, Ware vor Abschluss eines Vertrages zu prüfen und sich ein Bild vom Verkäufer einer Sache zu machen. Darum hat der Gesetzgeber mit dem Fernabsatzgesetz und dem Telemediengesetz dem Käufer zusätzliche Rechte verschafft und den Verkäufern und Anbietern umfangreiche Informationspflichten auferlegt. Da heute praktisch jeder Waren im Internet bestellt, dürfte dieses Kapitel für jeden relevant und interessant sein.   Im nächsten Abschnitt geht es um Urheberrecht im Internet. Hier dreht es sich um Themen wie Schutz des Designs einer Webseite, Raubkopien geschützer Inhalte aber auch um das Recht auf Privatkopie. Neben dem Urheberrecht spielt bei Webinhalten auch das Markenrecht, das Domainrecht und das Wettbewerbsrecht eine Rolle. Hier landet man schnell bei einem ungeliebten aber wichtigen Thema: "Was gehört in ein Impressum?"   Bei allem Ärger über den Abmahnirrsinn versteht man nach diesen Kapiteln immerhin etwas besser, was die grundlegende Idee hinter den einschlägigen und oft lästig erscheinenden Gesetzen ist.   Recht spannend ist das Thema der Verantwortlichkeit im Internet, insbesondere wenn es um Inhalte geht, die Rechte verletzen. Das spielt ja auch hier im Forum eine Rolle. So ist zum Beispiel unser Forumsbetreiber Herr Jung als Access-Provider rechtlich nicht verpflichtet, jeden Post VOR seiner Veröffentlichung auf Rechtsverletzungen hin zu überprüfen. Das entbindet ihn aber nicht von seiner Pflicht, entsprechende Inhalte bei Bekanntwerden eines Rechtsverstoßes zu entfernen. Es gibt hier im Forum ja einige Regeln, die Teilnehmer zu beachten haben. Insbesondere gibt es auch Konsequenzen, wenn Regeln nicht eingehalten werden. Dies dient natürlich zum Teil auch dazu, eine gewisse "Forumskultur" zu erhalten. Fernstudium-Infos soll ja einerseits themenbezogen bleiben und andererseits sollen sich Nutzer auch wohl fühlen können. Aber ein Teil der Regeln und Konsequenzen dürfte eben auch damit zu tun haben, dass Herr Jung als Forumsbetreiber nicht für Rechtsverstöße seiner Nutzer haften möchte. Das entsprechende Kapitel im Lehrbuch schafft ein erstes Bewusstsein für diese Problematik. Kurz gestreift werden Fälle mit Berührung zum Ausland, was ja beim Anbieten von Waren, Leistungen und Inhalten im Netz häufig der Fall ist.   Bis hierhin gefielen mir Lehrbuch, Tests und Aufgaben ausgesprochen gut. Stellenweise bemerkte ich bei meinen Recherchen zu Einsendeaufgaben, dass manche Gesetze und Verordnungen inzwischen durch neuere ersetzt waren. Das betrifft zum Beispiel weite Teile der BGB-InfoV, die inzwischen durch das EGBGB abgelöst wurde und eigentlich nur noch für Reiseverträge relevant ist. Das finde ich aber gar nicht schlimm. Recht ist ein menschliches Artefakt. Es entwickelt sich durch Gesetzgebung und Rechtsprechung. Schadet gar nicht, wenn man das als Studierender beim Bearbeiten eines Moduls in angemessener Dosierung zu schmecken bekommt.   Teil 3 - Datenschutzrecht   Leider finde ich die Dosierung im letzten Teil des Buches nicht mehr angemessen. In den letzten Wochen und Monaten hat vermutlich jeder Leser an seinem Mail-Eingang gemerkt: Die DSGVO ist in Kraft getreten und bringt z.B. neue Informationspflichten mit sich. Leider spielt sie im Lehrbuch keine Rolle. Ich versuche zunächst mal, diesem letzten Teil des Kurses etwas positives abzugewinnen, was durchaus gelingt.   Geklärt werden zunächst einmal verschiedene Begrifflichkeiten im Zusammenhang mit Datenschutz, die als konzeptionelle Grundlage nicht verkehrt sind. Insbesondere begreift man bei Lektüre der Kapitel schnell: Nach bisherigem Datenschutzrecht sind eigentlich formulierte Ansprüche wie Auskunft über gespeicherte Daten, Löschung, Sperrung oder auch Berichtigung von falschen Daten für einen Betroffenen praktisch nur selten durchzusetzen. Das liegt daran, dass die bisherigen Datenschutzgesetze viele Ausnahmen formulierten. Tatsächlich fiel es mir beim Lesen der Gesetze oft schwer, unter den ganzen Ausnahmen auch noch meine Rechte zu entdecken. Insofern kann man sagen: Der bestehende Datenschutz ließ zu wünschen übrig. Und das, obwohl sich mit dem Internet die Möglichkeiten der missbräuchlichen Nutzung von Daten potenziert haben. Dafür schafft das Kapitel also ein Bewusstsein.   Nun hätte ich gerne gewusst, ob das alles mit der DSGVO aus Betroffenensicht besser wird. Immerhin haben ja Firmen, Vereine und öffentliche Einrichtungen viel Arbeit damit, die neuen Regeln umzusetzen. Steht dem auch ein Nutzen für mich gegenüber? In diesem Modul erfährt man es leider nicht. Dafür ist es zu alt.   Immerhin glaube ich, nach der Lektüre dieses Kursteils begrifflich besser gerüstet zu sein, Texte zur DSGVO zu lesen und zu verstehen. Das ist zwar auch ein Ergebnis, aber insgesamt finde ich das bei diesem Thema zu wenig. Insofern wäre es dringend Zeit, dass Lehrbuch in diesem Punkt auf einen aktuellen Stand zu bringen. Denkbar wäre auch, entsprechende Kapitel zumindest auf der Online-Plattform zügig nachzurüsten.   Ob es entsprechende Pläne gibt, weiß ich nicht. Aber stünde ich noch am Anfang meines Studiums, würde ich mich vor Belegung des Modul einmal danach erkundigen. Um dann gegebenenfalls die Belegung noch zu verschieben.   Tests, Einsendeaufgaben und Online-Klausur   Über die tutorielle Betreuung kann ich mich nicht beschweren. Die Korrekturen kamen sehr zügig, auch bei der Online-Klausur. Die Tests haben für mich viele unklare Punkte noch einmal ausgeleuchtet. Die Einsendeaufgaben gefielen mir gut, auch und gerade im Hinblick auf die Präsenzklausur. Den Abschlusstest fand ich zu leicht bzw. nicht umfangreich genug. In der zur Verfügung stehenden Zeit hätte man durchaus etwas mehr verlangen dürfen, zumal diese Tests ja automatisch ausgewertet werden, also keinen Korrekturaufwand verursachen. Gut gefallen hat mir dagegen die Online-Klausur, weil die Aufgaben das gesamte Modul gut abdeckten und die Themen zum Teil auch vernetzten. Die Online-Klausur gibt auch in diesem Modul einen Vorgeschmack auf Art und Umfang der Aufgaben in der Präsenzklausur, ohne dieser vorzugreifen. So sollte es sein.   Präsenzklausur   Ob ich bei der Präsenzklausur auch geliefert habe, wird sich zeigen müssen. Im Vergleich zu den Einsendeaufgaben gab es nämlich einen großen Unterschied: Bei den Einsendeaufgaben konnte ich im Internet nach Gesetzen suchen und mir auch Kommentare oder Urteile durchlesen. Das half dabei, die Fallbeispiele zu beurteilen. Das ging in der Klausur natürlich nicht. Dort war ich auf das angewiesen, was mir auf Papier zur Verfügung stand. Interessant fand ich, dass das Thema Datenschutz keine große Rolle spielte. Vielleicht wird ja auf diese Weise berücksichtigt, dass die entsprechenden Kapitel im Lehrbuch nicht mehr aktuell sind. Ansonsten deckten die Aufgaben den Stoff sehr breit ab. Viele Aufgaben verbanden auch den Stoff verschiedener Kapitel im Lehrbuch. Es hat mir gut gefallen, dass so unterschiedliche Gesichtspunkte zu berücksichtigen waren. Insgesamt war es eine Klausur, die durchaus auch ein bisschen Spaß gemacht hat.   Fazit   Insgesamt bin ich nun aber froh, mein letztes Pflichtmodul einer schriftlichen Prüfung abgehakt zu haben. Es hat mir mit Sicherheit nicht geschadet, mich wieder einmal mit dem Thema Recht zu beschäftigen, aber Neigung und Interesse richten sich bei mir dann doch auf andere Dinge. Insbesondere sitzt mir das Thema Projektarbeit um Nacken. Hier muss ich nun rasche Fortschritte machen, um die gesetzte Abgabefrist auch einzuhalten. Habe ich einmal freie Zeit, so kreist mein Denken um mein Projekt und nicht so sehr um das Lehrbuch des nächsten Moduls.   Darum habe ich auch ein wenig abgewogen, ob ich mir die Zeit für einen umfangreichen Modulbericht nehmen sollte. Zwei Punkte haben mich dazu bewogen: Bislang habe ich für jedes Modul, das ich belegt habe, auch einen Bericht geschrieben. Vor Aufnahme meines Studiums habe ich nach genau solchen Informationen gesucht und sie nicht gefunden. Das war für mich die wesentliche Motivation, diesen Blog anzufangen.
Insofern habe mich entschieden, die Sache "durchzuziehen". Allzu viele Beiträge müssen es ja nun nicht mehr werden.   Sollte ich IT-Recht bestanden haben, so bleiben mir tatsächlich nur noch 2 Pflichtmodule: Das Projekt und die Bachelorarbeit. Ich befinde mich nun also im letzten Abschnitt meines Studiums, wo es nicht mehr um Aneignung von Wissen geht, sondern darum, dieses anzuwenden und eigenständig neue Themen zu erkunden. Darauf fühle ich mich durch mein bisheriges Studium tatsächlich vorbereitet und ich freue mich auch darauf.

kurtchen

kurtchen

 

Springer Campus Präsenztag am 10.03.2018 - Teil 2

Hier kommt die Fortsetzung meines Berichts über den Springer Campus Präsenztag am 10.03.2018.   12:15 Uhr - Vortrag: Big Data, Prof. Dr. Uwe Schmitz, FH Dortmund   Ich gebe die Inhalte des Vortrages auf der Grundlage eigener Notizen in knapper Form wieder.   Ausgangssituation Es ist zu erwarten, dass Industrie 4.0 die Industrieproduktion verändern wird. Es fallen massenhaft strukturierte Daten aus operativen Informationssystemen an. Hinzu kommen massenhaft unstrukturierte Daten, z.B. aus sozialen Netzwerken. Viele der anfallenden Daten bleiben noch ungenutzt.   Was kennzeichnet Big Data? Volume (Umfang): Das Datenvolumen steigt jedes Jahr im den Faktor 40. Variety (Vielfalt): Es gibt eine Vielfalt der Formate und der Quellen. Daten können strukturiert, unstrukturiert und halbstrukturiert vorliegen. Strukturierte Daten kennzeichnen klassische Datenbanken. Unstrukturierte Daten sind z.B. Photos, Videos oder Audiodateien. Halbstrukturierte Daten sind z.B. E-Mails oder Word-Dokumente. Velocity (Geschwindigkeit): Hier geht es um die Geschwindigkeit, mit der Daten generiert und ausgewertet werden. Velocity hat zwei Aspekte. Zum einen die Geschwindigkeit, mit der Daten verarbeitet werden. Zum anderen die Geschwindigkeit, in der Daten sich ändern. Heute möchte man Updates möglichst in Echtzeit, d.h. die Geschwindigkeit der Verarbeitung soll mit der Geschwindigkeit der Veränderung Schritt halten. Veracity (Richtigkeit): Dies betrifft die Datenqualität. Man möchte wissen, mit welcher Wahrscheinlichkeit ein Wert valide ist. Beispielsweise müssen Stromerzeuger recht zuverlässig wissen, wie das Wetter der nächsten Tage wird, denn das beeinflusst Produktion und Verbrauch von Strom. Value (Mehrwert): Das Sammeln und Auswerten von Daten ist kein Selbstzweck. Die dazu nötigen Investitionen müssen sich lohnen.   Aktuell bedeutsame Datenquellen sind noch immer Transaktionsdaten, Protokolldaten, Ereignisdaten. Transaktionsdaten werden seit Jahrzehnten in klassischen relationalen Datenbanken erfasst. Auch Log-Dateien gibt es seit langem. Für die Zukunft werden große Zuwächse bei anderen Datenquellen prognostiziert, z.B. bei Social Media, Sensordaten oder Geodaten.   Die gesammelten Daten sind potentiell in allen Unternehmensbereichen nützlich, also z.B. im Vertrieb, in Finanzen & Controlling, im Marketing, in der Produktion, der Logistik, im Supply-Chain-Management und im Kundenservice.   Big Data Technologie leistet einen unverzichtbaren Beitrag für die Industrie 4.0. Zu nennen sind vier Bereiche: Smart Factory: Sensoren schaffen bessere Planungsfähigkeit. Smart Operations: Vernetzte Produktion ermöglicht flexible Steuerung der Produktion. Smart Service: Durch Vernetzung von Produkt und Hersteller und werden neue Dienstleistungen möglich. Smart Products: Hier gab es eine kleine Diskussion über die Frage, was ein smartes Produkt kennzeichnet.   Beispiel Netflix   Die Plattform versucht vorauszusagen, was Nutzer künftig sehen wollen. Nutzerprofile werden dazu ausgewertet, z.B. Korrelationen, wann ein begonnener Film abgebrochen wurde. Auf diese Weise werden Präferenzen für Schauspieler, Inhalte, Themen und ähnliches für bestimmte Nutzergruppen ermittelt. Dies hat Auswirkungen auf die Produktion von Serien. Zum Beispiel wurde die bekannte Serie "House of Cards" auf der Grundlage solcher Nutzerdaten produziert. (Eigene Anmerkung: Natürlich haben Produzenten von Filmen und Serien immer versucht, den Geschmack ihrer Zielgruppen zu treffen. Neu erscheint mir hier, die Geschwindigkeit der Rückkopplung und die Verknüpfung von Informationen. Früher konnte man sagen, dass die Einschaltquoten für eine Serie zurückgegangen sind. Für jeden Zuschauer, der abspringt, kann man heute sagen, was er stattdessen geschaut hat.)   Big Data Technologien verändern die Datenhaltung, den Datenzugriff, die analytische Verarbeitung, die Datenintegration und die Visualisierung.   Beispiel Datenhaltung   In-Memory-Datenbanken laden bei Programmstart den kompletten Datenbestand in den Hauptspeicher. Dies erhöht die Geschwindigkeit der Verarbeitung erheblich. Die Datenbankserver müssen dann natürlich besonders gegen Stromausfälle gesichert werden, z.B. durch Akkus. In zeitlichen Abständen gibt es Backups auf nicht-flüchtige Datenspeicher (Save Points). Diese Datenbanken können viele Terrabytes umfassen. Aufgrund der hohen Geschwindigkeit entfällt der bisherige ETL-Prozess. (ETL steht für Extract, Transform, Load. Bislang mussten Daten aus operativen Systemen aufbereitet und verdichtet werden, bevor man sie analysieren konnte. In-Memory-Datenbanken sind schnell genug, um direkt auf den vollständigen operativen Datenbeständen zu arbeiten.) Vorteile sind z.B. schnelle Reaktion auf Preisschwankungen, schnelle Sperrung bei Missbrauchsverdacht, schnelle Reaktion auf aufkommende Gerüchte (Shitstorm-Erkennung!), Verringerung von Out-of-shelf-Problemen, positiveres Image durch schnellere Reaktion auf Kundenanfragen. Ein Beispiel für eine In-Memory-Datenbank wäre SAP Hana.   Beispiel Sentiment-Analyse   Bei der Sentiment-Analyse geht es darum, wie eine Person zu etwas steht. So gibt es mittlerweile Standard-Extraktoren für Posts auf Plattformen wie Twitter und Facebook über standardisierte Schnittstellen. Diese ermitteln z.B. Korrelationen zwischen Schlüsselwörtern und Adjektiven wie "successful" oder "bad". Auf die Weise kann man nicht nur schnell ermitteln, wie ein Produkt, ein Service oder eine Organisation wahrgenommen wird, sondern auch, wie diese Wahrnehmung sich aktuell verändert. Das kann man im Marketing und in der Öffentlichkeitsarbeit nutzen.   Anforderungen   Um Big Data nutzen zu können, muss man verschiedene Arten von Anforderungen erfüllen: Technische Anforderungen: Dazu zählen z.B. Skalierbarkeit, um mit dem rasanten Wachstum der Bestände Schritt halten zu können, aber auch Schnittstellen, um Daten aus immer vielfältigeren Quellen verknüpfen zu können. Personelle Anforderungen: Es erweist sich als schwierig, Mitarbeiter mit den nötigen Kompetenzen zu beschaffen. Dazu später mehr bei den Herausforderungen. Organisatorische Anforderungen: Man braucht Regelungen zum Umgang mit den neuen Daten. Auch Regelungen zum Datenschutz sind wichtig. (Wie man in jüngerer Zeit immer wieder erleben muss, kann sorgloser Umgang mit Kundendaten den Ruf eines Unternehmens nachhaltig schädigen.) Projektspezifische Anforderungen: Hier geht es darum, Business-Cases zu finden, also Möglichkeiten, durch Analyse und Verknüpfung von Daten einen Mehrwert zu erzeugen. Dies könnten Einsparungen in der Produktion sein, eine schnellere Bereitstellung von Diensten als Mitbewerber, eine gezieltere Ansprache von Kunden durch Werbung, eine bessere Planung des Produktportofolios und vieles mehr.   Herausforderungen beim Einsatz von Big Data   Der Einsatz und die Einführung von Big Data Technologien ist mit verschiedenen Herausforderungen verbunden: Fehlendes analytisches Know-How: Ideale Mitarbeiter haben Kenntnisse in Statistik, BWL und Informationstechnologie. Die Person, die diese Fähigkeiten kombiniert, nennt man Data Scientist. Offen bleibt die Frage, wie wahrscheinlich es ist, diese Kompetenzen tatsächlich häufig genug vereint in einer Person zu finden. Voraussichtlich wird man eher interdisziplinäre Teams bilden müssen. Datenschutz: Hier geht es einerseits darum, was Unternehmen dürfen und müssen, und andererseits darum, wie Kunden auf Sicherheitslecks reagieren. Fehlendes technisches Know-how Datensicherheit: Wie verhindert man z.B. unauthorisierten Zugriff? Kosten Fehlender Business-Case Die Geschäftsprozesse sind nicht reif genug für den Einsatz von Big Data   Wie etabliert man Big Data in einem Unternehmen?   Dafür gibt es das BITKOM-Vorgehensmodell: Assessment: Eine Ist-Analyse erfasst, was die aktuellen Daten sind und wie die aktuelle Systemlandschaft aussieht. Readyness: Neue Datenquellen werden eingebunden. Die Datenquellen werden vereinheitlicht. Implementierung und Integration: Die eigentliche Einführung einer Big Data Applikation. Konsilidierung und Migration Nutzung der neuen Daten Reportung und Predictive Analytics: Hier geht es um die Gewinnung neuer Einsichten, indem man unbekanntes und ungenutztes Wissen in den zusammengeführten Datenbeständen entdeckt. End-to-End-Prozesse: Man wandelt die gewonnenen Einsichten in Vorteile, indem man neue und bessere Geschäftsprozesse konzipiert und einführt. Im Grunde wird erst durch diesen Schritt der Nutzen realisiert. Optimierung und Tuning: Hier geht es um die Frage, wie eine künftige und bessere Systemlandschaft aussehen könnte. Damit schließt sich ein Kreis und die Phasen können erneut durchlaufen werden.   Erwarteter Nutzen   Durch den Einsatz von Big Data erwartet man vielfältigen Nutzen: Bessere Informationen über das Informations- und Konsumverhalten der Kunden Bessere Steuerung von Marketing und Vertrieb Optimierte Logistik Einschätzung von Marktpotentialen und Business Cases Höhere Renditen durch optimierte Preisgestaltung: Das ist ein heißes Eisen. Technisch betrachtet, könnten Algorithmen eine Prognose erstellen, wie viel ein Kunde für ein Produkt oder eine Leistung zu zahlen bereit oder in der Lage ist. Sie könnten dann einen individuellen Preis je nach Größe des Geldbeutels und Ausgabenbereitschaft machen. (Eigene Anmerkung: Rechtlich ist das problematisch. Bekannt wurde zum Beispiel, dass Disneyland Paris unterschiedliche Preise je nach Herkunftsland der Kunden nahm.) Wettbewerbsvorteile durch genauere Marktkenntnis   Reifegrad-Modelle   Reifegrad-Modelle beantworten die Frage: Ist mein Unternehmen reif genug, um Big Data Technologien einsetzen zu können? Ein Beispiel ist das Business Intelligence Maturity Model von Steria Mummert Consulting. Es unterscheidet fünf Stufe der Reife. Lokale Daten, bezogen auf bestimme einzelne Aufgaben Informationsinseln, z.B. nach Unternehmensbereichen Informationsintegration, d.h. die Daten sind unternehmensweit vernetzt Informations-Intelligence, d.h. die Daten sind logisch integriert Informationsgetriebenes Unternehmen   Zur Person   Prof. Dr. Uwe Schmitz betreut im Online-Studiengang B.Sc. Wirtschaftsinformatik die Module "Strategisches Management & Controlling" und "Grundlagen BWL".   Soweit zum ersten Vortrag des Präsenztages.   13:30 Uhr - Vortrag: DevOps, Dr. Hendrik Neumann (W3L AG)   Nach einer Pause gab es ab 13:30 Uhr einen weiteren Vortrag zum Thema "DevOps" von Dr. Hendrik Neumann (W3L AG), der ebenfalls interessant und aufschlussreich war. Allerdings machte sich an diesem Punkt bemerkbar, dass ich am gleichen Tag auch noch eine zweistündige Klausur geschrieben hatte. Die Qualität meiner Notizen war leider nicht mehr ausreichend, um die Inhalte hier detailliert wiederzugeben.   Fazit   Wichtig war wie immer auch der informelle Austausch mit anderen Studierenden. In Kombination mit dem gebotenen Programm war es die lange Anfahrt nach Dortmund wert. Allmählich kommt für mich die Zielgerade in Sicht. Allzu oft werde ich wohl nicht mehr Gelegenheit haben, an einem Präsenztag teilzunehmen. Mindestens einmal fahre ich aber noch nach Dortmund, wahrscheinlicher sogar zweimal. Ich werde hier im Blog berichten.

kurtchen

kurtchen

 

Springer Campus Präsenztag am 10.03.2018 - Teil 1

Bei Springer Campus sind Präsenztage zugleich auch Prüfungstage. Am Freitag, dem 09.03.2018 gab es drei Slots für schriftliche Prüfungen. Außerdem konnte man am Vormittag auch mündliche Prüfungen ablegen.   Ich bin am Freitag angereist, hatte aber keinen Prüfungstermin. Stattdessen hatte ich Gelegenheit vis-a-vis mit dem Professor zu sprechen, der meine Bachelorarbeit betreuen soll. Das erwies sich als ausgesprochen nützlich, weil man in der direkten Kommunikation vieles doch schneller klären kann als per E-Mail. Ein Ergebnis dieses Gespräches ist, dass ich nun auch meine Projektarbeit von ihm betreuen lassen möchte.   Die Projektarbeit und die Bachelorarbeit bauen bei mir thematisch nicht aufeinander auf. Deswegen war ich ursprünglich der Ansicht, hier verschiedene Betreuer wählen zu können. Inzwischen ist mir klar geworden, dass die Projektarbeit eine weitere Chance ist, sich mit den Anforderungen wissenschaftlichen Arbeitens in der Informatik vertraut zu machen. Das ist für meine Bachelorarbeit natürlich nützlich und auch weitgehend unabhängig vom jeweils behandelten Thema. Ich hoffe, dass die kontinuierliche Betreuung durch EINEN Professor mir helfen wird, Rückmeldungen und Erfahrungen aus der Projektarbeit für meinen letzten Schritt zu nutzen.   Meine Klausur im Modul "Multimedia" hatte ich erst für Samstag, den 10.03.2018 angemeldet. Zwischen 8:30 und 10:30 Uhr war ich fällig. Der eigentliche Präsenztag ging dann nach einer kurzen Kaffeepause um 10:45 Uhr los.   10:45 Uhr - Aktuelles für Studierende   Frau Kreissig berichtete über neue Entwicklungen und Themen aus dem Studium. Zeitgleich lief nebenan eine Infoveranstaltung über die Studiengänge Web- und Medieninformatik, Wirtschaftsinformatik, Biologie, Chemie und Elektrotechnik. Wie üblich stellte Frau Kreissig zunächst das Team von Springer Campus vor. Anschließend ging es um die Ergebnisse der Umfrage. 160 Studierende wurden befragt. Es gab 36 Rückläufer. Ich gebe nur einige wenige für mich markante Ergebnisse wieder.   Als Studienmotivation wurde natürlich die Erlangung des Bachelors besonders häufig genannt. Aber noch häufiger wurde ein Interesse an persönlicher Weiterentwicklung angegeben. Vielleicht unterscheidet sich ja die Studienmotivation von Fernstudierenden, die in der Regel schon eine berufliche Qualifikation haben, an diesem Punkt von Präsenzstudierenden, für die es meist darum geht, einen ersten berufsqualifizierenden Abschluss zu erlangen.   Von den Studierenden geschätzt wurde besonders die organisatorische Betreuung durch das Studienbüro, die festen Ansprechpartner und die inhaltliche Begleitung durch die Tutoren der Module. Auch die hohe Flexibilität im Studiengang wurde postiv bewertet.   Kritik gab es an der mangelnden Aktualität einzelner Module. Bei bestimmten Modulen gab es auch den Wunsch nach einem höheren Praxisbezug. Hier sollte man vielleicht im Hinterkopf haben, dass die meisten unserer Studierenden einschlägig beschäftigt sind und somit Theorie im Studium und Praxis im Beruf nebeneinander erleben. Dies ermöglicht womöglich Vergleiche, die typische Studienanfänger an Präsenzhochschulen so nicht ziehen können.   Nach einem kurzen Überblick über die Prüfungstermine bis zum nächsten Präsenztag im Sepember 2018 stelle Frau Kreissig neue Dozenten vor. Prof. Dr. Barghorn von der Jade-Hochschule (Wilhelmshaven, Oldenburg, Elsfleth) wird künftig Web-Design betreuen. Dr. habil. Andrea Hermann betreut Softwaretechnik 1 und 2. Prof. Dr. Uwe Schmitz übernimmt Strategisches Management & Controlling. Dieses Modul kann somit  wieder belegt werden. Dr. Hartwig übernimmt Softwaremanagement 1 und 2 sowie Selbst- und Zeitmanagement. Andrea Hermann betreut außerdem als Tutorin Wissenschaftliches Arbeiten.   Die Vorbereitungen für die Reakkreditierung der Studiengänge Web- und Medieninformatik sowie Wirtschaftsinformatik laufen. In diesem Zusammenhang dürfen die Studierenden damit rechnen, weitere Fragebogen zu erhalten.   Studierende wenden sich besonders häufig mit Fragen zum wissenschaftlichen Arbeiten an das Studienbüro. Aus gutem Grund ist das Modul Wissenschaftliches Arbeiten inzwischen ein Pflichtmodul. Das Studienbüro unterstützt bei der Suche nach Betreuern für die Projekt- und Bachelorarbeit. (Aus eigener Erfahrung kann ich sagen, dass diese Vermittlung sehr hilfreich ist. Präsenzstudierende kennen die Professoren aus den Lehrveranstaltungen und haben deshalb vielleicht schon eine Idee, wer sie bei einem bestimmten Thema gut betreuen könnte. Als Fernstudent profitiert man davon, dass die Mitarbeiter des Studienbüros eine Lotsenfunktion übernehmen, denn sie kennen die Professoren vor Ort.)   Wer gerne eine Projektarbeit oder seine Bachelorarbeit auf dem Präsenztag präsentieren möchte, ist eingeladen, sich an das Studienbüro zu wenden. (In diesem Zusammenhang erinnere ich mich gerne an die Präsentation einer Bachelorarbeit auf dem letzten Präsenztag, aus der ich für mich viel mitgenommen habe. Ich finde es ungemein nützlich, etwas über die Erfahrungen von Studierenden zu lernen, die einen Schritt weiter sind als man selbst.)   Gesellschaftliches Engagement im Fernstudium   Ein besonderer inhaltlicher Schwerpunkt an diesem Präsenztag war das Thema "Gesellschaftliches Engagement". Laut Frau Kreissig kommt dieses Thema in Fernstudiengängen oft zu kurz. Präsenzunis bieten ihren Studierenden viele Möglichkeiten, sich außerhalb ihres eigenen Studienganges zu engagieren. Neben Veranstaltungen des Studium generale, die den engen Horizont des eigenen Studienfachs erweitern und ergänzen sollen, gibt es vielfältige Möglichkeiten, sich in der studentischen Selbstverwaltung und in studentischen Gruppen zu engagieren. Dies trägt einerseits dazu bei, das eigene Qualifikationsprofil um soziale, organisatorische und kommunikative Kompetenzen zu ergänzen. Aber unabhängig von diesem qualifizierenden Aspekt ist gesellschaftliches Engagement per se wünschenswert, auch für Fernstudierende. Frau Kreissig stellte als Beispiel einige Projekte und Initiativen vor, die der Springer Verlag unterstützt. Diese sind zum Teil regional (z.B. am Standort Heidelberg), zum Teil international. Wer sich dafür interessiert, findet nähere Informationen auf der Springer Homepage. Darum überspringe ich diesen Teil hier.   Interessanter und für mich als Fernstudierenden konkreter fand ich die Frage, was für Möglichkeiten Fernstudierende selbst haben, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ein bisschen skeptisch war ich schon, denn viel zeitlichen Spielraum sehe ich durch die Doppelbelastung von Beruf und Studium eigentlich nicht mehr. Frau Kreissig hat jedoch einige Möglichkeiten vorgestellt, die z.T. sogar einen gewissen Bezug zur Lebenssituation Studium haben. Ein paar möchte ich hier wiedergeben:   Projekt- und Bachelorarbeit: Man könnte seine Projekt- oder Bachelorarbeit nicht in einem Unternehmen sondern in einer Non-Profit-Einrichtung oder einem sozial oder gesellschaftlich relevanten Bereich machen. (Hier fühle ich mich an den Studiengang Sozialinformatik der Hochschule Fulda erinnert, für den ich mich ja ursprünglich einmal interessiert hatte. Dort gehört zum Curriculum ein Softwareprojekt im sozialen Bereich. Die Idee finde ich zumindest nachdenkenswert, denn eine Projekt- und Bachelorarbeit muss man ja ohnehin schreiben.) Citizen Science: Viele wissenschaftliche Disziplinen profitieren von der ehrenamtlichen Mitwirkung von Laien. Ein Beispiel ist die Astronomie. Nach einer kurzen Online-Schulung können interessierte Laien etwa helfen, Hubble-Aufnahmen zu kategorisieren, die bislang noch nicht von Algorithmen ausgewertet werden können. (Auch in der Biologie ist man - etwa für Zwecke des Artenschutzes - stark auf ehrenamtliche Naturbeobachter angewiesen.) Interessant finde ich hier den Wissenschaftsbezug des Engagements. Social Hackathons: Hier treffen sich ehrenamtliche Programmierer, um in einem begrenzten Zeitrahmen für ein soziales Projekt eine digitale Lösung zu programmieren, etwa eine Web-Anwendung oder eine Homepage. Das hat einen klaren Bezug zum Informatik-Studium und ist eventuell sogar eine Empfehlung für künftige Arbeitgeber.   Neben diesen Möglichkeiten mit Studienbezug stellte Frau Kreissig auch einige eher allgemeine Möglichkeiten vor, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ich möchte hier nur eine Möglichkeit wiedergeben, die wenig Zeit erfordert und potentiell lebensrettend sein kann. Wer alle zwei Jahre eine achtstündige Weiterbildung in Erster Hilfe besucht, kann sich am eigenen Arbeitsplatz als Ersthelfer zur Verfügung stellen. Unternehmen müssen ohnehin Ersthelfer ausbilden und benennen. Weil Mitarbeiter nicht nur am Arbeitsplatz sondern auch in öffentlichen und privaten Räumen unterwegs sind, profitieren indirekt auch Familien und die Gesellschaft davon, dass Menschen mit Kenntnissen in Erster Hilfe in der Nähe sind.   Den Abschluss des Vortrags bildete eine Verlosung eines Buches über KI.   Soviel zum Abschnitt "Aktuelles für Studierende". In einem meiner nächsten Beiträge möchte ich über den Vortrag "Big Data" von Prof. Dr. Uwe Schmitz berichten. Er betreut im Fernstudiengang das Modul "Strategisches Management & Controlling".

kurtchen

kurtchen

 

Modulbericht: Multimedia

Einbettung in den Studiengang   Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt.   Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden.   Das Lehrbuch   Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste.   Multimedia wird im Buch aus drei Blickwinkeln betrachtet: Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind.   Kapitel: Bild   Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen.   Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert.   Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht.   Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht.   Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können.   Kapitel: Audio   Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht.   Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können.   Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden.   Kapitel: Video   Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton.   Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen.   Kapitel: 2D-Animation mit Flash   Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten.   Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann.   Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden.   Kapitel: 3D-Animation mit VRML   Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte. Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein.   Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt. Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt.   Kapitel: Einsatz dynamischer Medien   Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind.   Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel.   Die Einsendeaufgaben   Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen.   Die Präsenzklausur   Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben..   Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt.   Fazit   Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden.  Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen.   Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.

kurtchen

kurtchen

 

Modulbericht: Software-Management 1

Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager".   Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde.   Lehrbuch   Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge.   Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben.   Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt.   Inhalte & Themen   Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab.   Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat.   Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2".   Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden.   Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt.   Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen: sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten   Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren.   Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen.   Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt.   Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie.   Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl.   Klausur   In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht.   Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben.   Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK.   Fazit   "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen.   Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.

kurtchen

kurtchen

 

Modulbericht: Softwaretesten

Zur Rolle des Moduls im Studium   Das Modul "Software-Testen" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es wird dort dem Studienbereich "Softwaretechnik" zugerechnet. Formal darf das Modul jederzeit belegt werden, aber als fachliche Grundlage werden viele andere Module empfohlen:  Grundlagen der Informatik 1 Grundlagen der Informatik 2 Grundlagen der Informatik 3 Softwaretechnik 1 Softwaremanagement 1   Diese Empfehlung finde ich im Großen und Ganzen plausibel, auch wenn ich selbst das Modul "Softwaremanagement" nocht nicht belegt hatte. Aufgrund der vielfältigen Voraussetzungen wundert es nicht, dass die Belegung erst für das 5. Fachsemester empfohlen wird. Es ist also eines der letzten Pflichtmodule.   Für den Studiengang "Wirtschaftsinformatik" ist das Modul nicht vorgesehen, nicht einmal im Wahlpflichtbereich. Es ist aber ein Baustein des Hochschulzertifikates "Software-Manager".   Das Lehrbuch   Das Buch "Basiswissen Testen von Software" von Torsten Cleff hat knapp 300 Seiten. Der Umfang ist für ein Modul bei Springer Campus also unterdurchschnittlich. Ziel des Lehrbuches ist, Grundwissen zu Testtechniken aber auch zu Prüftechniken zu vermitteln, so dass Fehler möglichst früh entdeckt und behoben werden. Die Erfahrung zeigt, dass die Kosten für die Behebung von Fehlern umso niedriger ausfallen, je früher ein Fehler entdeckt wird. Gemeint sind hier nicht nur Fehler im Quellcode, an die ich zu Beginn des Moduls als erstes gedacht habe. Fehler können auf allen Ebenen der Software-Entwicklung passieren, z.B. auch beim Erfassen von Anforderungen, bei der objektorientierten Analyse oder beim Entwurf, also bevor auch nur die erste Zeile Code geschrieben ist.   Grundlagen   Im ersten Teil des Buches werden vor allem Begriffe geklärt. Interessant war für mich z.B. die Unterscheidung von Teststufen, die jeweils mit Entwicklungsstufen eines Softwaresystems korrespondieren. Zu den vertraglichen Anforderungen an ein Software-Produkt gehört ein Abnahmetest, zur Produktdefinition ein Systemtest, zum Produktentwurf ein Integrationstest und zum Komponentenentwurf ein Komponententest.   Nun ist klar, dass der Komponententest der erste Test ist, den man machen kann, wenn Quellcode vorliegt. Erst kann man die Integration von Komponenten testen und so fort. Die Teststufen folgen also in entgegensetzter Reihenfolge wie die Entwicklungsstufen. Visualisiert man diesen Ablauf, steigt man vom Anforderungsdokument Stufe um Stufe hinab bis zur Implementierung und arbeitet sich dann mit den Tests Stufe im Stufe wieder hinauf bis zu den Anforderungen. Der visualisierte Ablauf hat die Form des Buchstabens V, weshalb man auch vom V-Modell spricht.   Interessant sind auch die verschiedenen Integrationsstrategien. Bei der Bottom-up Integration, baut und testet man zunächst Komponenten, die keine Dienste untergeordneter Komponenten in Anspruch nehmen. Dann baut und testet man die Komponenten, die auf diesen aufsetzen. So arbeitet man sich Stufe für Stufe nach oben. Ein Vorteil dieser Strategie ist, dass man keine Platzhalter programmieren muss. Der Nachteil ist, dass man das Zusammenspiel der Komponenten im Großen erst spät testen kann. Darum gibt es auch eine Top-down Integrationsstrategie. Hier werden möglichst bald Komponenten höherer Ordnung getestet. Da diese untergeordnete Komponenten brauchen, die noch nicht vorliegen, muss man viele Platzhalter programmieren. Dafür bekommt man früh einen Eindruck des Gesamtsystems aus Benutzersicht.   Interessant waren auch die verschiedenen nicht-funktionalen Testverfahren. So werden z.B. bei einem Stresstest die definierten Leistungsgrenzen eines Systems bewusst überschritten, etwa um zu testen, ob das System nach einer Überlastung wieder in den Normalzustand zurückkehren kann.   Testfälle entwickeln   Diesen Kursabschnitt betrachte ich als den inhaltlichen Kern des Moduls. Der größte Anteil der Einsendeaufgaben aber auch der Aufgaben in der Online- und Präsenzklausur bezieht sich hierauf.   Black-Box-Tests   Zunächst geht es um spezifikationsorientierte Testtechniken. Komponenten sollen zu bestimmten Kombinationen von Eingabewerten eine Ausgabe entsprechend der Spezifikation liefern. Diese Tests werden auch als Black-Box-Tests bezeichnet, weil hier nicht interessiert, wie eine Komponente intern arbeitet. Es geht allein darum, ob sie zu gegebenen Eingaben die erwarteten Ausgaben liefert.   Die erste derartige Testtechnik ist die funktionale Äquivalenzklassenbildung. Hier fasst man gleichwertige Eingabewerte zu einer Klasse zusammen, aus der man einen Repräsentanten auswählt. Getestet wird nur mit dem Repräsentanten, was den Testaufwand beträchtlich reduziert. Da die Erfahrung zeigt, dass Fehler vor allem an Klassen- und Intervallgrenzen auftreten, gibt es die Grenzwertanalyse. Hier wählt man als Repräsentanten Werte an den Grenzen eines Intervalls. Bei beiden Testtechniken ist wichtig, dass man gültige und ungültige Repräsentanten testet. Ungültige Repräsentanten sollten dann z.B. dazu führen, dass eine Exception geworfen wird.   Der Entscheidungstabellentest eignet sich, wenn eine natürlich-sprachliche Testbasis vorliegt. Er ermöglicht, die verschiedenen Kombinationen von Eingangsbedingungen übersichtlich darzustellen. Oft ist es dann möglich, Fälle zusammen zu fassen und die Tabelle auf diese Weise stark zu vereinfachen. Auch dies kann den Testaufwand erheblich reduzieren.   Bei der Ursache-Wirkungsanalyse visualisiert man die Beziehungen zwischen Ursachen und Wirkungen als Graph, dessen Kanten logische Verknüpfungen sind. Solche Graphen lassen sich in Entscheidungstabellen überführen.   Beim zustandsbezogenen Test modelliert man ein System als Zustandsautomaten. So kann man die Historie des Systems in den Test einbeziehen. Das Zustandsdiagramm lässt sich in eine Zustandstabelle und in eine Zustandsmatrix überführen. Daraus lassen sich wiederum Testfälle ableiten. Interessant ist diese Testart z.B. für Systeme aus der Automatisierungstechnik.   Auf höheren Teststufen gibt es den anwendungsfallbasierten Test. Ein konkreter Anwendungsfall wird als Use-Case-Diagramm modelliert. Auch hieraus lassen sich Testfälle ableiten.   White-Box-Tests   Während bei den spezifikationsorientierten Testtechniken nicht relevant ist, wie eine Komponente ihre Leistung erbringt (Black-Box-Test), muss man für die kontrollfluss-orientierten Testtechniken den Quellcode eines Programmes kennen. Darum werden diese auch als White-Box-Tests bezeichnet. Bei diesen Testtechniken visualisiert man den Kontrollfluss durch den Quelltext als Graph.   Beim Anweisungsüberdeckungstest möchte man durch geschickte Auswahl möglichst weniger Testfälle sicherstellen, dass alle Anweisungen des Quellcodes ausgeführt werden. Beim Zweigüberdeckungstest sollen die Testfälle nicht nur alle Anweisungen (Knoten) des Graphen abdecken. Auch alle Zweige (Kanten) sollen mindestens ein Mal durchlaufen werden. Dieser Test ist also umfassender als der Anweisungsüberdeckungstest. Noch weiter geht der Bedingungsüberdeckungstest. Er beschäftigt sich mit der Kombination von Bedingungen, die erfüllt sein müssen, damit ein Zweig durchlaufen werden kann. Diese lassen sich z.B. wie eine Digitalschaltung visualisieren. Beim Pfadüberdeckungstest müssen nicht nur alle Kanten durchlaufen werden, sondern jeder mögliche Pfad vom Startpunkt bis zum Endpunkt eines Programmes. Die Zahl möglicher Pfade wächst oft sehr schnell. Entsprechend wächst auch die Zahl nötiger Testfälle.   Erfahrungsbasiertes Testen   Freies Testen ist ein erfahrungsbasiertes Verfahren. Die Testfälle basieren auf Testhypothesen eines erfahrenden Testers. Da hier die Intuition eine große Rolle spielt, sind solche Verfahren schlecht formalisierbar und nicht leicht in den Entwicklungsprozess zu integrieren. Sie werden daher meist nur ergänzend eingesetzt.   Fehlerhypothesen lassen sich methodischer ableiten, wenn man auf der Grundlage bisher entdeckter Fehler Fehlerklassen bildet. Das sind Gruppierungen typischer Schwachstellen, die in vergangenen Tests an ähnlichen Systemen aufgefallen sind. Ein Beispiel für so eine Fehlerklasse wären etwa Fehler bei Klassen oder Datentypen. Konkrete Ausprägungen dieser Fehlerklasse wären dann z.B. Fehler bei Mehrfachvererbung, Typtransformationen oder fehlerhafte Deklarationen von Attributen oder Methoden.    Exploratives Testen ergänzt das erfahrungsbasierte Testen um ein Element der Analyse und Reflexion. Die dadurch gewonnenen Einsichten werden für die Entwicklung der nächsten Fehlerhypothesen genutzt. Auch dies ist ein Versuch, erfahrungsbasiertes Testen methodischer zu machen.   Testen vs. prüfen   Ein weiterer thematischer Schwerpunkt des Moduls sind Prüftechniken. Während bei Tests vorausgesetzt ist, dass man ein Testobjekt ausführen kann, wird bei einer Prüfung ein Artefakt der Softwareentwicklung nicht ausgeführt sondern inhaltlich nach formalen Kriterien kontrolliert. Dies hat verschiedene Vorteile: Nicht nur Quellcode kann geprüft werden, sondern auch Spezifikationen, Modelle, Dokumentationen oder andere Artefakte des Entwicklungsprozesses. Man benötigt keine Testumgebung, Testdaten oder Testtreiber Testen kann man erst, wenn Code vorliegt. Prüfen kann man dagegen in jeder Phase.   Entscheidend ist, dass man durch Prüfverfahren Fehler viel früher entdecken kann als durch Tests. Dadurch lassen sich Kosten vermeiden. Allerdings lassen sich durch Prüfungen nicht alle Arten von Fehlern entdecken. Zum Beispiel lassen sich Leistungskennzahlen auf diesem Weg nicht ermitteln, denn dazu müsste Code ausgeführt werden. Im Kurs behandelte manuelle Prüftechniken sind die Inspektion, das technische Review, der Walkthrough und das informelle Review.   Softwaremaße   Es gibt aber auch automatisierte Prüftechniken. So lassen sich z.B. mit geeigneten Werkzeugen sogenannte Softwaremaße bestimmen. Ein gängiges Maß ist sind zum Beispiel die Lines of Code (LOC), mit denen der Umfang eines Quellcodes angegeben wird. Dieses Maß ist nicht so selbstverständlich, wie es auf den ersten Blick scheint. LOCs können stark schwanken, je nachdem welche Formatierungskonventionen angewendet wurden. Dennoch werden LOCs häufig für grobe Umfangsschätzungen verwendet.   Ein genaueres Umfangsmaß ist das Halstead-Maß. Dazu muss man zunächst alle Operanden und Operatoren eines Quellcodes auszählen. Die Anzahl unterschiedlicher Operatoren bezeichnet man mit N1, die der unterschiedlichen Operanden als N2. Operatoren sind z.B. Schlüsselwörter einer Programiersprache, Klammern aber auch Modifier, die die Sichtbarkeit einer Variable festlegen. Operanden sind z.B. Variablen oder auch boolesche Werte wie true oder false. Halstead bezeichnet nun die Summe N1+N2 als Vokabular eines Programmes. Als Volumen bezeichnet er die Summe N1+N2+log(N1+N2). Man kann sich vorstellen, dass das manuelle Auszählen von Operatoren und Operanden für Menschen eine mühselige Arbeit ist. So etwas kann automatisch von Werkzeugen erledigt werden, weshalb man in diesem Zusammenhang von automatisierten Prüftechniken spricht.   Das McCabe Maß wird auch als zyklomatische Komplexität beschrieben. Um das McCabe-Maß berechnen zu können, muss man die Knoten und Kanten eines Kontrollflussgraphen auszählen und die Anzahl verbundener Kontrollflussgraphen bestimmen. McCabe liefert die maximale Zahl linear unabhängiger Programmpfade. Damit kann man abschätzen, wieviele Testfälle man für einen Zweigüberdeckungstest braucht.   Es gibt auch Maße für Bindung und Kopplung von Komponenten.   Problemmuster   Problemmuster sind Anomalien im Quelltext, die erfahrungsgemäß die technische Qualität eines Programms senken. Sie lassen sich durch geeignete Werkzeuge aufspüren, damit sie überarbeitet werden können. Ein bekanntes Beispiel ist die Codedopplung. Wenn an verschiedenen Stellen des Programmes identischer Quellcode steht, muss man bei Änderungen alle entsprechenden Stellen finden. So etwas wird von einem Wartungsprogrammierer leicht übersehen. Meist ist es dann besser, solchen Code in einer eigene Komponente oder Methode zusammenzufassen. Das vermeidet Probleme bei künftiger Wartung. Im Kurs werden viele weitere Problemmuster vorgestellt, etwa mangelnder Polymorphismus, die Verletzung des Geheimnisprinzips, die Verwendung einfacher Typen, die zu Datenklumpen führt oder auch problematisch zusammengesetzte Datentypen.   In den letzten Kapiteln geht es um das Management von Softwaretests sowie die Automatisierung von Tests. In diesem Zusammenhang werden auch ein paar Testwerkzeuge knapp vorgestellt.   Online-Tests und Einsende-Aufgaben   Die Tests decken die Inhalte des Moduls gut ab. Die Einsendeaufgaben konzentrieren sich vor allem auf die Kapitel zur Entwicklung von Testfällen. Aber auch das Entdecken von Problemmustern in Quellcode und die Bestimmung von Softwaremaßen spielt eine Rolle. Man vereinfacht Entscheidungstabellen, zeichnet Kontrollflussgraphen zum Quelltext, verbessert Anomalien in Quellcode, visualisiert komplexe Bedingungen als Digitalschaltung, zeichnet Zustandsautomaten, findet Testklassen, Repräsentanten und Testfälle. Die Aufgaben sind also recht vielfältig. Bei einigen Aufgabentypen hätte ein wenig mehr Übungsmaterial nicht geschadet. Die Aufgaben sind aber didaktisch geschickt gewählt, so dass sie zum Verständnis der vermittelten Konzepte beitragen. Insbesondere geben die Aufgaben einen guten Vorgeschmack auf das, was einen in der Online- und in der Präsenzklausur erwartet.   Die Rückmeldungen meines Tutors kamen auch in diesem Modul sehr zügig. Sein Stil war manchmal etwas knapp, so dass ich gelegentlich noch einmal nachfragen musste. Das hat sich aber dann auch gelohnt und kleinere Unsicherheiten behoben. Ich hatte übrigens den gleichen Tutor wie im Modul "Grundlagen der Informatik 2" zu Beginn meines Studiums. Bei ihm habe ich objektorientiertes Programmieren gelernt. Ich habe mich sehr gefreut, gegen Ende meines Studiums noch einmal von ihm betreut zu werden.   Präsenzklausur   Die Aufgabentypen der Klausur ähnelten den Einsendeaufgaben, so dass man eigentlich gut vorbereitet sein sollte, wenn man alle Aufgaben bearbeitet und die Rückmeldungen seines Tutors genutzt hat. Wissensfragen zu den Prüftechniken spielten auch eine gewisse Rolle. Ich empfand das Arbeitspensum als angemessen für die Dauer der Klausur.   Bei den Aufgaben zur Äquivalenzklassenbildung und Grenzwertanalyse wollte man den Studierenden anscheinend etwas Zeit ersparen, indem man Tabellen zur Verfügung gestellt hat, in die man z.B. Testfälle eintragen konnte. Das Layout dieser Tabellen war für mich allerdings ungewohnt und überraschend. Ich selber hätte meine Tabellen anders aufgebaut, so dass ich gelegentlich Lösungen in falsche Felder eingetragen habe, was ich dann wieder korrigieren musste. Das hat Zeit und Nerven gekostet. Nach der Klausur sprach ich mit einem Kommilitonen, dem es ähnlich ergangen war wie mir. Der hatte die zur Verfügung gestellten Tabellen gar nicht erst genutzt sondern sich lieber selbst welche gezeichnet. Diese Freiheit hätte ich mir auch nehmen sollen. Die dafür nötige Zeit hätte ich bestimmt mit Zinsen zurück bekommen. Wegen dieser Schwierigkeiten rechnete ich damit, ein paar Flüchtigkeitsfehler gemacht zu haben.   Diese Sorge war anscheinend unbegründet. Das Klausurergebnis war erfreulich und spiegelte auch meinen subjektiven Eindruck wieder, den Stoff des Moduls im wesentlichen verstanden zu haben.   Fazit   Grundsätzlich finde ich es sehr sinnvoll, dass das Curriculum ein eigenes Modul zum Thema Testen enthält. Gut gefallen haben mir vor allem die Kapitel zur Entwicklung von Testfällen, weil ich hier die Einsendeaufgaben didaktisch klug gewählt und auch interessant und abwechslungsreich fand. Auch das Thema Problemmuster war für mich spannend. Es hat Spaß gemacht, in fremdem Quellcode nach problematischen Stellen zu suchen und sich bessere Lösungen zu überlegen. Weniger interessant waren für mich die Kapitel zu Prüftechniken und zum Management von Testfällen. Diese empfand ich als theoretischer und trockener, was sich bei diesem Stoff wohl auch nicht vermeiden lässt. Wegen dieser für mich etwas zäheren Abschnitte zählt Softwaretesten zwar nicht zu meinen Favoriten im Studienbereich Softwaretechnik, aber ich ziehe hier ein positives Fazit.

kurtchen

kurtchen

 

Stand des Studiums

5. Semester - Wintersemester 2018 - Geschäftsprozessmanagement - BWL2 - Wissenschaftliches Arbeiten - Software-Management - Software testen - Aktuelle Webtechniken   4. Semester - Sommersemester 2017 - Web-Anwendungen 2 - Web-Engineering - Softwaretechnik 2 - Softwaretechnik 3 - Content Management Systeme (CMS) - Data-Mining - XML - BWL1   3. Semester - Wintersemester 2016/2017 - Mathematik 3 - Softwaretechnik 1 - Nicht-sequentielle Programmierung - Statistik - IT-Sicherheit - Mobile Computing   2. Semester - Sommersemester 2016 - Grundlagen der Informatik 3 - Grundlagen der Informatik 4 - Web-Anwendungen 1 - Web-Ergonomie und Web-Design - Computernetze - Mathematik 2   1. Semester - Wintersemester 2015/2016 - Grundlagen der Informatik 1 - Grundlagen der Informatik 2 - Rechnerstrukturen und Betriebssysteme - Datenbanken und SQL - Mathematik 1 - Web-Programmierung   Zusätzlich belegte Module an anderen FHs - theoretische Informatik (WINGS Wismar) - Programmieren in C++ (Virtuelle Hochschule Bayern)   Noch fehlende Pflichtmodule: - Multimedia - IT-Recht - Projektarbeit - Bachelorarbeit

kurtchen

kurtchen

 

Modulbericht: Wissenschaftliches Arbeiten

Das Modul "Wissenschaftliches Arbeiten" gehört zum Studienbereich "Basiskompetenz Beruf", in dem man verschiedene "Soft Skill" Module belegen kann. Die anderen Module dieses Bereichs sind "Soziale Kompetenz", "Selbst- und Zeitmanagement", "Rhetorik", "Präsentieren" und "Kreativitätstechniken". "Wissenschaftliches Arbeiten" nimmt unter diesen Modulen eine besondere Stellung ein. Es kann als einziges auch als Wahlpflichtmodul belegt werden. Wer also zu Beginn seines Studiums lieber "Rhetorik" belegen möchte, kann "Wissenschaftliches Arbeiten" noch kurz vor der Projekt- und Bachelorarbeit nachholen. Wichtiger ist allerdings, dass dieses Modul auf die Anfertigung der Bachelorarbeit vorbereitet.   Früher war die Belegung freiwillig aber dringend empfohlen. Soweit ich informiert bin, ist das Modul inzwischen Pflicht für neu eingeschriebene Studenten, weil es in Einzelfällen Probleme bei der Anfertigung der Bachelorarbeiten gab. Das ist fatal, weil bei einer nicht bestandenen Bachelorarbeit ja schon die komplette Studienzeit investiert wurde. Auch eine schlechte Note ist hier besonders ärgerlich. Zum einen, weil die Bachelorarbeit stärker in die Endnote eingeht als andere Module, zum anderen, weil die Bachelorarbeit als eigenständige Leistung in einem (oft) selbstgewählten Themengebiet auch in der Außenwahrnehmung durch Arbeitgeber eine höhere Bedeutung hat als andere Module. Anscheinend hat sich an der FH Dortmund gezeigt, dass Studierende, die eine Einführung ins wissenschaftliche Arbeiten belegt haben, die formalen Anforderungen einer Bachelorarbeit besser bewältigen. Und das ist ja auch nicht überraschend. Die Methoden wissenschaftlichen Arbeitens kann und muss man lernen.   Lehrbuch und Themen   Professor Balzert ist einer der Autoren des Lehrbuches "Wissenschaftliches Arbeiten". Ich meine, den Stil und den sauberen Aufbau seiner Lehrbücher zur Softwaretechnik auch in diesem Buch wiederzuerkennen. Weitere Autoren sind Marion Schröder und Christian Schäfer. Frau Schröder kennen manche Studierende auch als Autorin des Lehrbuches "Heureka, ich hab's gefunden! Kreativitätstechniken, Problemlösung & Ideenfindung".   Der reine Textteil hat über 400 Seiten. Ich kenne andere Einführungen ins wissenschaftliche Arbeiten und finde diese klar formuliert und gründlich. Wie schon in anderen Büchern von Herrn Balzert, klärt er zu Beginn wichtige Begriffe. Insbesondere behandelt er Qualitätskriterien wissenschaftlichen Arbeitens: Ehrlichkeit, Objektivität, Überprüfbarkeit, Reliabilität, Validität, Verständlichkeit, Relevanz, Logische Argumentation, Orginalität, Nachvollziehbarkeit, Fairness und Verantwortung. Diese Begriffe werden analysiert und durch konkrete Beispiele lebendig und verständlich gemacht. Diese Kapitel haben mir besonders gefallen. Eine so trennscharfe Analyse der Begriffe kenne ich eher aus geisteswissenschaftlichen Texten. Allein deswegen hat mir dieses Modul viel Freude gemacht.   Im weitern Verlauf geht es dann um Techniken und Konventionen wissenschaftlichen Arbeitens. Zunächst geht es um den inhaltlichen Aufbau verschiedener Arten von wissenschaftlichen Arbeiten. Eine empirische Arbeit hat zwar im Prinzip einen ähnlichen Aufbau wie eine konstruktive Arbeit, aber Umfang und Gewichtung der verschiedenen Abschnitte unterscheiden sich deutlich. Darum ist es wichtig, sich darüber klar zu werden, was für eine Art wissenschaftlicher Arbeit man schreiben möchte. Unterschieden werden hier: Literaturarbeit empirische Arbeit konstruktive Arbeit theoretische Arbeit   Insbesondere die konstruktive Arbeit ist für Informatiker relevant. Hier geht es darum, durch systematisches Vorgehen ein technisches Erzeugnis zu erstellen, also z.B. ein Software-System. Die Projektarbeit im Studiengang Web- und Medieninformatik ist eine konstruktive Arbeit. Soweit ich informiert bin, kann die Bachelorarbeit auch einen anderen Charakter haben.   In verschiedenen Studienabschnitten sind unterschiedliche Arten wissenschaftlicher Arbeiten zu erstellen. Es ist ein Unterschied, ob man eine Hausarbeit, eine Bachelorarbeit, eine Masterarbeit, einen wissenschaftlichen Artikel oder eine Dissertation schreibt. Mich haben natürlich zunächst einmal die Anforderungen an eine Bachelorarbeit interessiert, aber es ist schon interessant zu wissen, auf welche Höhen das Niveau noch steigen kann. Ich habe zwar momentan keine konkreten Pläne für einen Master, aber das könnte ja irgendwann noch einmal Thema werden.   Schließlich geht es um den formalen Aufbau wissenschaftlicher Arbeiten, also um Dinge wie Satzspiegel, Textgestaltung, Seitennummerierung, Fußnoten, Anhänge und insbesondere Verzeichnisse. Hier erhält man viele wertvolle Tipps, wie man sich eine geeignete Dokumentenvorlage erstellt, um dann auch zügig arbeiten zu können. Im Modul sind Dokumentvorlagen für Word, LibreOffice und LaTEX enthalten, die man sich herunterladen kann. Ich habe ein wenig mit der LaTEX-Vorlage experimentiert. Leider hätte ich hier noch einige Anpassungen an die deutsche Sprache vornehmen müssen, weil insbesondere das Erstellen von Verzeichnissen noch unbefriedigend funktionierte. Für meinen mündlichen Vortrag habe ich aus Zeitdruck mit der LibreOffice-Vorlage gearbeitet, die ich für meine Zwecke etwas angepasst habe.   Das Thema Formatierung ist nicht aufregend, aber für solche formalen Dinge kann später viel Zeit draufgehen. Die kann sich sparen, wenn man sich vorher die Mühe macht, eine gescheite Vorlage zu bauen. Literaturverzeichnissysteme können einem die Arbeit erleichtern, erfordern aber natürlich auch eine gewisse Einarbeitung. Darum ist es gut, sich schon vor Anmeldung einer Bachelorarbeit mit so etwas zu beschäftigen. LaTEX möchte ich mir noch einmal genauer anschauen. Ich habe den Eindruck, dass man damit viel Zeit sparen kann, wenn man die anfänglichen Hürden nimmt.   Eine wichtige Rolle nimmt im Modul natürlich das korrekte Zitieren von Quellen ein. Hier geht es zunächst einmal darum, zu verstehen, was für Quellen zitierfähig und zitierwürdig sind. Dann geht es darum, sich in Absprache mit der Hochschule bzw. dem Betreuer für eine der verschiedenen Zitierweisen zu entscheiden und diese auch konsequent durchzuhalten. Dabei hilft wieder eine gute Dokumentenvorlage. Unterschiedliche Arten von Veröffentlichungen müssen im Literaturverzeichnis auch unterschiedlich behandelt werden. Insbesondere Quellen aus dem Internet sind nicht einfach zu referenzieren, weil eine Quelle unter einem Link nicht unbedingt dauerhaft zu finden ist. Es gibt verschiedene Möglichkeiten, damit umzugehen, die im Modul thematisiert werden.   Es folgt ein Kapitel über wissenschaftlichen Schreibstil, verständliches Schreiben und die Visualisierung von Inhalten.   Ein weiteres Kapitel behandelt unterschiedliche Forschungsmethoden mit ihren Stärken und Schwächen. Unterschieden werden hier: schriftliche Befragung Fragebögen und Interview-Leitfäden Experiment Interview Gruppendiskussion Beobachtung Inhaltsanalyse   Je nach Gegenstand und Forschungsschwerpunkt sind unterschiedliche Methoden angemessen. Auch dieses Kapitel hat eine erkenntnistheoretische Komponente. Ein wichtiger Teil des Kurses beschäftigt sich damit, wie man sich seine Arbeitszeit gut einteilt, um seine Arbeit auch rechtzeitig abschließen zu können. Hier fällt der Begriff Projektmanagement, den ich etwas übertrieben finde, weil für mich dazu gehört, dass zumindest ein kleines Team koordiniert wird. Selbst- und Zeitmanagement hielte ich für die passendere Bezeichnung. Gleichwohl erhält man hier wertvolle Tipps, wie man die Arbeit an einer Bachelorarbeit in überschaubare Teilschritte gliedern und Meilensteine definieren kann. Gezeigt wird auch die Arbeit mit Software-Tools zum Projektmanagement. Ich habe die Arbeit damit ausprobiert, hatte aber den Eindruck, dass hier das Verhältnis zwischen Einarbeitungsaufwand und Nutzen nicht stimmt. Wenn man ein Projekt mit vielen Beteiligten zu managen hat, mag das freilich ganz anders aussehen. In diesem Abschnitt wird auch behandelt, wann und wie oft man sich mit seinem Betreuer austauschen sollte.   Der letzte Kursabschnitt handelt von der Präsenation der Ergebnisse in einem mündlichen Vortrag, denn eine Bachelorarbeit muss ja in den meisten Fällen auch verteidigt werden. Die Inhalte dieses Abschnittes überlappen sich zum Teil mit dem Modul "Präsentieren".   Einsendeaufgaben   Die Einsendeaufgaben sind zahlreich und vielfältig und beziehen sich auf alle Kursteile. Spaß gemacht haben mir zum Beispiel die Aufgaben zur Stilverbesserung. Am besten gefallen haben die Aufgaben zu den Qualitätskriterien wissenschaftlichen Arbeitens, weil sie oft eine kreative Komponente hatten. Die Korrekturen durch meine Tutoren kamen sehr zügig. Gut gefallen hat mir, dass sie Informatikerin ist und das Thema "Wissenschaftliches Arbeiten" aus dieser Perspektive betreut. Auch die Tests waren zahlreich und deckten den Stoff engmaschig ab.   Prüfung   Eine Besonderheit dieses Moduls ist, dass die Klausur nur eine Stunde dauert, dafür aber eine mündliche Prüfung zum Modul gehört. Diese muss ein bisschen früher anmeldet werden als eine Klausurteilnahme, weil der organisatorische Aufwand höher ist. Mündliche Prüfungen finden nur in Dortmund statt, üblicherweise am Freitag Vormittag. Die mündliche Prüfung besteht aus einem Vortrag von 20 Minuten. Anschließend beantwortet man noch Fragen zum Thema. Man reicht drei Themenvorschläge ein: ein allgemeines Informatikthema ein spezielles Informatikthema ein allgemeines Thema (das also nichts mit Informatik zu tun hat)   Ich hätte am liebsten ein Thema aus der Entwicklungspsychologie vorgetragen, aber ausgewählt wurde mein Vorschlag "Grundlegende Merkmale und Muster funktionaler Programmierung". Dieses Thema war auch gut, weil es schon einen gewissen Bezug zu dem hat, was ich in meiner Bachelorarbeit gerne machen würde. Insofern war die mündliche Prüfung auch eine Gelegenheit, sich hier schon mal ein bisschen einzulesen.   Welches Thema ausgewählt wurde, erfährt man übrigens erst zwei Wochen vor dem Prüfungstag. Es geht nun darum, die im Modul gelernten Techniken im kleineren Maßstab anzuwenden. Erwartet wird z.B. die Recherche und Auswahl relevanter Literatur. Die Art des Vortrages ist nicht genau vorgegeben, aber Beamervorträge sind heute üblich. Ein Handout ist nicht zwingend, es kostet aber Punkte, wenn es fehlt. Außerdem ist das Handout eine Möglichkeit, das Verfassen einer schriftlichen Arbeit zu üben und auch Feedback dazu zu erhalten. Darum meine ich, es lohnt sich, hier zumindest etwas in der Art einer Hausarbeit abzuliefern. Zwei Wochen sind durchaus wenig Zeit für eine saubere Arbeitsweise im Sinne der vermittelten Techniken und Qualitätskriterien. Es macht viel Spaß, ein selbst gewähltes Thema zu recherchieren und zu bearbeiten, aber es ist auch viel Arbeit, insbesondere, wenn man eigentlich erst nach seinem Job Zeit hat, sich mit seinem Thema zu befassen. Die mündliche Prüfung erhöht den Bearbeitungsaufwand des Moduls erheblich. Ich vermute, dass das auch für andere Module mit mündlicher Prüfung gilt.   Ein kritischer Punkt bei meinem Vortrag war die Einhaltung der Redezeit, was auch zu Punktabzug geführt hat. Auch beim Punkt Einbeziehung des Publikums habe ich noch einiges zu lernen. Fachlich war es zu meiner Überraschung in Ordnung. Ich war nämlich die ganze Zeit der Ansicht, viel zu wenig Stoff behandelt zu haben, und habe mir den Kopf zerbrochen, wie ich noch mehr Themen in die 20 Minuten quetschen kann. Für das nächste Mal werde ich lernen müssen, stärker Wesentliches vom Unwesentlichen zu trennen.   In den Klausuraufgaben geht es unter anderem um Qualitätskriterien wissenschaftlichen Arbeitens. Es werden etwa Vorgehensweisen, Aussagen oder Schlussfolgerungen präsentiert und man soll dann erklären, warum das keine saubere wissenschaftliche Arbeitsweise ist und was man besser machen müsste. Für die Endnote werden die Punkte aus mündlicher und schriftlicher Prüfung addiert.   Mit meinem Prüfungsergebnis war ich zufrieden, auch wenn die mündliche Prüfung gezeigt hat, dass es noch Punkte gibt, an denen ich arbeiten muss.   Fazit   Ich hätte erwartet, dass dieses Modul zwar nützlich für die Bachelorarbeit aber nicht besonders spannend ist. Zu meiner Überraschung hat die Bearbeitung mir unheimlich viel Spaß gemacht.   Thematisch war es eine echte Abwechslung. Es hat eben nicht nur und nicht mal schwerpunktmäßig mit Informatik zu tun. Tatsächlich ist das Lehrbuch eine allgemeine Einführung ins wissenschaftliche Arbeiten. Die Beispiele stammen darum nicht nur aus der Informatik sondern z.B. auch den Sozialwissenschaften oder ganz anderen Disziplinen. Das Modul ist im Gegensatz zu den meisten anderen Modulen meines fachbezogenen Studiums allgemeinbildend. Was hier vermittelt wird, entwickelt auch die Fähigkeit zu kritischem Denken. Bei den Einsendeaufgaben und auch bei den Themenvorschlägen für die mündliche Prüfung hat man größere Entscheidungsspielräume als bei anderen Aufgaben im Informatik-Studium. Rückblickend betrachte ich das Modul "Wissenschaftliches Arbeiten" als eines der schönsten in meinem Studium.

kurtchen

kurtchen

 

Modulbericht: Aktuelle Webtechniken

Zur Rolle des Moduls "Aktuelle Webtechniken" im Studiengang WMI   Das Modul "Aktuelle Webtechniken" ist ein Wahlpflicht-Modul und richtet sich an Studierende im Studiengang "Web- und Medieninformatik". Es ist außerdem Teil des Hochschulzertifikates "Web-Entwickler". Für Wirtschaftsinformatiker scheint es mir weniger geeignet. Das liegt daran, dass das Modul "Web-Anwendungen 2" als fachliche Grundlage sehr empfehlenswert ist. Dieses ist aber für Wirtschaftsinformatiker nicht Pflicht und müsste daher ebenfalls als Wahlpflichtmodul belegt werden. Als weitere fachliche Grundlage für dieses Modul wird "XML" genannt. Aufgrund der Voraussetzungen wird man "Aktuelle Webtechniken" wohl gegen Ende seines Studiums belegen, also im 5. oder 6. Fachsemester.  Inhaltlich geht es um die Entwicklung von Web-Anwendungen mit dem serverseitigen Framework JavaServer Faces.   Das Lehrbuch   Das Lehrbuch "JavaServer Faces" von Michael Goll und Marcel Urbanek hat einen Umfang von ca. 250 Seiten. Im Vergleich zu anderen Lehrbüchern bei Springer Campus klingt das wenig. Allerdings ist die Schrift kleiner und der Text recht eng gesetzt, so dass bei gleicher Seitenzahl mehr Inhalt drin steckt, als man zunächst vermuten würde. Der Text ist ziemlich dicht geschrieben. Das Tempo, in dem die Inhalte vermittelt werden, ist recht hoch. Möglich ist das, weil die meisten Studierenden ja Vorkenntnisse in JavaServer Pages und XML haben. Ohne diese Grundlage wäre es deutlich schwieriger, dem Text zu folgen. Die Inhalte ähneln denen des Moduls JSP. Allerdings geht es hier um ein aktuelleres serverseitiges Web-Framework auf Grundlage von Java.   Während man in JSP HTML und Java-Code in einer Seite mischt, gibt es in JSF eine saubere Trennung. Funktionalität wird in Bean-Klassen implementiert. Das sind Java-Klassen mit öffentlichen Gettern und Settern für alle Attribute sowie einem parameterlosen Standardkonstruktor. Dies erlaubt dem Framework die Erzeugung und die Befüllung von Objekten dieser Klassen. Weil sie vom Framework gemanaged werden, nennt man sie auch Managed Beans.   Damit das Framework weiß, welche Managed Beans zur Verfügung stehen, muss man sie ihm in einer XML-Datei bekannt machen. Die eigentlichen Seiten werden dann mit Tags des Frameworks aufgebaut. Hier stellt man Bindings zu Methoden oder Attributen der Managed Beans her. Das ist ein sauberer und übersichtlicher Ansatz, um Webanwendungen aufzubauen. Die Arbeitsweise erinnert mich an ASP.Net und die damit verbundene Code-behind-Technik.   Weitere Themen sind:
- Templating
- Internationalisierung
- Navigation
- Konverter
- Validierung
- Listener
- Erweiterte Komponenten   Alle diese Themen werden durch Codebeispiele praxisnah behandelt. Es ist sehr empfehlenswert, diese Beispiele in einer geeigneten IDE auszuprobieren und sie abzuwandeln, um ein Gefühl dafür zu bekommen, wie JSF arbeitet. Empfohlen wird als IDE Eclipse. Ich bevorzuge Netbeans und habe das Modul damit bearbeitet. Das war so auch gut machbar.   Nach den recht praktischen ersten zwei Dritteln des Moduls folgen im letzten Drittel vertiefende Themen, die theoretischer und auch anspruchsvoller sind. Hier geht es darum, wie das Framework arbeitet, was für Abläufe durch einen HTTP-Request ausgelöst werden und was für Objekte dabei in welcher Reihenfolge erzeugt werden. Nicht zuletzt geht es darum, wie man eigene JSF-Komponenten, eigene Renderer und eigene Tags implementiert.   Ich finde, JSF ist ein schönes Framework. Gut gefallen haben mir z.B. die Konzepte für Navigation und für die Konvertierung und Validierung von Nutzereingaben.   Tests und Einsendeaufgaben   Die Tests und Aufgaben decken den Stoff gut ab. Für meinen Geschmack hätten es mehr Aufgaben sein dürfen. Sie waren aber ausreichend, um mit allen großen Themenblöcken praktische Erfahrungen zu machen. Eigene Initiative und eine gewisse Experimentierfreude beim Ausprobieren von Codebeispielen halte ich für empfehlenswert. Leider fand ich die Formulierung der Aufgaben oft unklar oder mehrdeutig. Das Nachdenken darüber, was der Autor der Aufgabe gemeint haben könnte, hat bei mir oft wesentlich länger gedauert als die eigentliche Lösung der Aufgabe. Das war für mich oft unbefriedigend.   Die Rückmeldungen meines Tutors kamen zügig. Auf Fragen bekam ich rasche und zufriedenstellende Antworten. Auch die Online-Klausur wurde zügig korrigiert.   Die Online-Klausur passte gut zu den Einsendeaufgaben und den im Kurs behandelten Themen. Sie war durchaus auch eine gute Vorbereitung auf die Präsenzklausur. So sollte es sein   Präsenzklausur   Ich hätte erwartet, dass die Präsenzklausur vor allem die ersten zwei Drittel des Moduls abdecken würde, also die eher praktischen Teile. Dort lag auch ein Schwerpunkt. Es wurden aber auch die theoretischeren Teile durch Wissensfragen abgeprüft. Bei der Arbeit mit JSF hat man mit unterschiedlichen Dateien in unterschiedlichen Sprachen und Formaten zu tun: XML-Dateien, Java-Quellcode, JSF-Seiten mit Tags. In der Klausur spielten alle eine Rolle. Der Schwierigkeitsgrad der Aufgaben war unterschiedlich. Es gab einfachere Punktebringer aber auch schwierigere und umfangreichere Aufgaben für diejenigen, die eine gute Note haben möchten. Leider hatte ich auch diesmal wieder ein Problem mit der Formulierung mancher Aufgaben.   Zeit ist ein entscheidender Faktor in dieser Klausur. Man muss relativ viel schreiben. Auch wenn man im Grunde schon eine Lösung im Kopf hat, wird es knapp, diese auch aufs Papier zu bringen. Ich würde empfehlen, ein paar Einsendeaufgaben von Hand abzuschreiben, um im Schreiben von XML auf ein gewisses Tempo zu kommen. Ich habe es leider nicht geschafft, alle Aufgaben in der gegebenen Zeit zu bearbeiten. Das hatte natürlich Auswirkungen auf meine Note, die nicht so gut ausgefallen ist, wie ich mir im Vorfeld erhofft hatte.   Fazit   Nach dem Modul "Web-Anwendungen 2", welches serverseitige Web-Programmierung mit JSP abhandelt, wird in "Aktuelle Webtechniken" mit JSF ein weiteres serverseitiges und Java-basiertes Framework vorgestellt. JSF ähnelt ein wenig ASP.Net. Mir hat das Modul Spaß gemacht und ich finde, serverseitige Programmierung ist eine der Stärken des Studienganges "Web- und Medieninformatik". Das Modul ist etwas für Studierende, die auch Freude an JSP und XML hatten. Es ist außerdem eine Gelegenheit, noch mal einmal Zeit mit dem Schreiben von Code zu verbringen. Gegen Ende des Studiums gibt es ja viele Module, die recht theorielastig sind. Da ist JSF eine willkommene Abwechslung.   Mein nicht ganz so tolles Abschneiden bei Klausur nehme ich nicht so schwer. Am diesem Punkt meines Studiums stehen einfach schon so viele Noten fest, dass mein Spielraum zu Beeinflussung meiner Abschlussnote ohnehin gering ist. Ich freue mich also einfach, dass ich hier noch einmal die Gelegenheit hatte, ein Modul zu bearbeiten, dass ich inhaltlich sehr genießen konnte.

kurtchen

kurtchen

 

Modul: BWL2

Das Modul "BWL2" ist ein Pflichtmodul in den beiden Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik" bei Springer Campus. Die Web- und Medieninformatiker sollen es schon im zweiten Semester belegen, die Wirtschaftsinformatiker erst ein Semester später. Das liegt daran, dass die Wirtschaftsinformatiker im ersten Semester zunächst ein Modul "Grundlagen der BWL" belegen, was alles weitere ein Semester nach hinten verschiebt. Wenn ich auf meine Schwierigkeiten mit den BWL-Modulen zurückblicke, meine ich, es wäre gar keine schlechte Idee gewesen, dieses Grundlagenmodul freiwillig zu belegen. Damit hätte ich vielleicht zum Teil ausgleichen können, dass ich im Bereich BWL keine Vorkenntnisse hatte. Gut möglich, dass mir der Stoff von BWL1 und BWL2 so leichter gefallen wäre.   Die Rolle der BWL-Module im Studiengang   Web- und Medieninformatiker belegen außer BWL1 und BWL2 auch noch Geschäftsprozess-Management. Wirtschaftsinformatiker belegen weitere BWL-Module: E-Business, Strategisches Management und Controlling, Human-Ressources. Und natürlich viele Wirtschaftsinformatik-Module. Die meisten von denen und auch das Modul "E-Business" dürfen Web- und Medieninformatiker im Wahlbereich belegen.    BWL2 soll nach BWL1 belegt werden, was ich rückblickend nicht für unbedingt nötig halte. Mir scheint, dass die Inhalte der Module wenig aufeinander aufbauen, so dass ich eine Umkehrung der Reihenfolge für durchaus möglich halte. Dafür sprechen würde, dass insbesondere der Kurs Ökonomie aus dem Modul BWL2 einen gewissen Überblick über das Fachgebiet verschafft, der es vielleicht ein wenig erleichtert, die spezielleren Inhalte aus BWL1 einzuordnen, nämlich internes und externes Rechnungswesen.   BWL2 gilt als inhaltliche Voraussetzung für Geschäftsprozess-Management. Ich habe Geschäftsprozessmanagement vor BWL2 belegt, was auch gut möglich war. Die Kapitel zur strategischen Planung und zu Organisationsformen aus BWL2 wären aber doch eine gute Vorbereitung auf Geschäftsprozess-Management gewesen, so dass ich hier anderen Studierenden dazu raten würde, die Module in der offiziell empfohlenen Reihenfolge zu bearbeiten.   Aufbau des Kurses   BWL2 gehört zu den Modulen, die aus zwei separaten Kursen bestehen. Es gibt 2 Lehrbücher, 2 Online-Abschlusstests, 2 Online-Klausuren, 2 Korrektoren für Einsendeaufgaben aber eine gemeinsame Präsenzklausur. Nach meiner Erfahrung erhöht eine solche Zweiteilung den Bearbeitungsaufwand ein wenig. So habe ich das auch diesmal empfunden. Am Umfang der Lehrbücher liegt das aber nicht. Die Titel "Basiswissen Unternehmensführung" von Klaus Menzel und "Basiswissen Ökonomie" von Rainer Ostermann und Frank Wischmann kommen zusammen auf rund 400 Seiten, was für Module bei Springer Campus üblich ist. Die Autoren Wischmann und Ostermann waren mir bekannt, denn sie haben auch die Lehrbücher für BWL1 verfasst.   Inhalte des Kurses Unternehmensführung   Im Kurs Unternehmensführung geht es um Zielsysteme, Strategische Planung, Unternehmensbewertung, wertorientierte Unternehmensführung und Organisationsstrukturen. Diese Inhalte haben mich anfangs wenig interessiert, aber das Buch war zugänglich geschrieben und die Kapitel wurden durch Fallbespiele begleitet, die den Stoff lebendig machten. Zum Teil wurden hier Dialoge aus Besprechungen wiedergegeben, in denen sich unterschiedliche Ansätze und Denkschulen offenbarten. Das fand ich didaktisch gut gelungen und hat mir oft weitergeholfen, mir den (für mich recht trockenen) Stoff zu erschließen.   Im Kapitel Zielsysteme geht es zum Beispiel darum, Ziele in Zielhierachien einzuordnen, um Abhängigkeiten zwischen Zielen zu erkennen. Man sieht so, welche Unterziele erreicht werden müssen, um übergeordnete Ziele erreichen zu können. Ein häufiges Problem ist, dass Ziele nicht immer miteinander kompatibel sind. Häufig bestehen Zielkonflikte, die aufgelöst werden müssen. Dazu kann es nötig werden, Ziele zu gewichten. Der bei Erreichung erwartete Nutzen, die Wahrscheinlichkeit der Realisierung, aber auch die Beeinflussbarkeit spielen bei solchen Bewertungen eine Rolle. Schließlich braucht man Methoden, um bei konfliktären Zielen durch Dialog und Verhandlung zu Entscheidungen zu kommen. Wo Einigungen nicht möglich sind, werden oft übergeordnete Instanzen entscheiden müssen.   Im Kapitel Strategischen Planung geht es um die langfristige Ausrichtung des Unternehmens. Strategische Entscheidungen wären zum Beispiel, in einem neuen Geschäftsfeld tätig werden zu wollen, den Produktionsstandort zu verlagern, das Unternehmen an die Börse zu bringen oder bestimmte Produktlinien komplett aufzugeben. Für strategische Entscheidungen braucht man Instrumente zur Analyse und Planung, von denen man im Kurs einige kennenlernt. Die SWOT-Analyse identifiziert Stärken und Schwächen des Unternehmens, aber auch Chancen und Risiken. Die Portfolio-Analyse bewertet die angebotenen Produkte des eigenen Unternehmens nach Kriterien wie Wachstum und Marktanteil und kategorisiert sie in Poor Dogs, Questions Marks, Stars und Cash Cows. Eine Cash Cow ist zum Beispiel ein Produkt mit hohem relativen Marktanteil aber nur noch geringem Wachstum. Cash Cows sollen ohne zusätzlich Investitionen Geld bringen. Stars sind dagegen Produkt mit hohem relativem Marktanteil und hohem Wachstum. In solche Produkte soll verstärkt investiert werden. Wichtig für die strategische Planung sind auch Prognosen künftiger Entwicklungen, denn auf diese möchte man sich durch die strategischen Entscheidungen ja vorbereiten. Hier wird unterschieden zwischen quantitativen Methoden, die Zahlenwerte aus der Vergangenheit in Form von Zeitreihen analysieren, und qualitativen Methoden, die mit Einschätzungen von Experten arbeiten. Im Kapitel geht es aber auch um Denkschulen strategischer Planung, die sich aus unterschiedlichen Wissenschaftsgebieten entwickelt haben und sich in den Vorgehensweisen stark unterscheiden. Schließlich geht es um Grenzen strategischer Planung, die sich zum Beispiel daraus ergeben, dass Prognosen auf der Grundlage vergangener Entwicklungen nicht immer zuverlässig sind.   Schwierigkeiten hatte ich in erster Linie mit dem Kapitel Unternehmensbewertung. Entweder war es für mich zu dicht geschrieben oder es mangelte mir an Vorwissen. 
Hier geht es darum, welchen Wert ein Unternehmen hat. Es gibt sehr unterschiedliche Methoden, den Wert eines Unternehmens zu bewerten. Welche davon geeignet ist, hängt vom Anlass der Bewertung ab. So wird ein Kreditgeber sich unter anderem dafür interessieren, was bei Liquidation eines Unternehmens erlöst werden kann. Das Vermögen des Unternehmens sieht er als Sicherheit für den Fall einer Insolvenz. Dagegen wird ein Investor sich eher dafür interessieren, welche Erträge das Unternehmen abwirft, weil er es nicht liquidieren sondern betreiben will. Besonders interessant ist der Potentialwert eines Unternehmens. Hier geht es darum, bislang ungenutzte Möglichkeiten und Chancen zu erkennen und zu bewerten. Dies ist zum Beispiel relevant bei Fusionen. Die Kombination der Fähigkeiten zweier Unternehmen kann neue Werte schaffen, die den Wert des aufgekauften Einzelunternehmens übersteigen.   Gut gefallen hat mir das Kapitel zu Organisationsstrukturen. Hier ging es zum Beispiel um Vor- und Nachteile traditioneller Organisationsstrukturen im Vergleich zu Projektorganisationsformen und zweckorientierten Organisationsformen. Hier sah ich inhaltliche Bezüge zum Modul Geschäftsprozess-Management, das ich leider vorher belegt hatte.   Inhalte des Kurses Ökonomie   Im Kurs Ökonomie geht es zunächst um Grundtatbestände des Wirtschaftens. Im Schnelldurchgang werden hier wichtige Grundbegriffe geklärt und behandelt: Nachfrage und Bedürfnisse, Produktionsfaktoren, Wirtschaftsordnungen, Wirtschaftskreislauf und Wirtschaftsprinzipien, Kennziffern betrieblichen Handelns, volkswirtschaftliche Gesamtrechnung, Begriffe wie Bruttoinlandsprodukt oder Bruttosozialprodukt, Märkte, Preismechanismen, Preisbildung in Polypolen, Oligopolen und Monopolen, Dynamik der Wirtschaft. Obwohl sehr dicht geschrieben, konnte ich diesem Teil des Kurses gut folgen und meine, hier auch einige Bausteine für meine Allgemeinbildung aufgesammelt zu haben.   Nach einem kurzen Kapitel über konstituive Entscheidungen wird der bis dato eher volkswirtschaftlich orientierte Kurs wieder betriebswirtschaftlich. Es geht um drei Typen konstituiver Entscheidungen:
- die Wahl des Tätigkeitsfeldes
- die Wahl des Standortes
- die Wahl der Rechtsform   Während ich dem Kapitel zur Standortwahl gut folgen konnte, fand ich insbesondere das Kapitel zur Rechtsform zu gedrängt geschrieben, um den Stoff wirklich zu begreifen. Natürlich wurde hier regelmäßig auf weitere Fachliteratur verwiesen, aber so sehr interessierte mich das Thema dann doch nicht.   Insgesamt bin ich überrascht, dass der Kurs Ökonomie mir unterm Strich etwas weniger Spaß gemacht hat als Unternehmensführung. Ich hätte das Gegenteil erwartet. Möglicherweise liegt es daran, dass Unternehmensführung ein bisschen ausführlicher geschrieben ist als Ökonomie. Ich schätze, mit etwa 100 Seiten mehr Umfang hätte ich den Ökonomie-Kurs besser verwerten können. Dazu möchte ich bemerken, dass ich zu Schulzeiten keinen Unterricht zu Wirtschaftsthemen genossen habe und solche Inhalte auch in meiner Ausbildung keine Rolle gespielt haben. Wer mehr Vorkenntnisse oder Vorerfahrungen mitbringt, kann die im Kurs Ökonomie dargebotenen Inhalte wahrscheinlich besser aufnehmen als ich.   Einsendeaufgaben und Tests   Die Einsendeaufgaben haben mein Verständnis des Stoffes sicher verbessert. Im Kurs Unternehmensführung waren es mehr als im Kurs Ökonomie. Die Rückmeldungen meiner Tutoren kamen überwiegend zügig. Sie waren für mich auch interessant, weil mir oft Punkte fehlten und ich so erfuhr, was ich für die Klausur noch einmal wiederholen musste.   Klausur   Die Präsenzklausur ist ohne Hilfsmittel zu schreiben, was mir bei diesem Stoff ein bisschen Sorgen gemacht hat. Die waren aber unbegründet. Die Klausur deckte den Stoff breit ab und behandelte beide Kurse bzw. Lehrbücher gleichmäßig, zumindest was die erreichbaren Punkte anging. Breit gestellte Klausuren halte ich für faire Klausuren, weil Erfolg oder Misserfolg nicht davon abhängen, ob zufällig die eigenen Lieblingsthemen auftauchten. Insbesondere muss man nicht befürchten, wegen kleinerer Schwächen in einem Teilgebiet durchzufallen. Wer sich redlich bemüht, den gesamten Stoff zu bearbeiten, sollte hier Erfolge sehen.   Es gab unterschiedliche Aufgabentypen: Ein Diagramm zeichnen, Multiple Choice, doch der Schwerpunkt lag auf dem Erklären von Begriffen und Zusammenhängen (z.T. mit Bezug zu politischen und gesellschaftlichen Themen). Anzahl und Umfang der Aufgaben passten gut zur Bearbeitungszeit. Manche Aufgaben waren recht knapp zu beantworten, andere ausführlicher. Es gab "Punktebringer", aber auch ein paar speziellere Fragen für das letzte Quäntchen Punkte. Hier ging es erkennbar darum, ein Grundverständnis abzuprüfen. Auch jemand, der nicht BWL-affin ist, hat hier eine faire Chance.   Ein Ergebnis liegt mir noch nicht vor, aber diesmal bin ich optimistisch, dass es geklappt haben müsste.   Fazit   Ich bin froh, dass das ungeliebte Thema BWL nun hoffentlich hinter mir liegt. Unzumutbar schwer haben es mir die Kursautoren nicht gemacht. Es hat mir auch sicher nicht geschadet, mich einmal mit diesen Themen zu beschäftigen. Ich vermute, dass ich durch die Module etwas leichter mit Menschen kommunizieren kann, die eine betriebswirtschaftliche Denk- und Arbeitsweise haben. Das kann ja in vielen Situationen hilfreich sein.   Meine eigenen Erwartungen, was ich durch die Module würde lernen können, waren rückblickend betrachtet wahrscheinlich etwas überzogen. Nur 10 ECTS sind wenig Zeit für ein komplexes Thema wie BWL. Das reicht für einen Einblick und vielleicht für eine gewisse Orientierung im Themengebiet. Das ist weniger als ich gehofft habe, aber natürlich hat es einen Wert. Wahrscheinlich wäre es in meinem Fall vernünftig gewesen, das Modul "Grundlagen der BWL" freiwillig als Propädeutikum zu belegen. Dann hätte ich wahrscheinlich aus den beiden folgenden Modulen mehr Nutzen ziehen können.   Rückblickend betrachtet hätte es mir besser gefallen, ich hätte diese 10 ECTS mit anderen Inhalten füllen dürfen. Grundsätzlich gefällt es mir sehr, an einer FH zu studieren, wo ich einen starken Praxisbezug des Studiums erkenne. Vermutlich ist BWL ein Pflichtfach, weil man davon ausgeht, dass die meisten von uns in Unternehmen arbeiten werden. Das ist ja auch eine vernünftige Annahme. Statt BWL z.B. zusätzliche Mathe-Module zu belegen hätte mir allerdings mehr Spaß gemacht.   Andererseits gehört zu einem Studium auch die Auseinandersetzung mit Themen, die man auf den ersten Blick nicht zum Anbeißen findet. Insofern habe ich versucht, mich auf BWL einzulassen. Für mich war es der bislang mühsamste Teil meines Studiums, weil ich es schwieriger als in anderen Modulen fand, mich zum regelmäßigen Lernen zu motivieren. Aber vermutlich ist das nun geschafft. Jetzt bin ich auch ein bisschen stolz auf mich.   Ob ich noch einmal Lust haben werde, im Wahlbereich ein weiteres Modul mit BWL-Bezug zu belegen? Für die nächste Zeit möchte ich mich erst mal anderen Themen zuwenden. Andererseits gibt es dann doch Inhalte, die mich interessieren könnten. Ein Modul "E-Business" würde z.B. ganz gut zu einem Studium "Web- und Medieninformatik" passen. Momentan bin ich aber froh, im Studienbereich BWL meine Pflicht getan zu haben.   Wie geht es nun weiter? Inzwischen habe ich angefangen, das Modul "Wissenschaftliches Arbeiten" zu belegen. Das ist für mich freiwillig, weil ich noch nach der alten Studienordnung studiere. Die Belegung wird uns aber dringend empfohlen, weil die Inhalte für die Anfertigung der Projekt- und Bachelorarbeit wichtig sind. Das sehe ich ein, also habe ich das Modul belegt. Ich hatte erwartet, dass das ein notwendiger aber auch trockener Studienabschnitt werden würde. Bislang bin ich positiv überrascht: Ich finde den Stoff richtig interessant, die Einsendeaufgaben machen mir viel Spaß und ich glaube, dass ich hier wichtige Einsichten für meine Projekt- und Bachelorarbeit mitnehmen kann. Besonders gefällt mir aber, dass ich den Eindruck habe, hier auch etwas für meine Allgemeinbildung zu tun. Ich werde zu gegebener Zeit ausführlicher berichten.   Inzwischen habe ich auch eine Idee für meine Projekt- und für meine Bachelorarbeit. Beides dauert noch ein bisschen, aber allmählich taucht aus dem Nebel schemenhaft der letzte Studienabschnitt auf und nimmt ein bisschen Gestalt an. Das wird etwas ganz anderes werden als Stoff zu lernen und Klausuren zu schreiben. Aber mittlerweile vermute ich, dass das auch Spaß machen wird.

kurtchen

kurtchen

 

Springer Campus: Präsenztag am 30.09.2017 - Teil 2

12:45 Uhr - Vortrag "Sicherheit im Internet"   Der Vortrag hielt Prof. Rettinger von der FH Dortmund. Seine Lehrgebiete dort sind Grundlagen der Informatik und Compilerbau. Herr Rettinger hat Erfahrung mit Fernlehre, unter anderem weil er als Lehrbeauftragter für die Fernuni Hagen tätig ist. Bei Springer Campus betreut er künftig Grundlagen der Informatik 1 und 2, also die Einführungen in die strukturierte und objektorientierte Programmierung in Java. Herr Rettinger hat früher einmal im Bereich "Public Key Kryptographie" geforscht. Möglicherweise ist dies sein Bezug zum Thema des Vortrages. Dieses lautet...
"Sicherheit im Internet. Eine kurze Einführung in die moderne Kryptographie"   Der Vortrag begann mit einer alltäglichen Anwendungssituation im Internet, dem Abruf eines Wikipedia-Eintrages. Dabei wird eine HTML-Datei von einem Server per Internet auf den heimischen Laptop gesendet. Die Übertragung erfolgt mit den bekannten Protokollen, die aufeinander aufbauen. - Ethernet als Netzzugangsschicht
- IP als Internetschicht
- TCP als Transportschicht
- HTTP als Anwendungsschicht   3 Grundfragen der Sicherheit im Internet   Im Hinblick auf die Sicherheit dieser Situation stellen sich folgende 3 Grundfragen:
1. Wer sagt mir, dass am anderen Ende der Kommunikation wirklich ein Server der Wikipedia ist? Das ist das Problem der Authentizität.
2. Liest jemand mit? Das ist das Problem der Vertraulichkeit.
3. Ist der empfangene Inhalt manipuliert? Das ist das Problem der Integrität.   Symmetrische Verschlüsselung   Der klassische Ansatz wäre Verschlüsselung beim Sender, Entschlüsselung bei Empfänger. Dann kann ich Inhalt über einen unsicheren Kanal wie das Internet übertragen. Eine gängige Technik dazu wäre z.B. die Verschlüsselung mit AES. Verwendet man EINEN Schlüssel zum Ver- und Entschlüsseln, so spricht man von symmetrischer Verschlüsselung. Dabei treten 2 prinzipielle Probleme auf:
1. Wie vereinbaren die Kommunikationspartner den gemeinsamen Schlüssel? Dazu bräuchten sie einen sicheren Kanal. Wenn sie den hätten, bräuchten sie nicht verschlüsseln. Tatsächlich ist das eine gängige Strategie. Beispielsweise verschicken Banken das Kennwort für den Zugang zum Online-Banking per Briefpost, in der Hoffnung, dass die Abhörsicherer ist als eine E-Mail.
2. Die Anzahl der nötigen Schlüssel. Wollen 1000 Teilnehmer miteinander kommunizieren, müssen sie an die 500.000 Schlüssel vereinbaren. Bei einer Million Teilnehmern braucht man schon an die 500.000.000.000 Schlüssel.   Um die genannten Probleme zu überwinden, hat man asymmetrische Verschlüsselungsverfahren entwickelt. Hier verwendet man unterschiedliche Schlüssel zum Ver- und Entschlüsseln. Davon später mehr.   Einwegfunktionen   Verschlüsselung basiert allgemein auf Einwegfunktionen. Eine Einwegfunktion ist eine Funktion, deren Umkehrung schwierig ist. Ein einfaches Beispiel für eine Einwegfunktion ist die Multiplikation von Primzahlen:
- Das 143 das Produkt der Primzahlen 11 und 13 ist, errät man nicht so schnell. - Dagegen ist es sehr leicht, 11*13 zu rechnen. - Werden die Primzahlen größer, steigt die Schwierigkeit der Faktorisierung enorm. Man ist im wesentlichen auf rumprobieren angewiesen.
Die Multiplikation von Primzahlen ist also eine Einwegfunktion, weil ihre Umkehrung, die Primfaktorzerlegung, schwierig ist.   Prinzipiell immer möglich: Brute-Force-Angriffe   Schwierig ist natürlich ein schwammiger Begriff. Möglich ist die Umkehrung einer Einwegfunktion prinzipiell immer, nämlich mit dem brute force Ansatz. Er besteht im Ausprobieren aller möglichen Schlüssel. Die in der Praxis relevante Frage ist, wie lange brute force Entschlüsselung dauert. Für die meisten Anwendungsfälle würde es reichen, wenn das Brechen der Verschlüsselung im Schnitt 50 Jahre dauert.   Hat ein Schlüssel die Länge 500 Bit, so muss man im Schnitt 2 hoch 249 mögliche Schlüssel ausprobieren. Wir nehmen an, jedes Atom im Universum sei als Prozessor nutzbar. Man schätzt, dass es 10 hoch 85 Atome bzw. ungefährt 2 hoch 282 Atome gibt. Wir nehmen an, dass jedes Atom mit 1 PHz gtaktet wird. Für die Berechnung geben wir uns 1.000.000.000 Jahre. Dann können wir 2 hoch 387 Schritte ausführen. Das reicht bei weitem nicht, um den Schlüssel durch Ausprobieren zu finden. Man kann also sagen: Ist ein Schlüssel nur lang genug, so wird brute force Entschlüsselung praktisch unmöglich.   Wichtige Einwegfunktionen sind z.B. Hashfunktionen. Diese dampfen in kurzer Rechenzeit große Datenmengen, z.B. komplette Internetseiten, auf einen kleinen Zahlenwert ein, den sogenannten Hashwert. Gängige Hashfunktionen sind SHA1 (gebrochen) und SHA256 (noch sicher).   Primfaktorzerlegung: Grundlage des RSA-Verfahrens   Für Verschlüsselung bedeutsamer sind Einwegfunktionen mit Hintertür (im englischen auch trap door also eigentlich Falltür). Sie verwenden 2 Schlüssel, einen zum Ver- und einen zum Entschlüsseln. Das sind also die oben genannten asymmetrischen Verschlüsselungsverfahren. Die beiden Schlüssel nennt man auch öffentlichen Schlüssel und privaten Schlüssel. Wichtig dabei ist: Es muss unmöglich sein, den privaten Schlüssel aus dem öffentlichen Schlüssel zu errechnen. Das nennt man Unabhängigkeit der Schlüssel. Ein bekanntes asymmetrisches Verschlüsselungsverfahren ist RSA. Es basiert auf der oben erwähnten Schwierigkeit der Primfaktorzerlegung.   An dieser Stelle sei bemerkt: Die Schwierigkeit der Primfaktorzerlegung ist ein Erfahrungswert. Mathematiker versuchen sich seit langer Zeit an diesem Problem und konnten es bislang nicht in akzeptabler Zeit lösen. Es könnte natürlich sein, dass es ein schnelles Verfahren zur Primfaktorzerlegung gibt, das bislang nicht entdeckt wurde. In dem Fall wäre die Multiplikation von Primzahlen keine Einwegfunktion mehr und die darauf basierenden Verschlüsselungen leicht zu brechen.   Auf die Details des RSA-Verfahrens gehe ich hier nicht länger ein, auch wenn sie im Vortrag kurz vorgestellt wurden. Knapp gesagt verschlüsselt man eine Botschaft M (message) mit einem Schlüssel e und erhält die verschlüsselte Botschaft C. C wird mit dem Schlüssel d entschlüsselt und man erhält wieder M.   Die Grundidee lieferten im Jahr 1975 Merkle, Hellman und Diffie. 1978 wurde das eigentliche RSA Verfahren am MIT von Rivest, Shamir und Adleman entwickelt. Ihre Initialen wurden namensgebend. Kurios ist, dass diese zentrale Methode 20 Jahre vor dem eigentlichen, massenhaften Durchbruch des Internets entwickelt wurde.   Problem: Authentizität   Kehren wir zurück zu unserem ursprünglichen Anwendungsfall, dem Abruf einer Wikipedia-Seite. Wikipedia hat einen privaten und einen öffentlichen Schlüssel. Wikipedia könnte meinen öffentlichen Schlüssel kennen, z.B. weil ich ihn bei Aufnahme der Kommunikation genannt habe. Wikipedia verschlüsselt damit eine Seite und schickt sie mir über den unsicheren Kanal Internet. Ich kann die Seite nun mit meinem privaten Schlüssel entschlüsseln. Wer meinen privaten Schlüssel nicht kennt, kann nicht entschlüsseln. Die Vertraulichkeit der Nachricht ist also gewährt. Nicht gewährt ist allerdings die Authentizität. Ein anderer Akteur könnte eine gefälschte Wikipedia-Seite mit meinem öffentlichen Schlüssel verschlüsseln und mir senden. Ich könnte mit meinem privaten Schlüssel entschlüsseln, würde aber nicht bemerken, dass mir eine falsche Seite untergeschoben wurde.   Hybride Verschlüsselung   Ein weiteres Problem von RSA: Diese Art der Verschlüsselung ist langsam. Darum nutzt man RSA lediglich, um mit asymmetrischer Verschlüsselung einen symmetrischen Schlüssel zu vereinbaren, den man im folgenden benutzt. Das nennt man dann hybride Verschlüsselung. Als symmetrisches Verfahren verwendet man z.B. AES. Das ist sehr schnell und oft in Hardware implementiert.    Unser Netzwerkstack sieht nun so aus:
- Ethernet als Netzzugangsschicht
- IP als Internetschicht
- TCP in Verbindung mit SSL/TLS als Transportschicht
- darauf aufbauend HTTPS als Anwendungsschicht   Problem: Echtheit öffentlicher Schlüssel   Auch aus Sicht des Senders Wikipedia gibt es ein Problem. Meinen öffentlichen Schlüssel habe ich über das Internet bekannt gemacht. Natürlich könnte jemand anderes Wikipedia einen falschen öffentlichen Schlüssel unterschieben. Wikipedia würde die Seite dann nicht für mich sondern für einen anderen Akteur verschlüsseln. Wie kann der Sender wissen, dass der öffentliche Schlüssel echt ist?   Die Lösung für dieses Problem ist eine vertrauenswürdige Instanz. Man nennt sie Zertifizierungsstelle. Diese hat ebenfalls einen öffentlichen und einen privaten Schlüssel. Die Zertifizierungsstelle verschlüsselt den öffentlichen Schlüssel des Senders mit ihrem privaten Schlüssel. Ich entschlüssele mit dem öffentlichen Schlüssel der Zertifizierungsstelle und erhalte den öffentlichen Schlüssel des Senders. Diesen kann ich vergleichen mit einem mir bekannt gemachten öffentlichen Schlüssel. Stimmen beide überein, ist der mir bekannt gemachte Schlüssel echt. Die Zertifizierungsstelle kann also öffentliche Schlüssel beglaubigen.   Die künftige Sicherheit der Kommunikation im Internet wird von verschiedenen Grundproblemen bedroht. Das erste war bereits erwähnt:   1. Wie schwer ist Faktorisierung wirklich?   Oben war erwähnt, dass brute force bei hinreichend langem Schlüssel unmöglich ist. Es gibt aber zur Primfaktorzerlegung bessere Verfahren als brute force. Die Rechenleistungen steigen. Darum empfehlen Institutionen wie das BSI ständig längere Schlüssel. Für RSA gelten 1900 Bit als minimum, bis 2016 wurden 2000 Bit empfohlen und ab 2016 sogar 3000 Bit. An dieser Stelle muss man sich noch einmal klar machen, das jedes zusätzliche Bit die Anzahl möglicher Schlüssel verdoppelt.   MIt Elliptische Kurven steht ein alternative Ansatz im Hintergrund bereit. Dieser wird praktisch nicht genutzt, weil er sehr rechenaufwendig ist. Außerdem ist unklar, wie sicher elliptische Kurven wirklich sind. Bei der Faktorisierung weiß man, dann man sie seit langer Zeit erfolglos versucht. Elliptische Kurven sind noch nicht so gut erforscht. Mag sein, dass unerwartet schnelle Umkehrungen entdeckt werden.   2. Implementierungsprobleme   i. Gebrochene Verschlüsselung basiert oft auf mangelnden Implementierungen, z.B. auf mangelnder Zufälligkeit. ii. Auch Protokolle sind ein häufiger Angriffspunkt, z.B. die Einigung auf ein Verschlüsselungsverfahren und die Methode des Schlüsseltausches. iii. Betriebssysteme halten viele Daten in Zwischenspeichern. Manche Verfahren zur Überwindung von Verschlüsselung basieren darauf, den Hauptspeicher eines Rechners auszulesen. Aus dem Speicherinhalt probiert man mögliche Passwörter. Das reduziert die Anzahl der möglichen Schlüssel erheblich. iv. Zertifizierungsstellen arbeiten nicht immer sauber. v. SSL/TLS sind auf Betriebssystem-Ebene implementiert. Der Browser vertraut dem OS. Hier ist eine Eingriffmöglichkeit.   3. Quantencomputer   Die ultimative Bedrohung für die aktuellen Verschlüsselungsverfahren sind Quantencomputer. Sollten sie verfügbar werden, könnten RSA und auch bekannte Alternativen wie elliptische Kurven gebrochen werden. Bislang erweist sich die Konstruktion von Quantencomputern aber als schwierig.   Absolute Sicherheit   Absolute Sicherheit versprechen 2 Ansätze   1. One-Time-Pad   Dieser Ansatz ist theoretisch perfekt und praktisch irrelevant. Man wählt einen zufälligen Schlüssel, der so lang wie die Botschaft sein muss und nur ein Mal verwendet werden darf. Diesen nimmt man zum Ver- und Entschlüsseln. Das Verfahren ist praktisch nicht nutzbar, weil man einen sicheren Kanal braucht, um diesen Schlüssel zu vereinbaren. Wenn ich einen Schlüssel von der Länge der Nachricht sicher vereinbaren könnte, so könnte ich auch gleich die Botschaft senden und bräuchte keine Verschlüsselung. (Wollen zwei Partner die Vertraulichkeit ihrer Kommunikation zu sichern, könnte man sich die Anwendung etwa so vorstellen. Man trifft sich einmalig und bespielt zwei Festplatten mit einer identischen, zufällig erzeugten Bitfolge, die mehrere Terrabyte lang ist. Die Partner trennen sich räumlich. In der folgenden Kommunikation verschlüsseln und entschlüsseln sie mit dieser Bitfolge, bis die gesamte Bitfolge konsumiert ist. Die Gefahr: Diese Bitfolge darf nicht in falsche Hände geraten. Sie muss sicher transportiert und aufbewahrt werden.)   2. Quanten-Kryptographie   Sie arbeitet mit verschränkten Quanten. Misst man den Zustand verschränkter Quanten an zwei Orten, so erhält man gleiche Ergebnisse. Man kann so eine zufällige Bitfolge vereinbaren. Da jede Messung den Zustand verändert, würde ein Mithören sofort bemerkt. Die Partner hätten dann nämlich keinen gemeinsamen Schlüssel mehr und könnten gar nicht kommunizieren. In der praktischen Implementierung gilt Quanten-Kryptgraphie als noch nicht sicher.   Fazit   Soweit die Inhalte des Vortrages von Herrn Rettinger, die ich hier aus dem Gedächtnis und auf Grundlage meiner Notizen wiedergegeben habe. Studierenden, die das Modul "IT-Sicherheit" schon hinter sich haben, dürften die meisten Inhalte bekannt gewesen sein. Sie sollten insbesondere auch deutlich mehr über die mathematischen Grundlagen und die Abläufe im Detail wissen. Allerdings erodieren solche Kenntnisse schnell, wenn sie nicht regelmäßig angewendet werden, wie ich beim Hören des Vortrages bemerkt habe. Insofern war der Besuch des Vortrages in jedem Fall lohnend. Für Studierende, die "IT-Sicherheit" noch vor sich haben, war es ein guter Einstieg ins Thema.   Zum Thema Quanten-Kryptographie sei noch auf diese aktuelle Meldung verwiesen: Wissenschaftler kommunizieren quantenverschlüsselt   Möglicherweise rückt die praktische Anwendung also näher als man denkt.   Sehr empfehlenswert finde ich zu diesem Thema auch das Hörbuch "Spukhafte Fernwirkung" aus dem kleinen aber feinen Verlag supposé. Hier erzählt der Physiker Anton Zeilinger ca. 100 Minuten lang über Quantenphysik und spannt am Ende den Bogen zur praktischen Anwendung Quanten-Kryptographie. Das Hörbuch ist ein paar Jahre alt, aber für einen Einblick ins Thema noch immer hervorragend geeignet.   Mathe-Tutorium   Parallel zum Vortrag von Herrn Rettinger fanden die üblichen Mathe-Tutorien mit den Themen "Lineare Algebra" und "Analysis" statt. Die sind üblicherweise gut besucht, denn der Stoff des Moduls Mathe2 ist erfahrungsgemäß für viele Studierende herausfordernd, insbesondere für Studierende ohne Abitur, aber auch für diejenigen, deren Abitur länger zurück liegt. Da ich diesen Teil meines Studiums schon hinter mir habe, habe ich diesmal an den Tutorien nicht teilgenommen.   Zum neuen Studiengang "Elektrotechnik"   Mitarbeiter von Springer Campus standen für Fragen zu den Studiengängen Chemie, Biologie und Elektrotechnik bereit. Als Studierender im Studiengang Web- und Medieninformatik interessierte mich vor allem, ob denkbar sei, einzelne Module aus dem E-Technik-Studium als Ergänzungsmodule zum Informatikstudium zu belegen. Aus meiner Sicht könnten folgende Module aus dem Curriculum des Studiengangs Elektrotechnik auch für Informatiker interessant sein: - Programmierung eingebetteter Systeme (hier käme es freilich darauf an, wie hardwarelastig das Modul konzipiert ist) - Maschinelles Lernen (insbesondere weil im Curriculum der Informatik-Studiengänge bislang kein KI-Modul zur Verfügung steht) - Bildverarbeitung   Zum gegenwärtigen Zeitpunkt kann man über solche Möglichkeiten der Verknüpfung der Curricula noch nichts sagen. Der Studiengang Elektrotechnik ist im Aufbau. Bislang gibt es nur wenige Studierende und viele Module sind noch nicht fertig. Ähnlich wie in den Fernstudiengängen Biologie und Chemie richtet sich auch Elektrotechnik an Studierende mit einschlägiger Berufsausbildung, um die praktischen Teile eines E-Technik-Studiums abzudecken. Präsenzen spielen in diesem Studiengang natürlich eine Rolle. Vielleicht gibt es zu einem späteren Zeitpunkt eine Möglichkeit, dass Informatik-Studenten von einzelnen Modulen aus dem E-Technik-Studium profitieren können.   Das "Drumherum" eines Präsenztages   Ein Präsenztag ist natürlich mehr als die Summe der gebotenen Veranstaltungen. Zunächst ist ein Präsenztag immer auch Prüfungstag. Viele Studierende bringen ihre Prüfungen schon am Anreisetag Freitag hinter sich und können den Samstag dann genießen. Aber manche müssen noch am Samstagmorgen in den Klausuren schwitzen. Ich hatte es zum Glück auch schon am Freitag hinter mich gebracht und konnte dann am Samstag gemütlich frühstücken. Interessant und nützlich ist natürlich auch immer der allgemeine Austausch mit anderen Studierenden: Über belegte Module, Prüfungen, Zeitplanung im Studium, sinnvolle Modulkombinationen und andere Themen, die im Leben eines Fernstudenten eine Rolle spielen. Das allgemeine "Hallo" macht natürlich abgesehen vom Nutzen auch Spaß, denn meistens kämpfen wir ja alleine. Schön ist auch, dass die Mitarbeiter von Springer Campus immer wieder den Kontakt zu den Studierenden suchen und an Rückmeldungen sichtlich interessiert sind. Der nächste Präsenztag ist am 10.03.2018. Ich komme gerne wieder.

kurtchen

kurtchen

 

Springer Campus: Präsenztag am 30.09.2017 - Teil 1

10:45 Uhr - Aktuelles für Studierende   Frau Kreissig von Springer Campus informierte über Neues rund um unseren Studiengang. Zum Nutzen der neuen Studierenden gab es ein kurzes Who-is-who der Mitarbeiter des Fernstudienteams. Die Übernahme der W3L durch Springer Campus lag am Präsenztag ziemlich genau ein Jahr zurück. Frau Kreissig dankte den Studierenden für ihre Geduld und Kompromissbereitschaft in der Übergangsphase.   Parallel zu dieser Veranstaltung fand auch eine Infoveranstaltung für Studieninteressierte statt, über die ich leider nichts näheres berichten kann. Zu bemerken ist, dass dort nicht nur über die Studiengänge Web- und Medieninformatik (WMI) und Wirtschaftsinformatik (WI) informiert wurde. Auch über das Fernstudium Biologie und Chemie konnte man sich informieren. (Für diejenigen, die sich hier wundern, dass man Biologie und Chemie überhaupt "aus der Ferne" studieren kann: Diese Studiengänge richten sich ausschließlich an Berufstätige, die eine einschlägige Ausbildung als TA abgeschlossen haben und insofern umfangreiche Praxiserfahrung mit Laborarbeit haben.) Die Cover der Lehrbücher zu den einzelnen Modulen unserer Studiengänge WMI und WI werden nach und nach überarbeitet. Sie erscheinen nun im "Springer Look". Natürlich sollen die Bücher auch fortlaufend inhaltlich aktualisiert werden. Das dauert naturgemäß etwas länger. So gibt es z.B. aktualisierte Lehrbücher für SQL oder bald auch für die Einführung in die Wirtschaftsinformatik.   Das Modul "Strategisches Management und Controlling" ist aus aktuellem Anlass kurzfristig nicht verfügbar. Springer Campus sucht nach einer Vertretung, die die Betreuung dieses Moduls übernehmen kann. Man möchte diesem Umstand offen kommunizieren, damit die Studierenden dies in ihrer Studienplanung berücksichtigen können, z.B. indem sie andere Module zeitlich vorziehen. Strategisches Management und Controlling ist ein Pflichtmodul für Studierende des Studiengangs Wirtschaftsinformatik und wird dort dem Studienbereich BWL zugerechnet. Die Belegung wird für das 4. Semester empfohlen.   Frau Kreissig informierte auch über Änderungen bei Dozenten und Tutoren.   Viele (meist private) Fern-Hochschulen bieten Prämien für geworbene Studierende und das Studienbüro wird gelegentlich danach gefragt, ob es das auch bei Springer Campus gibt. Tatsächlich gibt es schon seit einer Weile eine Prämie von 250 Euro oder wahlweise einen Buchgutschein pro geworbenem Studierenden. Dies gilt aber nur für Bachelor-Studiengänge und nicht für die Belegung von Zertifikatskursen. (Ich mag solche Prämienprogramme nicht besonders, weil mir das doch ein bisschen "marktwirtschaftlich" daherkommt, aber da sich Studierende nach so etwas erkundigt haben, nehme ich an, dass es Leute gibt, die das interessieren könnte.)   Das Modul "Wissenschaftliches Arbeiten" ist seit März 2017 Pflicht für Studierende im Studiengang WMI und WI. Für Studierende, die noch nach der alten Studienordnung studieren, ist es nicht verpflichtend, die Belegung wird aber dringend empfohlen. Die Erfahrung hat gezeigt, dass dieses Modul insbesondere für das Schreiben der Bachelorarbeit sehr nützlich ist.   Top-FAQs aus dem Studienbüro:
- Das Studienbüro unterstützt bei der Suche nach Betreuern für Projekt- und Bachelorarbeiten. Wenn man seine Projektarbeit im eigenen beruflichen Umfeld schreiben kann, wäre ein weiterer Betreuer dort ideal. Solche Rahmenbedingungen hat aber nicht jeder Studierende.
- Notenspiegel und Leistungsübersichten kann man über das Studienbüro anfordern. (Manche Studierende, die von ihrem Arbeitgeber finanziell unterstützt werden, müssen so etwas vorlegen.) Die Ausstellung geht normalerweise sehr schnell. Unmittelbar vor Präsenztagen soll man aber etwa eine Woche Vorlauf einplanen, denn zu diesen Zeiten ist das Team des Studienbüros sehr beschäftigt.
- Ein Klassiker: Änderungen der Adresse, der Telefonnummer und der Kontonummer sollen dem Studienbüro bitte möglichst bald mitgeteilt werden. Eigentlich sollte das offensichtlich sein. Es wird aber de facto immer wieder vergessen und führt dann zu Problemen.
- Anmeldefristen für Prüfungen sind VERBINDLICH und somit für alle Studierende gleich. Offensichtlich gibt es immer wieder den Wunsch, so etwas Einzelfallbezogen anders zu handhaben. Das ist aber nicht möglich.
- Klausuren sollen innerhalb von 6 Wochen korrigiert werden. Eine deutlich kürzere Zeitspanne ist natürlich sehr wünschenswert. (Aus eigener Erfahrung kann ich sagen, dass 3-4 Wochen üblich sind.) Im letzten Jahr kam es bei bestimmten Modulen gelegentlich vor, dass die 6-Wochen-Frist überschritten wurde. Das hat z.B. mit besonderen Lebenslagen der Korrektoren zu tun. Das Studienbüro arbeitet daran, dass Fristüberschreitungen die Ausnahme bleiben.   Frau Kreissig weist auf die Online-Dienste für Studierende (ODS) der FH Dortmund hin, die Studierenden von Springer Campus zur Verfügung stehen. Dazu ist die FH-Kennung nötig, die man zu Beginn des Studiums erhält. Unter anderem kann man sich über ODS Software von Microsoft herunterladen. Eine Verlängerung der FH-Card antragt man direkt per Mail an der FH Dortmund.   Verleihung der Hochschulzertifikate   Statt sich für einen kompletten Bachelorstudiengang einzuschreiben, kann man bei Springer Campus auch für Hochschulzertifikate studieren. Dazu belegt man bestimmte Modulkombinationen. Angebotene Zertifikate sind z.B. Anwendungs-Programmierer, Web-Entwickler oder Software-Architekt. Auch Studierende im Bachelorstudiengang erhalten diese Zertifkate, wenn sie die entsprechenden Modulkombinationen abgeschlossen haben. Die Zertifikate können als Meilensteine im Studium motivierend wirken. Manche Studierende legen sie auch Arbeitgebern vor und können so evtl. schon während ihres Studiums neue Aufgabenbereiche übernehmen. Die Zertifikate werden normalerweise automatisch per Post zugesendet. Die Zertifikate mit den besten Noten werden am Präsenztag persönlich übergeben. (Sofern die Studierenden anwesend sind.)   Ein Absolvent stellt seine Bachelor-Arbeit vor   Herr D. stellte auf dem Präsenztag seine Bachelor-Arbeit vor. Er hat eine Android-App zur Aquariendosierung entwickelt. Das Thema ergab sich bei ihm nicht im beruflichen Umfeld sondern im Privatleben. Er hatte damals mehrere Aquarien. In Aquarien muss man fortlaufend verschiedene Düngemittel zusetzen, damit z.B. Pflanzen gut wachsen: Natrium, Eisen, Nitrat und Kalium. Dazu müssen regelmäßig Messwerte ermittelt werden und dann entsprechende Dosierungen berechnet werden. Herr D. hatte das bislang mit Excel-Tabellen gemacht. Seine Idee war, eine Android-Software zu entwickeln, die auf dem Handy die Messwerthistorie erfasst, die aktuelle Situation bewertet und eine Handlungsempfehlung in natürlicher Sprache gibt. Das Empfehlungssystem ist das pfiffige an der App. Ein wesentlicher Teil seiner Bachelorarbeit drehte sich um Möglichkeiten, ein solches Empfehlungssystem zu implementieren. Herr D. nannte hier:
- regelbasierte Filter
- inhaltsbasierte Filter
- wissensbasierte Filter
- demographische Filter
- kollaborative Filter
- hybride Filter   Herr D. hatte sich für Expertensystem entschieden, also für einen wissensbasierten Filter.   Die Umsetzung ging durch die klassischen drei Schritte:
- objektorientierte Analyse (OOA)
- objektorientiertes Design (OOD)
- objektorientierte Programmierung (OOP)   Zu seiner Bachelorarbeit gehörte natürlich auch, die Spezifizierung von funktionalen und nicht-funktionalen Anforderungen und dynamische Modellierung, z.B. durch Ablaufdiagramme. Herr D. verwendete (android-üblich) das MVP-Muster. Er zeigte Mock-ups der Oberfläche, die Paketstruktur und ging kurz auf das Datenbankmodell ein. Wichtig im Rahmen seiner Bachelorarbeit war auch eine Testphase und eine Bewertung, wie die zu Beginn spezifizierten Anforderungen umgesetzt wurden. Interessant war am Ende auch eine Gegenüberstellung von UI Mock-ups und dem Aussehen der tatsächlichen App.   Die App heißt AquaCalc, ist aber leider bei GooglePlay noch nicht verfügbar. Sie ist fertig, hat aber noch Bugs, die ausbessert werden müssten. Außerdem müsste das UI noch ein bisschen "aufpoliert" werden. Herr D. konnte sich durch sein Studium beruflich verändern und findet aktuell leider nicht die Zeit, die App fertig zu machen. Für Herrn D. war es seine erste Android-App überhaupt.   Dieser Vortrag war für mich aus mehreren Gründen interessant:
- Die Themen Projektarbeit und Bachelorarbeit rücken auch für mich langsam näher.
- Ich hatte bisher angenommen, eine Projektarbeit in einem betrieblichen Umfeld anfertigen zu müssen. Da ich keine einschlägige Beschäftigung habe, war es eine der noch offenen Fragen in meiner Studienplanung, wie und wo ich eine Projektarbeit anfertigen könnte. Herr D. realisierte seine Projektarbeit und die darauf aufbauende Bachelorarbeit aus einem privaten Interesse heraus. Er berichtete uns, dies sei valide. Das Studienbüro hatte ihm einen Betreuer vermittelt, der sein Thema interessant fand und begleiten wollte. Für mich ist das deswegen sehr interessant, weil ich so die Möglichkeit habe, eine Projektidee nicht allein im beruflichen Umfeld zu suchen.
- Das von ihm gewählte Thema ist kein reines IT-Thema. Für die Aquariendosierung muss man etwas über Chemie und Physiologie wissen. In der Bachelorarbeit musste dieser Teil aber möglichst knapp behandelt werden, weil die Informatik im Vordergrund stehen musste. Dies gelang ihm z.B. durch die Diskussion der verschiedenen Bewertungssysteme und eine begründete Entscheidung für einen bestimmten Ansatz. Auch das ist für mich relevant. Ich könnte im Prinzip in einem beliebigen Problembereich arbeiten, solange ich das aus einer Softwareperspektive tue.
- Der Studiengang heißt Web- und Medieninformatik und die Programmierung von Web-Anwendungen ist ein inhaltlicher Schwerpunkt. Man ist aber für die Projekt- und auch für die Bachelorarbeit nicht darauf festgelegt. Offensichtlich war im Fall von Herrn D. eine Android-App ein valides Projekt. Auch eine Desktop-Anwendung wäre denkbar. Vermutlich wäre Software-Entwicklung für ein eingebettetes System mit einer maschinennahen Sprache ein wenig zu weit weg von den Schwerpunkten dieses Studienganges, aber insgesamt scheint es eine große Bandbreite an Möglichkeiten zu geben, die Studienanforderungen Projekt- und Bachelorarbeit zu erfüllen.
- Die App von Herrn D. hatte am Ende noch Bugs. Es war nicht der Anspruch, dass am Ende ein fehlerfreies Produkt steht. Wichtig war, dass es prinzipiell funktionierte und dass eine professionelle Vorgehensweise erkennbar war. Eine perfekt ausgearbeitete App wäre nach Einschätzung von Herrn D. im vorgegebenen Zeitrahmen nicht machbar gewesen. In Anbetracht der vielen Artefakte, die in der Präsentation von Herrn D. gezeigt wurden, ist mir noch einmal klar geworden, dass die Anfertigung der Bachelor-Arbeit innerhalb der Frist ein sehr gutes Zeitmanagement erfordern wird. Dafür werde ich mir rechtzeitig eine gute Strategie zurechtlegen müssen.
- Herr D. konnte Vorerfahrungen nutzen. Es war zwar seine erste Android-App aber er entwickelt beruflich mit Java und IntelliJ. Die Hürde zu Android und AndroidStudio war aus seiner Sicht vergleichsweise gering. Vermutlich ist es auch für mich sinnvoll, mir ein Projekt zu überlegen, bei dem ich an vorhandenem Wissen anknüpfen kann.   Am Ende seines Vortrages bekam Herr D. nicht nur seine Bachelorurkunde sondern auch die Absolv-Ente verliehen, eine Ente mit Doktorhut, die bei unseren Studierenden sehr beliebt ist. Frau Kreissig wies darauf hin, dass die Absolv-Ente nur bekommt, weil seine Bachelorurkunde persönlich abholt und den Studierenden seine Bachelorarbeit vorstellt.   Herr D. hat übrigens einen ausführlichen Blog über den Verlauf seines Studiums geschrieben, im dem ich schon häufiger mit Gewinn gelesen habe. Da er über seine Erfahrungen mit den einzelnen Modulen recht ausführlich berichtet hat, konnte ich oft sinnvolle Modulkombinationen besser auswählen und planen. Wer eimal reinschauen möchte, hier ist der Link:
https://wmifernstudium.wordpress.com/   Fragerunde und Feedback   - Einzelne Studierende klagen, dass die Korrekturzeiten in bestimmten Modulen ungewohnt lang ausfallen können, so dass es schwierig wird, rechtzeitig zu einem anvisierten Prüfungstermin fertig zu werden. Frau Kreissig rät, sich in solchen Fällen ans Studienbüro zu wenden. Die Mitarbeiter dort gehen solchen Hinweisen nach. (Ich möchte hier ergänzen, dass Tutoren auf der Online-Plattform Abwesenheiten üblicherweise ankündigen und auch entsprechende E-Mail-Benachrichtigungen einrichten. Nach meiner Erfahrung ist es nützlich, seinen Tutor über die eigene Zeitplanung zu informieren.)
- Studierende anderer Fernhochschulen können EBooks des Springer Verlags über ihre jeweiligen Lernplattformen nutzen. Warum geht das (ausgerechnet) bei Springer Campus nicht? Tatsächlich geht es! Aber nicht über die Lernplattform sondern über die Uni-Bibliothek der FH Dortmund.
- Manche Studierende möchten gerne im Vorfeld informiert werden, welche Module bald in neuer Auflage erscheinen werden, um sie gegebenenfalls später zu belegen. Fr. Kreissig berichtete, dass Autoren oft zu optimistisch einschätzen, wie schnell sie ein Lehrbuch überarbeiten können. Geplante Termine können oft nicht eingehalten werden. Aus diesem Grund ist die Kommunikation mit Studierenden in diesem Punkt bislang zurückhaltend.
- Manche Studierende erkundigten sich nach der neuen Plattform. Bei der Einführung gab es ja Schwierigkeiten, so dass viele Studierende lieber wieder zur alten Plattform wechselten. Fr. Kreissig berichtete, dass es inzwischen Wochen ohne Tickets gibt. Die neue Plattform funktioniere nun recht gut. Die Suchfunktion wolle man noch verbessern. Die Studierenden äußerten Verbesserungsvorschläge, z.B. zur Verlinkung zwischen Tests und den Wissensbausteinen, auf die sich die Aufgaben beziehen, um z.B. bei falschen Lösungen schneller zu den relevanten Kapiteln navigieren zu können.   Eine persönlicheEmpfehlung zum Schluss   Die Präsenztage in Dortmund sind überlicherweise zugleich auch Informationstage für Studieninteressierte. Auf Anfrage teilte mir das Studienbüro mit, dass es bei Voranmeldung durchaus möglich sei, an den angebotenen Fach-Vorträgen und Mathe-Tutorien teilzunehmen. Insbesondere den letzten Punkt halte ich für sehr interessant. Vor Aufnahme meines Studiums habe ich mir nämlich große Sorgen gemacht, ob ich die Anforderungen in Mathematik würde bewältigen können. Zwar hatte ich im Abitur einen Mathe-LK und war damit auch gut zurecht gekommen, aber der Schulstoff lag eben viele Jahre zurück. Ich war mir keinesfalls sicher, ob mir der Wiedereinstieg ins Thema gelingen würde. Ich glaube, wer einmal in so ein Mathe-Tutorium reinschnuppert, gewinnt einen guten Eindruck, worum es im Modul Mathe2 geht, dass von vielen Studierenden als der "Knackpunkt" des Studium empfunden wird. Wer das bewältigt, sollte am Rest nicht scheitern. Insofern möchte ich dazu ermuntern, bei Studieninteresse Kontakt mit dem Studienbüro aufzunehmen und die Möglichkeit zu nutzen, sich am Präsenztag selbst ein Bild zu machen. Gerade der informelle Austausch mit anderen Studierenden kann für eine fundierte Studienentscheidung sehr wichtig sein.   Weitere Infos zum Verlauf des Präsenztages folgen.

kurtchen

kurtchen

 

Hochschulzertifikate bei Springer Campus

Springer Campus bietet neben den Bachelor-Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik" auch die Möglichkeit, durch Belegung bestimmter Modul-Kombinationen Hochschulzertifikate zu erwerben. Diese kann man als eigenständige Weiterbildung auf FH-Niveau nutzen. Studierende in den Bachelorstudiengängen erhalten die Zertifikate automatisch, sobald die entsprechenden Modul-Kombinationen belegt und bestanden wurden. Die Zertifikate können so als Meilensteine auf dem langen Weg zum Bachelor dienen.   Für mich persönlich waren diese Zertifikate auch ein Grund, mich für Springer Campus bzw. die FH Dortmund als Studienanbieter zu entscheiden. Vor Aufnahme meines Studiums war ich mir nämlich gar nicht sicher, ob meine Ausdauer für einen kompletten Bachelor reichen würde. Und natürlich könnten auch unerwartete familiäre oder berufliche Ereignisse ein so langfristiges Projekt wie ein berufsbegleitendes Studium zum Scheitern bringen. Insofern habe ich die Zertifikate auch als eine Art Fallschirm betrachten. Falls ich unterwegs abspringen muss, war nicht alles vergebens. Es gibt Etappenziele und auch ein nicht komplett abgeschlossenes Studium kann ein (vorzeigbares) Ergebnis haben.   Und so sieht so ein Hochschulzertifikat aus. (Persönliche Informationen habe ich entfernt).   Im Bereich Informatik werden zur Zeit folgende Zertifikate angeboten: - Junior-Programmierer - Junior Data-Analyst - Anwendungsprogrammierer - Web-Entwickler - Web-Frontend-Programmierer - Software-Architekt - Software-Manager - Requirements Engineer   Zum Teil überschneiden sich die Inhalte der Zertifikate. Ich werde voraussichtlich außer dem Zertifikat "Software-Architekt" keine weiteren Zertifikate im Bereich Software-Technik erwerben. Zwar habe ich auch einige Module aus dem Zertifikat "Requirements-Engineer" schon abgeschlossen, aber dazu gehören auch noch Module, die ich im Wahlpflichtbereich belegen könnte aber - wegen stärkerem Interesse an anderen Themen - nicht belegen möchte.

kurtchen

kurtchen

 

Stand des Studiums

5. Semester - Wintersemester 2018 - Geschäftsprozessmanagement - BWL2   4. Semester - Sommersemester 2017 - Web-Anwendungen 2 - Web-Engineering - Softwaretechnik 2 - Softwaretechnik 3 - Content Management Systeme (CMS) - Data-Mining - XML - BWL1   3. Semester - Wintersemester 2016/2017 - Mathematik 3 - Softwaretechnik 1 - Nicht-sequentielle Programmierung - Statistik - IT-Sicherheit - Mobile Computing   2. Semester - Sommersemester 2016 - Grundlagen der Informatik 3 - Grundlagen der Informatik 4 - Web-Anwendungen 1 - Web-Ergonomie und Web-Design - Computernetze - Mathematik 2   1. Semester - Wintersemester 2015/2016 - Grundlagen der Informatik 1 - Grundlagen der Informatik 2 - Rechnerstrukturen und Betriebssysteme - Datenbanken und SQL - Mathematik 1 - Web-Programmierung   Zusätzlich belegte Module an anderen FHs - theoretische Informatik (WINGS Wismar) - Programmieren in C++ (Virtuelle Hochschule Bayern)   Aktuell in Bearbeitung bei Springer Campus - Text-Mining - Präsentieren - Aktuelle Webtechniken   Danach noch fehlende Pflichtmodule: - Software-Management - Software-Testen - Multimedia - IT-Recht - Wissenschaftliches Arbeiten - Projektarbeit - Bachelorarbeit

kurtchen

kurtchen

 

Modul: Geschäftsprozessmanagement

Das Modul Geschäftsprozessmanagement (GPM) ist ein Pflichtmodul in den Studiengängen Web- und Medieninformatik (WMI) und Wirtschaftsinformatik (WI). Im Studiengang WMI ist es - zu meiner anfänglichen Überraschung - dem Studienbereich IT-Systeme zugeordnet. In beiden Studiengängen wird die Belegung im 3. Fachsemester empfohlen. Formal gibt es keine inhaltlichen Voraussetzungen. Empfohlen werden als fachliche Grundlage aber BWL2 und Grundlagen der Informatik 1 (GdI1). Beide Empfehlungen sind für mich nicht nachvollziehbar. Im Falle von BWL2 liegt das daran, dass ich GPM entgegen der Empfehlung vor BWL2 belegt habe. Möglicherweise wäre mir das Modul also leichter gefallen, wäre ich dem empfohlenen Studienplan gefolgt. Warum ich GdI1 belegt haben sollte, erschließt sich mir nicht.   Die Zuordnung zum Studienbereich IT-Systeme wurde mir im Verlauf des Moduls klarer. Geschäftsprozesse werden in Unternehmen durch IT-Systeme unterstützt. Nun wurden Geschäftsprozesse in vielen Unternehmen klassischerweise funktionsorientiert organisiert. Ähnliche Tätigkeiten wurden in Abteilungen zusammengefasst, in denen Mitarbeiter arbeiteten, die genau für diese Tätigkeiten besonders qualifiziert waren. So hatte ein Unternehmen z.B. eine Auftragssannahme, ein Lager, einen Einkauf, eine Montage und so weiter. Diese Gliederung hatte auch oft damit zu tun, dass bestimmte Produktionsmittel, wie z.B. teuere Maschinen, effizienter genutzt werden konnten und nur ein Mal angeschafft werden mussten.   Die funktionsorientierte Gliederung hat aber auch Nachteile. Ein kompletter Geschäftsprozess, z.B. ein Auftrag für ein Produkt, das mit Teilen aus dem Lager gefertigt werden muss, läuft quer durch die Abteilungen. Beim Übergang von Abteilung zu Abteilung wird der Vorgang in Warteschlangen eingereiht. Die Durchlaufzeit von Prozessen verlängert sich dadurch erheblich. Außerdem hat kein Mitarbeiter einen Gesamtüberblick über den einzelnen Prozess. Beim Übergang von Abteilung zu Abteilung müssen Informationen weitergegeben werden. Dabei kommt es zu Missverständnissen und Fehlern. Haben Kunden im laufenden Prozess Rückfragen oder Änderungswünsche, ist es dadurch oft schwierig, einen klaren Ansprechpartner ausfindig zu machen, weil jeder nur seinen Teilschritt betrachtet und kennt. Werden Teilprozesse parallel in unterschiedlichen Unternehmensteilen bearbeitet, ist es schwierig, bei Änderungen des Auftrags alle Daten konsistent zu halten und alle Beteiligten auf den aktuellen Stand zu bringen. Außerdem spielt ein klassischer Vorteil der funktionsorientierten Gliederung, teure Produktionsmittel müssen nur ein Mal angeschafft werden, in modernen Unternehmen eine geringere Rolle. Viele Geschäftsprozessen transformieren heute Wissen und nicht Material. Die dazu benötigten Produktionsmittel - z.B. PCs - kosten nicht viel.   Transparenz, Schnelligkeit, die Möglichkeit zu Änderungen im laufenden Prozess, spielen dagegen für immer mehr Kunden eine große Rolle. Darum strebt man heute eine prozessorientierte Organisation an. Geschäftsprozesse sollen nicht quer durch die Abteilungen laufen, Mitarbeiter sollen einen Gesamtüberblick über einzelne Prozesse haben, es soll klare Ansprechpartner für Prozesse geben.   Im Hinblick auf IT-Systeme ist die Unterscheidung zwischen funktionsorientierter und prozessorientierter Organisation der Geschäftsprozesse bedeutsam. Ein naiver Ansatz wäre, einfach die bestehenden Geschäftsprozesse in Software abzubilden. Im Falle einer funktionsorientierten Organisation landet man so bei Insellösungen. Der Lagerist bekommt eine Lagerverwaltungssoftware, die Auftragsannahme bekommt ein System zur Erfassung von Aufträgen, die Rechnungsabteilung hat eine Software zur Rechnungsstellung und so weiter. Jede Abteilung fühlt sich durch ihre Software in ihrer Tätigkeit unterstützt. Beim Übergang von Abteilung zu Abteilung müssen Daten von einer Software in die andere übertragen werden. Das macht unnötig Arbeit und führt oft zu Fehlern. Die Daten werden leicht inkonsistent, insbesondere im Fall von nötigen Änderungen. Die Vorteile der Softwareunterstützung können so nicht im vollen Umfang realisiert werden.   Es gibt aber noch einen viel gravierenderen Nachteil. Sollte sich das Unternehmen entscheiden, die bisherigen Geschäftsprozesse zu ändern, z.B. um eine eher prozessorientierte Organisation zu erreichen, müsste die bisherige Software geändert werden. Das können Unternehmen oft nicht selbst. Sie sind auf die Hilfe von externen Spezialisten angewiesen. Software hat also eine Tendenz, bestehende Geschäftsprozesse zu zementieren. Man kann die Organisation nicht mehr einfach ändern, weil man dazu die IT-Systeme ändern müsste.   Aus diesem Grund lohnt es sich, vor Einführung einer IT-Lösung die Geschäftsprozesse genau zu betrachten. Oft lässt sich mit Software-Unterstützung ein effizienterer Ablauf erreichen, z.B. indem man Daten nur ein Mal erfasst und zentral speichert, die Abteilungen vernetzt. Manchmal ist es auch möglich, IT-Systeme von kooperierenden Unternehmen zu vernetzen, sogar über mehrere Unternehmen hinweg. So ist es z.B. möglich, dass Lager automatisch bei Lieferanten Teile nachbestellen, sobald ein größerer Auftrag eingegangen ist.   Soll eine Softwarelösung für ein Unternehmen erstellt werden, reicht es also nicht die Frage zu beantworten: Was machen die? Wie machen die es? Man muss sich auch damit beschäftigen: Könnte man es mit Softwareunterstützung besser und effizienter machen? Welche Änderungen im Ablauf könnten sich ergeben?  Inwiefern ist unsere Software an Änderungen anpassbar? Eben weil IT-Systeme in Unternehmen sehr eng mit den Geschäftsprozessen verknüpft sind, lohnt sich eine Beschäftigung mit Geschäftsprozessen.   Das Lehrbuch   Das Lehrbuch "Geschäftsprozessmanagement" von Thomas Allweyer hat ca. 400 Seiten. Das ist für Module bei Springer Campus ein üblicher Umfang. Die Gliederung des Buches folgt dem Geschäftsprozessmanagement-Kreislauf:
- Strategisches Prozessmanagement
- Prozessentwurf
- Prozessimplementierung
- Prozesscontrolling   Für jemanden wie mich, der keinen leichten Zugang zu BWL-Themen hat, ist es sehr verständlich geschrieben. Konzepte und Begriffe werden anhand von Szenarien in Unternehmen veranschaulicht, so dass man sich stets gut vorstellen kann, was damit gemeint ist. Das Buch enthält viele Diagramme und Abbildungen. Das ist wichtig, weil bei den Einsendeaufgaben und in der Klausur das Zeichnen von ereignisgesteuerten Prozessketten und anderen Diagrammen eine Rolle spielt. Auch viele andere Diagrammtypen spielen im Kurs eine Rolle, z.B. Funktionsbäume, Organigramme aber auch UML-Klassendiagramme, mit denen die Datenobjekte in den IT-Systemen modelliert werden können. Gut gefallen hat mir am Lehrbuch vor allem, dass das Glossar hier einmal nicht am Ende des Buches war. Stattdessen wurden am Ende jedes Kapitels die zentralen Fachbegriffe noch einmal definiert, was ich als gute Wiederholung des Stoffes empfand.   Didaktisch finde ich das Buch hervorragend aufgebaut. Das war in diesem Fall auch wichtig für mich, denn der Stoff war mir völlig neu. Da ich selbst keinen entsprechenden beruflichen Hintergrund habe, war mir die betriebswirtschaftliche Perspektive des Moduls nicht sehr vertraut und ich habe für dieses Modul wesentlich länger gebraucht als gehofft.   Die Tests   Die Tests sind sehr gut auf den Stoff des Lehrbuches abgestimmt. Im Gegensatz zu manchen anderen Modulen, ist hier jede einzelne Lösung ausführlich kommentiert. Wenn man etwas falsch macht, kann man diese Erläuterung lesen und begreift so in der Regel gut, was das Problem war und wo man noch einmal nachlesen müsste. In manchen Modulen sind die Autoren an dieser Stelle sehr zurückhaltend. Das wird damit begründet, die Studierenden zum eigenen Nachdenken anregen zu wollen. Ich habe die Erläuterungen hier mit großem Gewinn gelesen und konnte durch eigene Fehler in Verbindung mit dieser Hilfestellung oft Erkenntnissprünge machen, die sich allein durch die Lektüre des Kurstextes noch nicht eingestellt hatten.   Die Aufgaben   Die Aufgaben waren zahlreich und ebenfalls gut auf den Kurstext abgestimmt. Im Vergleich zu anderen Modulen sind die Aufgaben vor allem im ersten Drittel des Kurses sehr textlastig. Die angegebene Bearbeitungszeit habe ich nie einhalten können. Trotzdem hätten meine Lösungen in vielen Fällen noch ein wenig umfangreicher ausfallen können und sollen. Wer nicht schon "im Thema" ist, sollte für dieses Modul also mehr Zeit einplanen.   Zu den Aufgaben gibt es Lösungshinweise. Diese kommen in Form von Fragen zum Stoff, die der Studierende noch einmal für sich klären soll. Er baut so stufenweise das nötige Hintergrundwissen auf, um die Aufgabe lösen zu können. Dabei müsste er noch einmal wesentlich mehr Text produzieren, um sich so in einer iterativen Vorgehensweise einer guten Gliederung und einer Lösung der Aufgabe zu nähern. Diese Hinweise fand ich sogar etwas zu üppig. Nicht etwa, weil sie die eigene Lösung der Aufgabe vorweg nahmen. Das taten sie ganz und gar nicht. Sie erhöhten den Arbeitsaufwand noch einmal erheblich, weil sie oft auf gründliche Wiederholung des Stoffes und der nötigen Grundlagen setzten. Didaktisch war das zwar ebenfalls hervorragend gemacht, aber irgendwann wollte ich das Modul auch einmal abschließen. Hier fehlte es mir letztlich an Geduld und Fleiß.   Online-Test   Der Online-Test deckte den Stoff des Moduls gut ab. Die Fragen waren neu, so dass man hier eine gewisse Transferleistung erbringen musste. Mein Eindruck ist, dass das Verständnis der vermittelten Konzepte auf diese Weise gut abgeprüft werden kann, was im Hinblick auf die Klausuranmeldung ja auch Sinn der Sache ist. Der Online-Test ist eine gute Möglichkeit, sich ein paar Bonuspunkte zu sichern, wenn man das Lehrbuch gründlich durchgearbeitet hat.   Zur Online-Klausur kann ich diesmal nichts sagen. Aus familiären Gründen habe ich es (erstmals) nicht geschafft, die Online-Klausur noch rechtzeitig zu schreiben. Darum weiß ich bei diesem Modul nicht, ob die Online-Klausur einen realistischen Eindruck von den Aufgaben der Präsenzklausur gibt.   Inhalte   Im Kursteil "Strategisches Management" geht es um folgende Inhalte:
- Zielsystem des Unternehmens
- Balanced Scorecard
- Outsourcing   Interessant für mich war, dass gerade Prozesse, die man outsourcen möchte, genau untersucht werden sollten. Um festzustellen, ob Outsourcing günstiger ist, muss man nämlich zunächst einmal wissen, was die bestehenden Prozesse IM EIGENEN UNTERNEHMEN eigentlich kosten. Dazu muss man auch genau verstehen, welche Leistungen künftig ausgelagert werden und was im eigenen Unternehmen weiterhin zu tun ist. Insbesondere muss man die zu erbringenden Leistungen sehr genau definieren, um sinnvolle Verträge schließen zu können. Und schließlich muss man die Einhaltung der vereinbarten Leistungen überprüfen. Und man muss sinnvolle Schnittstellen zwischen den ausgelagerten Prozessen und den daran anschließenden Prozessen im eigenen Unternehmen definieren. Aus all diesen Gründen, müssen gerade solche Prozesse, die ausgelagert werden sollen, sehr genau untersucht werden.   Im Kursteil "Prozessentwurf" geht es um:
- Nutzen und Inhalt von Prozessmodellen
- Sichten auf Prozesse
- ARIS als Rahmenkonzept
- Leistungen, Funktionen, Daten, Information, Wissen
- Aufbauorganisation
- die Modellierung von Kontrollflüssen mit ereignisgesteuerten Prozessketten (EPK)
- Geschäftsregeln
- Prozessmodelle und Objektorientierung
- Die Auswahl von Prozessmodellen und Notationen
- Prozessanalyse (um Schwachstellen aufzudecken)
- Prozesskostenrechnung
- Simulation
- Qualitäts-Management-Systeme
- integrierte Management-Systeme   Insbesondere das Zeichnen von EPKs spielt bei den Aufgaben immer wieder eine Rolle. Obwohl im Kurs auf verschiedene Softwarewerkzeuge hingewiesen wurde, habe ich das von Hand gemacht, weil ich ja wusste, dass ich in der Klausur auch keine Software zur Verfügung haben würde. Hier hat es sich mal wieder als große Hürde erwiesen, sich beim Arbeiten mit Stift und Papier den Platz gut einzuteilen, um sich nicht "in eine Sackgasse zu zeichnen". Das ist tatsächlich etwas, das mit Übung besser wird. Anfangs lag bei mir viel geknülltes Papier auf dem Boden.   Die EPKs sind oft Grundlage der Prozessanalyse. Sie enthalten im Kern Information zum Workflow. Diese kann aber ergänzt werden mit Informationen zu den Abteilungen, in denen Leistungen erbracht werden, zu Artefakten und Datenobjekten, die erzeugt und konsumiert werden, zu einzelnen Akteuren oder auch verwendeten Produktionsmitteln. Je mehr Informationen man integriert, umso schwieriger wird es, die EPK übersichtlich aufzubauen. Am gefundenen Prozessmodell kann man dann Schwachstellen der bestehenden Prozesse erkennen, z.B. Mehrfachspeicherung von Daten, Organisationsbrüche, unnötige Schleifen und Verzögerungen und vieles mehr. Dies ist dann Grundlage für den Entwurf von verbesserten Abläufen. Im Hinblick auf die Klausur würde ich empfehlen gerade den Stoff dieses Kursteiles sehr aufmerksam zu lernen.   Im Kursteil "Prozessimplementierung" geht es um:
- Change Management
- Betriebswirtschaftliche Standardsoftware
- Workflow-Management-Systeme
- Business-Process-Management-Systeme
- Prozessorientierte Software-Entwicklung   Interessant war für mich vor allem der Abschnitt über Change-Management. Mitarbeiter fühlen sich durch die Umgestaltung von Prozessen oft bedroht. Nicht selten sind optimierte Prozesse Grund für Sorge um den eigenen Arbeitsplatz. Und das ist ja auch nicht immer unbegründet. Es kommt häufig vor, dass Mitarbeiter vordergründig an Prozessänderungen mitarbeiten, aber im Hintergrund versuchen, eben diese Veränderungen auszubremsen. Change-Management beschäftigt sich damit, wie man die Mitarbeiter in Veränderungsprozesse einbezieht, so dass die Implementierung geänderter Prozesse gelingen kann. In vielen Fällen wird das auch dazu führen, dass Änderungen kleiner ausfallen, als man zunächst geplant hatte. Eine kleinere Änderung, die von den Mitarbeitern akzeptiert und umgesetzt wird, wird oft mehr bewirken als ein komplett neu gestalteter und in der Theorie optimaler Prozess, an dem die Mitarbeiter nur widerwillig mitwirken. Ein iteratives Vorgehen ist hier oft sinnvoll. Manchmal ist es gut, größere Änderungen durch erfolgreiche durchgeführte kleinere Änderungen einzuleiten. Mitarbeiter müssen oft an kleineren Beispielen erleben, dass sich wirklich Vorteile ergeben, damit sie zu größeren Schritten bereit sind. Dieses für mich recht spannende Thema wird im Modul leider nur angerissen.   Bei den meisten Themen dieses Abschnittes ist ein klarer Bezug zu IT-Sytemen offensichtlich. Rückblickend würde ich sagen, dass hier ein roter Faden erkennbar ist. Anfangs wurde Software für einzelne Unternehmen erstellt. Aus Kostengründen wurde dann mehr und mehr Standardsoftware benutzt, die für das eigene Unternehmen konfigurierbar sein sollte. Da Software die Tendenz hat, bestehende Prozesse "zu zementieren" ist es wünschenswert, dass Software so gestaltet wird, dass Workflows sich auch von Mitarbeitern anpasen und verändern lassen, die keine einschlägige IT-Ausbildung haben. Man will also Standardlösungen, die von Laien über geeignete User-Interfaces im hohem Maße anpassbar sind, z.B. mit graphischen Tools, die das Zeichnen von Workflows ermöglichen, und die dann in entsprechende Dialoge und Datenflüsse in der Software umgesetzt werden. Hier ging es z.B. um Service-orientied-Architectures (SOA). Dabei werden häufig benötigte Grundfunktionen als Web-Services realisiert, die sich dann flexibel zu komplexeren Abläufen kombinieren lassen.   Im letzten Abschnitt "Prozesscontrolling" geht es um:
- Messung von Prozesskennzahlen
- Planung und Steuerung von Prozessen
- Real Time Enterprise
- Ständige Prozessverbesserung   Insbesondere die Definition von Kennzahlen ist sehr wichtig, um den Erfolg von eingeführten Veränderungen beurteilen zu können. Interessant war für mich vor allem der Abschnitt über Real Time Enterprise. Hier geht es um die Fähigkeit von Unternehmen (mit Hilfe von Informationssystemen) auf wichtige Ereignisse sehr schnell reagieren und sich flexibel anpassen zu können, z.B. auf Veränderungen der Nachfrage, eine örtliche Verlagerung von Nachfrage, schnell steigende oder sinkende Zahlen von Service-Anfragen, eine sich schnell verändernde Wettbewerbssituation und ähnliche Szenarien. Dazu sammeln IT-Systeme fortlaufend relevante Daten und präsentieren sie Entscheidungsträgern in geeigneter Form. Dazu gehören z.B. auch automatisch generierte Benachrichtigungen, Warnungen und dergleichen.   Präsenzklausur   Die Klausur deckte die verschiedenen Themen des Moduls breit ab. Das Zeichnen von Diagrammen spielte - wenig überraschend - eine große Rolle, sowohl im Hinblick auf Punkte als auch im Hinblick auf die Bearbeitungszeit. Insgesamt empfand ich die Zeit als recht knapp, um alles schaffen zu können. Es gab viele kleinere Aufgaben. In der Vorbereitung würde ich den Schwerpunkt auf den Kursteil "Prozessentwurf" legen. Das Zeichnen von Diagrammen auf Papier sollte man geübt haben. Insgesamt fand ich die Klausur fair gestellt. Ob ich das auch in eine erfreuliche Note umsetzen kann, bleibt abzuwarten.   Fazit   Erste Grundlage des Moduls Geschäftsprozessmanagement ist das verständlich geschriebene Lehrbuch von Thomas Allweyer. Durch die gute Verzahnung mit den Online-Tests und Aufgaben wird ein didaktisch hervorragendes Modul daraus. Ich schreibe das, obwohl mir das Thema überhaupt nicht lag. Zwar empfand ich GPM als wesentlich spannender als BWL1, aber meine grundsätzlichen Schwierigkeiten mit BWL-Themen machten sich auch hier bemerkbar. Das Modul war aber so beschaffen, dass man mit Fleiß und Ausdauer weit kommen konnte. Ein bisschen Spaß hatte ich unterwegs dann doch. Insbesondere wurde immer wieder ein klarer Bezug zur Informatik hergestellt, was natürlich meinen Interessen eher entsprach.   Ich glaube, dass der Stoff des Moduls sehr nützlich ist, wenn man Software im Unternehmenskontext entwickelt und mit Menschen kommunizieren muss, die betriebswirtschaftlich denken. Insofern habe ich mich bemüht, die hier dargebotenen Inhalte mit Offenheit und wachem Geist aufzunehmen. Allerdings hoffe ich nun auch, dass mit der Klausur das Modul geschafft ist und der zwar nicht allzu große aber für mich doch recht einschüchternde Hügel BWL wieder ein bisschen kleiner geworden ist.   Ausblick   Als nächstes möchte ich das Modul BWL2 bearbeiten. Da geht es um Unternehmensführung und Ökonomie (Volkswirtschaft). Ich erwarte, dass mir das mehr Spaß machen wird als BWL1 aber weniger als GPM. Aber warten wir mal ab, wie sich die Sache anlässt.   Parallel dazu möchte ich gerne mit Text-Mining weiterkommen. Der Inhalt dieses Moduls ist mathematischer als ich vermutet hätte. Der Stoff ist sehr interessant aber leider auch nicht ganz einfach.

kurtchen

kurtchen

 

Modul: BWL1

Das Modul BWL1 ist Pflichtmodul sowohl für die Studierenden der Wirtschaftsinformatik als auch für die der Web- und Medieninformatik. Die Wirtschaftsinformatiker belegen zuvor noch das Modul "Grundlagen der BWL", über das ich leider nichts sagen kann. Möglicherweise hätte mir die Belegung dieses Moduls die Bearbeitung von BWL1 erleichtert. Web- und Medieninformatiker müssen im weiteren Studienverlauf mindestens noch BWL2 belegen. Für die Wirtschaftinformatiker folgen noch einige weitere BWL-Module:
- strategisches Management und Controlling
- Electronic Business
- Human Ressource Management   Für angehende Web-Informatiker wie mich ist BWL1 schon im 1. Semester vorgesehen. Ich hatte dieses Modul jedoch lange vor mir hergeschoben. Inzwischen hat sich das zu einem Bremsklotz meines Studiums entwickelt. BWL1 ist Voraussetzung für das Modul "Geschäftsprozess-Management" und für BWL2. Letzteres ist wiederrum Voraussetzung für weitere Module, die ich gerne belegen möchte, z.B. für "Business Intelligence". Es half also alles nichts. Ich musste dieses Thema endlich angehen.   BWL habe ich lange vor mir hergeschoben   Grund für meine "Aufschieberitis" war meine Vermutung, dass mir dieses Modul nicht so leicht fallen würde. Ich war Schüler eines katholischen Gymnasiums, das sich durchaus bemüht hat, mir eine solide Allgemeinbildung zu vermitteln. Betriebswirtschaftliche oder volkswirtschaftliche Grundkenntnisse gehörten damals aber nicht zum Kanon. Es wird ja in letzter Zeit immer häufiger beklagt, dass solche Themen in den Lehrplänen vieler allgemeinbildender Schulen nicht vorgesehen sind. Ich kann sowohl das FÜR als auch das WIDER der laufenden Diskussion nachvollziehen und möchte mich diesbezüglich auch gar nicht positionieren. Festzuhalten bleibt einfach, dass ich ohne nennenswerte Vorkenntnisse in dieses Modul gestolpert bin. Auch meine beruflichen Erfahrungen haben mir hier nichts genutzt. Als Beschäftigter in einem sozialpädagogischen Beruf genieße ich den Vorteil, einen vergleichsweise abwechslungsreichen Berufsalltag zu haben und innerhalb meines Berufes ganz unterschiedliche Kompetenzen entwickeln zu können. Betriebswirtschaftliche Kenntnisse gehörten in meinem Fall aber nicht dazu. Hier hatte ich immer das Glück, dass in unserer Verwaltung kompetente Kollegen saßen, die die abrechnungstechnischen Probleme für mich lösten. Das ist schön, weil es mir den Rücken für meine eigentlichen Aufgaben frei hält. Ich habe aber auch gemerkt, dass Kommilitonen, die in einem betrieblichen Umfeld arbeiten oder gar selbstständig sind, die Themen des Modules zugänglicher finden.   Kursaufbau   Der Kurs besteht aus 2 Lehrbüchern von 2 verschiedenen Autoren: "Basiswissen Externes Rechnungswesen" von Frank Wischmann und "Basiswissen Internes Rechnungswesen" von Rainer Ostermann. Zusammen kommt man auf an die 500 Seiten Lehrtext, so dass der Kursumfang für ein Modul bei Springer Campus als leicht überdurchschnittlich gelten kann.   Teil 1: Externes Rechnungswesen   Insbesondere mit dem Kursteil zum externen Rechnungswesen habe ich mich sehr schwer getan. Inhalte dieses Kurses sind:
- Bilanz ziehen, Bilanzaufbau, Inventar und Inventur, Kapitalarten
- die Buchhaltung als Teilgebiet des Rechnungswesens
- die rechtlichen Grundlagen der Buchführungspflicht
- Darstellung von Grundgeschäftsfällen mit T-Konten
- Buchungssätze
- Erfolgsbuchungen
- das System der Umsatzbesteuerung
- besondere Geschäftsfälle wie Beschaffung, Handelswaren, fertige und unfertige Erzeugnisse, Bezugskosten und Wertreduzierung, Grundlagen der Anlagenwirtschaft und der Personalwirtschaft
- private Vorgänge wie Privatentnahmen und -einlagen
- Bilanzierungsgrundsätze und -maßstäbe
- Gewinn- und Verlustrechnung
- aktive und passive Rechnungsabgrenzungsposten
- Rückstellungen
- Bewertung des Anlagevermögens, des Umlaufvermögens, der Forderungen und der Verbindlichkeiten
- Bilanzpolitik und Bilanzkennzahlen   Die meisten dieser Begriffe waren mir zu Beginn des Kurses völlig unbekannt. Das externe Rechnungswesen richtet sich nicht allein an Akteure innerhalb des Unternehmens sondern vor allem an solche außerhalb des Unternehmens. Zum Beispiel ist die Bilanz Grundlage für die Besteuerung des Unternehmen; insofern werden die Bücher z.B. auch für das Finanzamt geführt. Aber auch Kapitalgeber haben ein legitimes Interesse an den Büchern. Ihnen gegenüber muss man nachweisen, dass man ordentlich gewirtschaftet hat, um sich nicht etwa der Insolvenzverschleppung schuldig zu machen. Aus diesem Grund wird das externe Rechnungswesen stark durch gesetzliche Vorgaben und durch Konventionen bestimmt. Im Kurstext wird regelmäßig auf Paragraphen verwiesen, z.B. aus dem Handelsgesetzbuch oder auf Steuergesetze. Es empfiehlt sich, diese Texte als Sekundärliteratur zu besorgen und dort nachzuschlagen, wovon im Kurs die Rede ist. Schon allein, um sich an die spezielle juristische Sprache zu gewöhnen, die dort verwendet wird, was zumindest für mich im Laufe des Kurses immer eine zusätzliche Hürde blieb.   Herausforderung doppelte Buchführung   Große Schwierigkeiten hatte ich auch damit, die innere Logik der doppelten Buchführung zu verstehen. Jeder Vorgang wird grundsätzlich auf 2 Konten gebucht, einmal im Soll und einmal im Haben. Vieles davon war für mich kontraintuitiv und ich habe oft zurückblättern müssen, um Themen und Begriffe erneut zu erarbeiten, von denen ich eigentlich glaubte, sie endlich verstanden zu haben. Ein Beispiel für meine Schwierigkeiten: Gewinne werden im Eigenkapital als Haben gebucht, also im Prinzip als Schulden oder Verbindlichkeiten des Unternehmens. Das liegt daran, dass ein Unternehmen das Eigenkapital den Kapitalgebern schuldet, die es aus dem Unternehmen entnehmen könnten. Macht ein Unternehmen Verluste, so werden diese - für mich zunächst überraschend - im Eigenkapital ins Soll gebucht. Die Schuld gegenüber den Kapitalgebern schrumpft und diese können nun weniger Geld aus dem Unternehmen entnehmen. Wenn man einmal begriffen hat, warum das so gehandhabt wird, ist es in sich schlüssig, aber ich musste mir das sehr mühsam erarbeiten und hatte auch große Schwierigkeiten, mir solche Sachverhalte und Zusammenhänge zu merken.   Online-Tests und Einsendeaufgaben   Die Online-Tests konnte ich selten im ersten Anlauf lösen. Oft habe ich erst durch Rumprobieren die richtige Lösung gefunden. Dann begann meine eigentliche Arbeit: Anhand des Lehrbuches nachvollziehen, warum nun gerade DAS die richtige Lösung war. Das sorgte dann doch für gelegentliche Aha-Erlebnisse, die ich mir aber mühsam erkämpfen musste.   Dabei glaube ich nicht, dass meine Schwierigkeiten dem Lehrtext geschuldet sind. Ich habe mir aus der Bibliothek Sekundärliteratur besorgt, hatte damit aber die gleichen Schwierigkeiten. Letztlich bin ich immer wieder auf den Lehrtext zurück gekommen, der immerhin den Vorteil einer kompakten, auf den Punkt kommenden Darstellung hatte. Nachdem ich mit den meisten Modulen meines Studiums recht gut zurecht gekommen bin, so z.B. auch mit den allgemein gefürchteten Mathematik-Modulen, ist mit dem externen Rechnungswesen meine Achillesferse gefunden. Dieses Thema wollte mir einfach nicht ins Hirn.   So überrascht es nicht, dass ich auch bei den Einsendeaufgaben selten die volle Punktzahl erzielen konnte. Auch wenn ich meist viel mehr Zeit investiert hatte, als eigentlich vorgesehen war, und mir auch gelegentlich Rat von Kommilitonen eingeholt hatte: Irgendetwas war doch meistens falsch. Natürlich war es kein Problem, die Zulassung zur Online-Klausur zu bekommen. Aber im Hinblick auf die Präsenzklausur machte ich mir schon Sorgen, wie ich vergleichbare Aufgaben unter Zeitdruck und ohne die Möglichkeit, im Lehrbuch nachzuschlagen, lösen sollte. Nicht ganz zu unrecht, wie sich herausstellen sollte.   Gleichwohl kann ich mich über den Lehrtext und die tutorielle Betreuung nicht beklagen. Aus Gesprächen mit BWL-affineren Leuten weiß ich, dass von uns nichts unmögliches verlangt wurde. Der Kurs behandelt recht grundlegende Themen und die Anforderungen der Klausur sind nicht zu hoch. Meine Schwierigkeiten haben wohl eher etwas mit meinem persönlichen Begabungsprofil zu tun.   Teil 2: Internes Rechnungswesen   Zum Glück fiel mir der zweite Kursteil zum internen Rechnungswesen leichter. Das interne Rechnungswesen richtet sich an Akteure innerhalb des Unternehmens. Seine Ergebnisse dienen z.B. der Preisfindung. Sie sind aber auch Grundlage für unternehmerische Entscheidungen, z.B. zwischen eigener Fertigung oder Fremdbezug einer Komponente. Hier geht es darum, Kosten zu ermitteln und auf Kostenstellen umzulegen, um für Produkte und Dienste Preise zu finden, die einerseits wettbewerbsfähig und andererseits kostendeckend sind.   Dazu ein Beispiel: Wegen meines Umzuges war ich in den letzten Wochen häufiger bei IKEA. In der Markthalle stehen Einkaufswagen, die die Kunden mit ihren Möbelkartons beladen. Auf dem Parkplatz lassen sie die Wagen stehen. Nun muss jemand regelmäßig Wagen zurück in die Markthalle schieben und das verursacht der Filiale Kosten. Diese müssen in irgendeiner Weise auf die Produkte umgelegt werden. Wenn ich mein neues Billy-Regal mit nach Hause nehme, ist im Preis auch das Zurückschieben meines Einkaufswagens enthalten. Aber woher weiß man, wie viel man auf den Preis eines Regals aufschlagen muss, damit solche Kosten gedeckt sind? Und was ist mit anderen Kosten, die sich nur schwer einem einzelnen Artikel zurechnen lassen? Die Kundentoiletten mit ihrem Wasserverbrauch, die Handwerker, die das Gebäude instand halten, die Kosten für die Aktualisierung der Homepage, für die Kataloge, die Verwaltung...   Nach dem Kurs zum internen Rechnungswesen versteht man etwas besser, wie so etwas abläuft. Die grobe Gliederung des Kurses ist:
- Kostenartenrechnung
- Kostenstellenrechnung
- Kostenträgerrechnung
- Weiterentwicklung der Kostenrechnung, z.B. mit Normalkostenrechnung oder Plankostenrechnung.   Die Einsendeaufgaben waren für mich nachvollziehbarer als im externen Rechnungswesen. Nach meiner Empfindung ist das interne Rechnungswesen ein bisschen mehr "common sense" während das externe Rechnungswesen ein bisschen mehr "Konvention" ist. Im internen Rechnungswesen geht es oft darum, Gemeinkosten Kostenträgern und Kostenstellen zuzuordnen. Da das Rechnungswesen selbst Kosten verursacht, muss man immer wieder abwägen zwischen möglichst präziser Zuordnung der Kosten einerseits und dem Aufwand für diese Zuordnung andererseits, der natürlich vertretbar bleiben muss. Interessant ist, dass sich viele kleine und mittelständische Unternehmen diesen Aufwand komplett sparen und gar kein internes Rechnungswesen haben. Verpflichtet sind sie dazu auch nicht. Die entsprechenden Aufschläge und Umlagen auf Produkte und Dienstleistungen werden dann eher intuitiv oder nach Erfahrung festgelegt. So kann es aber leicht passieren, dass ausufernde Kosten in bestimmten Bereichen lange unbemerkt bleiben, was dann Gewinne aufzehrt. Oder dass ungünstige unternehmerische Entscheidungen getroffen werden. Manche Ergebnisse der Kostenrechnung können nämlich durchaus kontraintuitiv sein. So kann es manchmal den Gewinn eines Unternehmens mehren, Produkte z.T. zu einem Preis anzubieten, der unter den Selbstkosten liegt, weil sich so Gemeinkosten auf eine größere Stückzahl verteilen und die Gewinnmarge für andere Teile der Produktion so größer wird. Ich war oft überrascht, was bei meinen Rechnungen heraus kam.   Das interne Rechnungswesen war für mich jedenfalls interessant und hat auch Spaß gemacht.   Was kann man am Ende des Moduls?   Mir gefallen am Modul auch die realistisch formulierten Ziele: Natürlich wissen wir am Ende nicht genug, um im internen oder externen Rechnungswesen tätig zu werden. Es geht eher darum, dass wir mit Menschen zu tun bekommen werden, die im Rechnungswesen tätig sind. Mit denen sollen wir besser kommunizieren können. Wenn wir Entscheidungen mittragen oder umsetzen müssen, die vom Rechnungswesen informiert sind, können wir damit vielleicht besser umgehen, weil wir zumindest ein erstes Verständnis für die Notwendigkeiten und Zwänge des Rechnungswesens haben. Dass ich hier ein paar Fortschritte gemacht habe, bemerke ich bereits, auch wenn ich befürchte, das sich das nicht in meiner Klausurnote bemerkbar machen wird.   Online-Klausuren   In der Online-Klausur konnte ich mir ein paar Bonuspunkte sichern. Eine Besonderheit in diesem Kurs ist, dass man zwei Online-Klausuren schreiben kann, eine für jeden Kursteil. Das bedeutet natürlich auch doppelten Zeitaufwand. Gleichzeitig kann man pro Klausur nur die Hälfte der sonst üblichen Bonuspunkte erlangen. Ich glaube, meine Bonuspunkte werde ich diesmal gut gebrauchen können. In der Online-Klausur konnte ich mich natürlich an den bislang gelösten Einsendeaufgaben orientieren und in den Lehrbüchern nachschlagen. Das darf man in der Präsenzklausur nicht. Dies ist also ein Kurs, bei dem auch ein bisschen Auswendiglernen gefragt ist. Beim internen Rechnungswesen war das nicht so nötig, weil ich hier vieles plausibel fand, so dass ich mir vergessene Details wieder erschließen konnte. Beim externen Rechnungswesen hingegen, das stark durch gesetzliche Vorgaben bestimmt wird, muss man mehr WISSEN. Für die Online-Klausur im externen Rechnungswesen kann ich anderen Studierenden den Hinweis geben, dass bei vielen anwendungsbezogenen Aufgaben auch nach den Paragraphen gefragt wird, die das Vorgehen bestimmen. Beim internen Rechnungswesen ist es nützlich zu wissen, dass auch Stoff aus dem letzten Kapitel "Die Weiterentwicklung der Kostenrechnung" abgeprüft wird.   Präsenzklausur   Kommen wir zur Präsenzklausur: Sie dauert 2 Stunden. Die Punkte verteilen sich genau gleichmäßig auf internes und externes Rechnungswesen. Beim externen Rechnungswesen gab es einige Wissensfragen zu grundlegenden Konzepten und Begriffen. Hier sollte man sich mit gründlicher Vorbereitung und fleißigem Lernen Punkte sichern können. Genau das habe ich neben meinem Umzug leider nicht geschafft. Bei vielen Aufgaben wurden Geschäftsvorgänge geschildert und man sollte zeigen, welche Buchungen das auf welchen Konten auslöst. Meine grundlegenden Schwierigkeiten mit diesem Thema zeigten sich auch in der Klausur. Es gibt keine Aufgabe, bei der ich mir sicher bin, das richtige Ergebnis geliefert zu haben. So blieb mir nur, bei möglichst jeder Aufgabe eine Lösung zu versuchen. Unterm Strich meine ich aber, dass die Klausur durchaus gutmütig gestellt war. Es ist schon meine eigene Verantwortung, falls ich diesmal nicht bestehen sollte.   Die Aufgaben zum internen Rechnungswesen erschienen mir anwendungsbezogen und praktisch. Bearbeitungsschritte, an die ich mich nicht mehr erinnern konnte, glaubte ich mir erschließen zu können. Was diesen Teil der Klausur angeht, bin ich optimistischer. Anderen Studierenden würde ich empfehlen, zur Vorbereitung vor allem die Einsendeaufgaben und die Aufgaben der Online-Klausur zu wiederholen.   Ein Ergebnis liegt mir noch nicht vor. Ich erwarte aber diesmal nicht, gut abzuschneiden. Angesichts der vielen Aufgaben in Beruf und Privatleben und der knappen Vorbereitungszeit wäre ich diesmal zufrieden damit, die Klausur nicht wiederholen zu müssen; auch wenn das zu Lasten meines Notendurchschnitts gehen sollte. Ich wäre einfach froh, dieses Modul hinter mir lassen zu können.   Trotzdem war es sicher gut, sich einmal mit dem Thema Rechnungswesen auseinander zu setzen. Mein Respekt und meine Wertschätzung für Leute, die solche Aufgaben tagtäglich für mich erfüllen, hat durch das Modul jedenfalls zugenommen.   Wie geht es weiter?   Als nächstes möchte ich nun BWL2 und Geschäftsprozess-Management bearbeiten; beides Module, denen ich nicht unbedingt entgegen gefiebert habe. Beim Geschäftsprozess-Management habe ich inzwischen einen Teil des Lehrbuches gelesen. Es ist interessanter als ich dachte und ich sehe mehr Bezüge und Analogien zur Informatik als ich vermutet hätte. Das könnte eigentlich noch richtig Spaß machen.   In BWL2 soll es um Ökonomie und Unternehmensführung gehen. Insbesondere beim Kursteil Ökonomie hoffe ich, dass ich daraus etwas mitnehmen kann. In der täglichen Berichterstattung der Medien spielt ja das wirtschaftliche Geschehen eine große Rolle und es ist auch politisch relevant. Oft habe ich das Gefühl, dass meine Allgemeinbildung nicht ausreicht, um hier folgen zu können. Vielleicht wird meine Zeitungslektüre nach diesem Modul ja etwas aufschlussreicher als bislang.

kurtchen

kurtchen

 

Modulbericht: XML

Welche Bedeutung hat das Modul XML im Studiengang?   Das Modul XML ist Pflicht für Studierende im Studiengang Web- und Medieninformatik. Es ist zugleich Baustein für die Hochschulzertifikate "Web-Entwickler" und "Software-Architekt" und wird als sinnvolle Vorbereitung für das Modul "Aktuelle Webtechniken" genannt, bei dem es um Java Server Faces geht. Die inhaltlichen Voraussetzungen für XML sind überschaubar; lediglich "Grundlagen der Informatik 1" sollte man belegt haben. Im Prinzip könnte man XML also schon im ersten Semester belegen.   Für Studierende der Wirtschaftsinformatik ist dieses Modul nicht vorgesehen. Sie erwerben Grundkenntnisse in XML im Pflichtmodul "Web-Programmierung". Dort ist XML aber nur ein Thema unter vielen.   Grundlage für das Modul ist das Lehrbuch "XML - DTD, XML-Schema, XPath, XQuery, XSLT, XSL-FO, SAX, DOM" von Margit Becher. Die Autorin war zugleich auch meine Tutorin, was bei Fragen zum Lehrtext immer praktisch ist. Das Lehrbuch hat an die 300 Seiten; der Umfang ist also für Springer Campus leicht unterdurchschnittlich. Die Stofffülle ist dennoch nicht zu unterschätzen.   Was ist XML?   Worum geht es nun? XML ist eine Auszeichnungssprache, d.h. Text oder andere Inhalte werden mit sogenannten Tags eingeschlossen. Die Tags spezifizieren z.B., um was für eine Art Inhalt es sich handelt, etwa einen Namen, ein Datum oder auch einen komplexen, zusammengesetzten Inhalt wie eine Adresse oder eine komplette Bestellung. Die Auszeichnung erleichtert es Maschinen, die Inhalte zu verarbeiten.   Im Gegensatz zu HTML sind in XML die Tags nicht vordefiniert. Der Autor eines XML-Dokumentes kann selbst nach Bedarf Tags definieren und verwenden. XML ist also erweiterbar - engl. extensible - und das Kürzel XML steht für Extensible Markup Language. Zu beachten ist lediglich, dass geöffnete Tags wieder geschlossen werden und dass Tags sich nicht überlappen dürfen. Sie können lediglich ineinander geschachtelt werden. Dies nennt man Wohlgeformtheit. Tags können auch Attribute aufweisen. Man kann sich vorstellen, dass dem Element Eigenschaften hinzugefügt werden.   Ein XML-Dokument kann man als Baumstruktur visualisieren. XML-Dateien sind maschinenlesbar und zugleich menschenlesbar. Aus diesem Grund eignen sie sich z.B. gut für Konfigurationsdateien. Man kann XML aber auch gut verwenden, um strukturierte Daten systemübergreifend oder über das Internet auszutauschen.  XML-Dateien können mit CSS-Stylesheets verknüpft werden. Die Tags stehen dann für die Struktur der Daten, innerhalb der Tags stehen die eigentlichen Daten und das Stylesheet gibt an, wie die Daten darzustellen oder zu präsentieren sind.   Mit DTD oder XML-Schema definiert man die Struktur einer XML-Datei   Interessant ist zunächst die Möglichkeit, die Struktur der Daten in einer XML-Datei in allgemeiner Form zu beschreiben. Man kann z.B. festlegen, dass eine Adresskartei aus Adressen besteht, die wiederum aus Name, Straße, Hausnummer, Postleitzahl und Ort in genau dieser Reihenfolge bestehen müssen. Ein XML-Dokument ist dann eine Instanz oder eine konkrete Ausprägung dieser allgemeinen Struktur. XML-Dateien können gegen eine solche Strukturdefinition gecheckt werden, d.h. ein Algorithmus prüft, ob die Datei der festgelegten Struktur entspricht. Ist dies der Fall, sagt man, die Datei sei valide. Das ist nützlich für Software, die Daten in XML-Form automatisiert verarbeiten soll. Man kann so Fehler in der Verarbeitung der Datei vermeiden.   Es gibt 2 Möglichkeiten, die Struktur einer XML-Datei zu definieren. Die ältere ist die DTD (Document Type Definition). Die neuere ist XML-Schema. Letzteres ist komplexer, hat aber viele Vorteile. Besonders nützlich ist die Möglichkeit, viele verschiedene Datentypen zu unterscheiden, z.B. nummerische Werte, Datumswerte, Uhrzeiten und dergleichen. Man kann auch eigene Datentypen definieren, z.B. durch Werteinschränkung oder Kombination vordefinierter Typen. So kann die Struktur der zu verarbeitenden Daten viel präziser beschreiben als mit der DTD. Im Kurs werden beide Möglichkeiten ausführlich behandelt. Im Gegensatz zum Modul "Web-Programmierung" werden auch viele Detailfragen geklärt und seltener auftretende Anwendungsfälle vorgestellt. Einsendeaufgaben hier bestehen üblicherweise darin, in natürlicher Sprache spezifizierte Anforderungen an eine Datenstruktur als DTD oder XML-Schema präzise zu beschreiben.   Wir können nun strukturierte Daten in einer Textdatei ablegen, die für Maschine wie Mensch zu lesen ist. Wir können die Struktur der Daten präzise beschreiben und eine Maschine prüfen lassen, ob Daten die für eine automatisierte Verarbeitung nötige Struktur haben.   Mit XPath und XQuery extrahiert man Informationen aus einer XML-Datei   XML-Dokumente können sehr lang und umfangreich werden. Nun gibt es Anwendungsfälle, bei denen man bestimmte Informationen aus einem XML-Dokument extrahieren möchte. Dazu werden im Kurs 2 Möglichkeiten behandelt: XPath und XQuery. XPath bietet die Möglichkeit, durch die Baumstruktur des Dokumentes zu navigieren und Elementeinhalte und Attribute zu testen, um bestimmte Elemente und Attribute herauszufiltern. Aus einer umfangreichen Vorlesungsliste in XML-Form kann man so z.B. alle Lehrveranstaltungen eines bestimmten Professors im Sommersemester eines bestimmten Jahres mit mehr als 2 SWS herausfiltern. XQuery bietet noch weitergehende Möglichkeiten, z.B. durch Schleifen. XQuery wird manchmal auch "SQL des 21. Jahrhunderts" genannt. Ganz so elegant und deklarativ wie SQL ist es aber - zumindest in der im Kurs behandelten Version - noch nicht. So müssen z.B. Joins noch von Hand ausprogrammiert werden. Bei Einsendeaufgaben in diesem Kursabschnitt geht es in der Regel darum, aus einer gegebenen XML-Datei bestimmte Informationen per XPath oder XQuery zu extrahieren.   Mit XSLT kann man XML-Dokumente automatisch in andere Dokumente transformieren   Im nächsten großen Kursabschnitt geht es um XSLT. Diese Technik ermöglicht, ein XML-Dokument in ein anderes Dokument zu transformieren, z.B. ein neues XML-Dokument aber auch in eine HTML-Datei. In XSLT können XPath-Ausdrücke verwendet werden. Man kann XSLT also z.B. benutzen, um aus einer XML-Datenbasis bestimmte Informationen zu extrahieren und daraus automatisch HTML-Seiten oder Fragmente von HTML-Seiten zu bauen. Dazu werden Schablonen definiert, die auf bestimmte Elemente des XML-Dokumentes angewendet werden. Bei Einsendeaufgaben in diesem Kursabschnitt ist üblicherweise ein XML-Dokument vorgegeben, das per XSLT in HTML-Dokument transformiert werden soll, das ausgewählte Inhalte des ursprünglichen Dokumentes in bestimmter Form präsentiert. In einem eigenen Kapitel wird noch XSL-FO vorgestellt. Das kann z.B. benutzen, um aus XML-Dateien automatisch PDFs zu erzeugen.   Der Abschluss des Kurses bildet ein Kapitel über die Verarbeitung von XML in Java mit SAX und DOM. Dieses durchaus interessante Kapitel ist allerdings nicht mehr prüfungsrelevant.   Ein gutes Modul, wenn man die richtigen Werkzeuge nutzt   Der Lehrtext ist gut strukturiert und die Aufgaben sinnvoll darauf abgestimmt. Die Rückmeldungen durch meine Tutorin waren präzise, hilfreich und kamen meist schnell. Zu Beginn des Kurses habe ich leider viel Zeit vergeudet, indem ich versucht habe, ohne den empfohlenen XML-Editor OxygenXML auszukommen. Der ist proprietär und leider nicht billig. Studierende können ihn allerdings für 30 Tage kostenlos testen, nachdem sie sich registriert haben. 30 Tage erschienen mir etwas knapp für die Bearbeitung des Kurses. Darum hatte ich zunächst versucht, mit OpenSource-Tools auszukommen. Den Kursteil zur DTD und zu XML-Schema konnte ich so noch gut bearbeiten, auch wenn es müsam voran ging. Spätestens für XPath ist es von enormem Vorteil, einen professionellen XML-Editor zu Verfügung zu haben. Als ich mich schließlich doch wiederwillig für OxygenXML registrierte, musste ich nach wenigen Minuten einsehen, dass das besser von Anfang an hätte machen sollen. Man kann damit viel komfortabler und vor allem schneller arbeiten. Eiert also nicht rum wie ich sondern besorgt euch von Anfang an das richtige Werkzeug.   Online- und Präsenz-Klausur   Online-Klausur und Präsenzklausur fand ich vom Schwierigkeitsgrad vergleichbar. Der Zeitdruck in der Online-Klausur erschien mir höher. Möglicherweise wurde hier in Anschlag gebracht, dass man in der Präsenzklausur keine Entwicklungsumgebung zur Verfügung hat, während der Online-Klausur aber schon.   In der Präsenzklausur war EIN XML-Dokument gegeben. Auf der Grundlage dieses Dokumentes wurden ALLE wesentlichen Themen des Kurses abgeprüft: DTD, XML-Schema, XPath, XQuery und XSLT. Das erscheint mir vernünftig. Indem sich alle Aufgaben auf EIN Dokument  beziehen, muss man sich nicht ständig neu einlesen und die Prüfer können den Stoff breiter abdecken. Mein Eindruck war, dass die Aufgabenstellungen sich auf häufig verwendete Anwendungsfälle konzentrieren, hier also nicht die exotischsten Spezialfälle abgefragt werden. Ein Klausurergebnis liegt mir aber noch nicht vor.   Fazit   XML hat mir Spaß gemacht. Man braucht nicht viel Phantasie, um sich vorzustellen, welchen Nutzen diese Sprache für einen Web-Informatiker haben könnte. Wünsche, was ich gerne NOCH gelernt hätte, sind bei mir diesmal nicht offen geblieben; das Modul ist aus meiner Sicht inhaltlich vollständig.   Es würde mich nun reizen, auch noch das Modul "Aktuelle Webtechniken" im Wahlbereich zu belegen, bei dem es um Java Server Faces geht. XML wird dafür als inhaltliche Voraussetzung genannt. Kommilitonen, dieses Modul schon belegt haben, berichten mir, dass XML hierfür durchaus sehr nützlich ist. Da ich diese Voraussetzung nun erfülle und mir die Kurse zur serverseitigen Programmierung mit Java gut gefallen haben, bin ich schon sehr gespannt auf diese Einführung in JSF. Allerdings wird es wohl Herbst werden, bevor ich dazu komme. Das größte Chaos meines Umzuges ist zwar überstanden und ich habe nun wieder einen Arbeitsplatz und einen Internetanschluss; trotzdem hängt am Umzug ein Rattenschwanz zu Kleinigkeiten, die noch erledigt werden müssen; und die mir Tag für Tag Zeit rauben, die eigentlich gerne ins Studium stecken würde. Mal sehen, wie lange dieses Stadium noch dauert.

kurtchen

kurtchen



×

Wichtige Information

Diese Seite verwendet Cookies. Datenschutzerklärung