Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    879
  • Benutzer seit

  • Letzter Besuch

Blogbeiträge von kurtchen

  1. kurtchen
    5. Semester - Wintersemester 2018
    - Geschäftsprozessmanagement
    - BWL2
    - Wissenschaftliches Arbeiten
    - Software-Management
    - Software testen
    - Aktuelle Webtechniken
     
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Web-Engineering
    - Softwaretechnik 2
    - Softwaretechnik 3
    - Content Management Systeme (CMS)
    - Data-Mining
    - XML
    - BWL1
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Noch fehlende Pflichtmodule:
    - Multimedia
    - IT-Recht
    - Projektarbeit
    - Bachelorarbeit
  2. kurtchen
    Ich hatte ja in Aussicht gestellt, ab und zu etwas zur Erstellung meiner Bachelorarbeit zu schreiben, falls die Zeit dafür reicht. Eigentlich reicht sie nicht, aber heute tut es mir trotzdem ganz gut, mal einen Schritt zurück zu treten und auf das Ganze zu schauen.
     
    Themenfindung
     
    An meiner FH entwickeln viele Studierende die Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Das eigentlich praxisbezogene Thema der Projektarbeit wird dann mit einer wissenschaftlichen Fragestellung verknüpft und so fortgeführt und erweitert. Ich habe eine Weile geschwankt, ob ich das auch so machen soll.
     
    Mein Projekt war ja die Entwicklung einer Steuersoftware für ein chronobiologisches Experiment. Im Rahmen des Projektes wurde eine erste Entwicklungsstufe erreicht, aber es gab noch einige Anforderungen, die nicht realisiert werden konnten. Insofern hätte hier durchaus die Möglichkeit bestanden, die nächsten Entwicklungsschritte zum Thema meiner Bachelorarbeit zu machen. Allerdings soll die Bachelorarbeit stärker als die Projektarbeit eine wissenschaftliche Fragestellung bearbeiten. Nun soll mein Projekt zwar einem wissenschaftlichen Zweck dienen, aber eben innerhalb der Disziplin der Biologie. Softwaretechnisch gesehen hat es verschiedene Aspekte: Physical Computing, Kommunikation übers Netz, GUI-Programmierung und so weiter. Dennoch tat ich mich zunächst schwer damit, eine für die Informatik relevante Forschungsfrage zu formulieren.
     
    Meine Steuersoftware läuft auf einem Raspberry Pi und bietet ihre Funktionen als WebService im Intranet an. Eine Idee war daher ein Vergleich verschiedener Microframeworks für REST basierte Webservices, die sich gut für Physical Computing (auf vergleichsweise schwachbrüstiger Hardware) eignen. Mein Projekt nutzt z.B. inzwischen das Spark Framework. Der Vorteil wäre gewesen, dass ich die Weiterentwicklung meines Projektes zeitlich mit meiner Bachelorarbeit hätte verbinden können. Wer weiß, vielleicht wäre ich dann sogar schon fertig.
     
    Es gab aber eine Sache, die mir daran nicht so gut gefiel. Die Informatik ist ja meist in einer dienenden Rolle. Sie ist aber auch eine Strukturwissenschaft mit eigenen Erkenntnisgegenständen. Die Bachelorarbeit ist (vielleicht eine letzte) Gelegenheit, sich mit diesem Aspekt der Informatik ausführlicher zu befassen. Darum hatte ich eigentlich Lust auf eine Bachelorarbeit, die einen stärkeren Theorieaspekt hat. Es gab zwei Themen, die mir seit einer Weile im Kopf herumspukten und die ich gerne verbinden wollte.
     
    Funktionale Programmierung
     
    Ich hatte ja hier im Forum mal von einem "Urlaubsprojekt" berichtet, bei dem ich ein bisschen mit dem Lisp-Dialekt Scheme herumexperimentiert habe. Das war in diesem Thread. Das lag daran, dass ich den Wunsch hatte, wenigstens ein anderes Programmierparadigma als die objektorientierte Programmierung kennenzulernen. Die Beschäftigung mit der funktionalen Sprache Scheme hinterließ bei mir viele Fragen und offene Wünsche:
    Scheme wurde als Lehrsprache entwickelt. Ich hatte den Wunsch auch eine funktionale Sprache zu lernen, die für den produktiven Einsatz entwickelt wurde. Mögliche Kandidaten waren hier z.B. Scala, Clojure oder Erlang. Mit dem Erlernen einer funktionalen Sprache ist es ja nicht getan. Schwieriger ist es, seine Denkweise zu ändern. Im Studium habe ich gelernt, Probleme objektorientiert zu modellieren. Ich habe objektorientierte Entwurfsmuster gelernt, die bestimmte Klassen von Problemen lösen. Das führt allerdings auch dazu, dass ich Probleme "durch eine objektorientierte Brille" anschaue. Für die objektorientierte Programmierung gibt es die UML. Wie modelliere ich funktionale Softwaresysteme? Besonders ungewohnt war für mich der Umgang mit unveränderlichen Datenstrukturen. Objektorientierte Programmierung versucht ja, Zuständsveränderungen zu beherrschen, indem Zustände in Objekten gekapselt werden. Funktionale Programmierung versucht, Zustandsveränderungen möglichst zu vermeiden. Allerdings konnte ich mir nicht so richtig vorstellen, wie ein größeres Softwaresystem ohne Zustandsveränderungen auskommen kann.  
    Insgesamt blieb bei mir also der Wunsch, mich noch einmal ausführlicher mit funktionaler Programmierung und meinen offenen Fragen zu beschäftigen. Meine Idealvorstellung wäre ein Modul über Programmierparadigmen gewesen, bei dem man gleiche Programme in unterschiedlichen Paradigmen implementiert und durch den direkten Vergleich an Fallbeispielen die jeweiligen Eigenheiten der Paradigmen verstehen lernt. Da es so ein Modul nicht gab, hatte ich die Idee, in meiner Bachelorarbeit objektorientierte und funktionale Programmierung an einem Fallbeispiel zu vergleichen.
     
    Ich war auch neugierig, ob so ein Vergleich meine Sichtweise auf Programmierung verändern würde. Vielleicht ist es ja ein bisschen wie mit Fremdsprachen. Wenn man eine fremde Sprache lernt, so lernt man zugleich eine Menge über die Eigenheiten seiner eigenen Sprache. Und das umso mehr, je fremdartiger die neue Sprache ist.
     
    Die Grundidee war also ein Sprachvergleich an einem Fallbeispiel. Nun musste noch ein Fallbeispiel her, dass sich für diesen Vergleich eignen würde.
     
    Heuristiken mit Evolutionsstrategie
     
    In diesem Zusammenhang fiel mir ein Artikel über den Sintflut-Algorithmus ein, den Gunter Dueck 1993 in der Zeitschrift Spektrum der Wissenschaft veröffentlicht hatte. Der Sintflut-Algorithmus kann z.B. das Problem des Handlungsreisenden lösen. Hier geht es darum, eine möglichst kurze Rundreise durch eine Anzahl Städte zu finden. Das klingt auf den ersten Blick nicht weiter schwierig, aber die Anzahl der Möglichkeiten wächst sehr rasch. Bei n Städten gibt es (n-1)!/2 Möglichkeiten; also bei nur 16 Städten bereits über 653 Milliarden mögliche Rundreisen. Ein praktisches Rundreiseproblem wäre ein Roboter, der Löcher in eine Platine bohren soll. Damit er mehr Platinen pro Stunde schafft, wäre es wünschenswert, er würde die Löcher ist der bestmöglichen Reihenfolge bohren. Wenn die Platine mehrere hundert Löcher hat, ist die Anzahl der möglichen Routen zu groß, um alle auszuprobieren. Das Problem kann nicht optimal gelöst werden.
     
    Heuristische Algorithmen versuchen den großen Lösungsraum einzuschränken. Sie untersuchen nur einen Teil der Möglichkeiten und finden so schneller eine Lösung, allerdings zu dem Preis, dass sie höchstwahrscheinlich die optimale Lösung übersehen. Ist die Suchstrategie clever, so wird die gefundene Lösung aber nur wenig von einer optimalen Lösung abweichen. Für praktische Anwendungsfälle ist eine gute Lösung, mit der man sofort arbeiten kann, interessanter als eine optimale Lösung, die erst in ein paar hundert Jahren zu bekommen ist.
     
    Eine vergleichsweise einfache Heuristik für das Rundreiseproblem ist die Nearest Neighbour Heuristik. Man wählt eine zufällige Stadt als Startpunkt. Von hier reist man immer zur nächstgelegenen Stadt, die man noch nicht besucht hat. Das liefert oft schon ganz gute Ergebnisse, aber gelegentlich haut die Nearest Neighbour Heuristik auch mal ordentlich daneben. Gleichwohl hat man hier ein einfaches Verfahren, das als Referenz für komplexere Verfahren dienen kann.
     
    Eine Reihe von Algorithmen versuchen, Prinzipien der Evolution für Optimierungsprobleme fruchtbar zu machen. Die Grundidee ist, dass zunächst zufällige Lösungen erzeugt werden, die natürlich nicht besonders gut sind. Diese Lösungen werden nun kleinschrittig variiert, was bedeutet, dass die Varianten der ursprünglichen Lösung "ähneln" sollen. Mutationsoperatoren erzeugen solche zufälligen Varianten. Rekombinationsoperatoren erzeugen Lösungen als Kombination von zwei bisherigen Lösungen. Die bisherigen Lösungen nennt man dann Eltern und die erzeugten Varianten Nachkommen oder Kinder. Zur Strategie wird das aber erst, wenn ein Selektionsmechanismus hinzukommt. Die Varianten werden bewertet, verworfen oder sie verdrängen die bisherigen Lösungen.
     
    Im Falle des Sintflut-Algorithmus ist der Selektionsmechanismus vergleichsweise anschaulich. Man stellt sich den Lösungsraum als Gebirge vor. Die Höhe über dem Meeresspiegel entspricht der Güte der Lösung entsprechend der Bewertungskriterien. Im Falle des Rundreiseproblems wäre also eine kürzere Rundreise ein höherer Punkt im Gebirge. Den Optimierer kann man sich als Wanderer vorstellen, der versucht, im Gebirge einen hohen Punkt zu erreichen. Eine naive Strategie wäre, immer nur bergauf zu gehen. Dann würde man allerdings auf dem ersten kleinen Gipfel "hängenbleiben". Manchmal muss man akzeptieren, dass es schlechter wird, bevor es besser werden kann. Man braucht also eine bessere Strategie als HINAUF. Sintflut fügt diesem Bild einen Regen hinzu, der den Wasserspiegel kontinuierlich ansteigen lässt. Nacheinander versinken so alle Gipfel im Wasser. Der Wanderer streift im Gebirge umher. Er geht rauf oder runter, solange er nur trockene Füße behält. Diese einfache Strategie liefert gute Lösungen für das Rundreiseproblem. Ich finde an solchen Algorithmen persönlich faszinierend, dass hier grundlegende biologische Prinzipien wie Anpassung durch Mutation und Selektion für die Informatik fruchtbar gemacht werden.
     
    Aus verschiedenen Gründen hielt ich derartige Optimierungsverfahren auch für ein interessantes Thema für meine Fallstudie:
    Die Erzeugung von Varianten durch Mutation und Rekombination wäre einen interessanter Anwendungsfall für immutable Datenstrukuren. Simuliert man eine Population von Lösungen, so können Verarbeitungsschritte parallelisiert werden. Von funktionalen Sprachen wird behauptet, dass sie nebenläufige Berechnungen handhabbarer machen. Andererseits sprechen wir hier von randomisierten Algorithmen. Ein Zufallsgenerator ist aber zustandsbehaftet. D.h. man kann auch etwas über den Umgang mit Seiteneffekten lernen, die in der funktionalen Programmierung eigentlich vermieden werden sollen.  
    Die Idee für meine Bachelorarbeit war also ein Vergleich objektorientierter und funktionaler Programmierung am Fallbeispiel verschiedener heuristischer (evolutionärer) Algorithmen zur Lösung des Rundreiseproblems. Ich hatte das Glück an meiner FH einen Professor zu finden, der für diese Idee offen war.
     
    Stand der Bearbeitung
     
    Die Arbeit ist inzwischen angemeldet. Hier ist zu bemerken, dass die Anmeldung einer Bachelorarbeit ein bisschen formaler abläuft als die Anmeldung einer Projektarbeit. Es muss ein Dokument als physischer Gegenstand herumgeschickt und von verschiedenen Personen unterzeichnet werden, weshalb das ganze ein bisschen länger dauern kann als man im Zeitalter elektronischer Kommunikation gewohnt ist. Insofern ist es empfehlenswert, frühzeitig Kontakt zum Erst- und Zweitprüfer und auch zum Studienbüro aufzunehmen.
     
    Den Theorieteil der Arbeit konnte ich inzwischen fertigstellen. Hier geht es vor allem darum, das funktionale Programmierparadigma und verschiedene Heuristiken mit Evolutionsstrategie vorzustellen. Aktuell arbeite ich an der objektorientierten Implementierung meiner Optimierer. Leider geht es im Moment noch gar nicht um die Algorithmen, sondern um GUI- und Graphik-Programmierung, denn ich möchte ja nachvollziehen können, was z.B. meine Mutations- und Rekombionationsoperatoren mit Routen machen. Das geht hoffentlich leichter, wenn ich das visualisieren lassen kann. Ich bin nun schon sehr gespannt darauf, verschiedene Evolutionsstrategien auszuprobieren und ihnen beim Optimieren der Routen zuzuschauen.
     
    Besonders neugierig bin ich natürlich auf die Programmierung in funktionalen Sprachen. Ich möchte Scala und Clojure nutzen. Scala ist eine Hybridsprache, die versucht objektorientierte und funktionale Programmierung zu verbinden. Sie verschafft mir vielleicht einen sanften Einstieg und Übergang. Scala ist auch eine statisch typisierte Sprache mit Typinferenz. In dieser Hinsicht ähnelt es Haskell. Clojure ist ein moderner Lisp-Dialekt. Es ist daher dynamisch typisiert und hat eine fremdartige Lisp-Syntax. Ich bin mit beiden Sprachen nicht vertraut, so dass ich hier einige Überraschungen erwarte.
     
    Scala und Clojure sind JVM-Sprachen, d.h. sie compilieren zu Java-Bytecode, können Java-Code rufen und von Java-Code gerufen werden. Man spricht auch von Java-Interop. Das ist interessant, weil es in der Regel nicht sinnvoll ist, eine komplette Anwendung funktional zu implementieren. Insbesondere GUI-Code ist in hohem Maße zustandsbehaftet, was nicht so gut zum funktionalen Programmierparadigma passt. (Diese Aussage muss man heute eigentlich relativieren, z.B. weil es heute mit Elm eine funktionale Sprache für die Entwicklung von Web-Frontends gibt.) Daher wird das UI der Anwendung klassisch objektorientiert in Java implementiert, aber unter der Haube werkeln Optimierer in Java, Scala und Clojure.
     
    Schreibwerkzeuge
     
    Günstig war, dass ich mir vor Weihnachten Zeit genommen habe, mich in Latex einzuarbeiten und mir eine Dokumentenvorlage zu machen. Das war ein Stück Arbeit und hat mich z.T. auch bei der Bearbeitung meiner letzten Module ausgebremst. Allerdings ist es jetzt sehr schön, dass ich mich aufs Schreiben konzentrieren kann, statt mir über das Layout Gedanken zu machen. Ich würde also jedem empfehlen, sich mit diesem Thema VOR der Bachelorarbeit zu beschäftigen. Sich während dem Schreiben gleichzeitig in Latex einzuarbeiten, dürfte mühsam und ablenkend sein.
     
    Viele Hochschulen bieten Dokumentenvorlagen zum Download an. Das ist natürlich komfortabel, weil man im Idealfall einfach losschreiben kann. Solche Vorlagen sind aber auch für Studierende anderer Hochschulen interessant, weil man sich etwas abschauen kann. Auch meine eigene Hochschule bietet im Rahmen des Moduls "Wissenschaftliches Arbeiten" so eine Vorlage. Die ist allerdings recht allgemein und auch nicht mehr ganz aktuell, so dass sie noch angepasst werden muss. Ich fand das aber zu schwierig, ohne Latex grundsätzlich zu begreifen. Für meine ersten Schritte hilfreich war das Buch "Wissenschaftliche Arbeiten schreiben" von Joachim Schlosser. Ganz alleine hätte das für die Erstellung meiner Vorlage nicht gereicht, aber es vermittelte mir ein Grundverständnis, das mir weitere Recherchen über das Netz erleichterte.
     
    Zum Schreiben verwende ich Atom mit entsprechenden Latex-Plugins. Atom arbeitet schön mit Git zusammen, das ich für die Versionskontrolle nutze. UML-Diagramme erstelle ich meist mit UMLet. Eine Literaturverwaltung wie Zotero oder Citavi erschien mir bislang übertrieben. Bislang ist alles in einer einfachen BibTEX-Datei. Ich habe probiert, meine Einträge mit JabRef zu editieren, fand das aber gar nicht komfortabler, weil manche für mich relevante Felder über mehrere Tabs verteilt waren, so dass ich mehr mit "Mausschubsen" als mit Schreiben beschäftigt war. Möglicherweise könnte man sich das anders konfigurieren, aber ich komme mit einem einfachen Texteditor eigentlich gut zurecht. Allerdings werden es allmählich mehr Quellen. Vielleicht muss ich das mit der Literaturverwaltung also noch einmal überdenken. Lohnen dürfte sich das vor allem für Schreibende, die regelmäßig wissenschaftliche Arbeiten verfassen.
     
    Fazit
     
    Insgesamt macht die Arbeit an der Bachelorarbeit viel Spaß. Es ist schön, nach vielen Jahren des angeleiteten Lernens ein eigenes Thema recherchieren und einer eigenen Idee folgen zu können. Wichtig ist natürlich der Austausch mit dem Erstbetreuer, der diesen Prozess zurückhaltend begleitet.
     
    Ich werde in Abständen wieder berichten.
  3. kurtchen
    Das Modul Softwaretechnik 3 (SWT3) ist verpflichtend für Studierende im Studiengang Web- und Medieninformatik und wird dort dem großen Studienbereich "Softwaretechnik" zugerechnet. Für Studierende im Studiengang Wirtschaftsinformatik ist es nicht verpflichtend. Soweit ich es verstanden habe, kann es von ihnen nicht einmal als Vertiefungskurs belegt werden. Laut Studienplan sollte man SWT3 im 6. Semester belegen. Es ist also als eines der letzten Module vor der Bachelor-Arbeit vorgesehen.
     
    Voraussetzungen
     
    Die Liste der Module, die als inhaltliche Voraussetzung genannt werden ist lang: Man benötigt GdI1 und GdI2, weil man solide Kenntnisse objektorientierter Konzepte sowie gute Java-Kenntnisse braucht. GdI3 ist wichtig, weil die Interaktionen zwischen den Schichten GUI, Fachkonzept und Datenhaltung eine wesentliche Rolle spielen. SWT1 ist unter anderem nötig, weil man sich mit den verschiedenen UML-Diagrammen gut auskennen sollte. Wozu man Software-Management braucht, erschließt sich mir nicht. Ich hatte diese Grundlage nicht und habe sie auch an keiner Stelle des Kurses vermisst. Dafür denke ich, dass das Modul "Nicht-sequentielle Programmierung" (NSP) eine sinnvolle Vorbereitung wäre, denn verteilte Anwendungen spielen eine große Rolle und es ist sehr hilfreich, zumindest schon einmal Erfahrungen mit RMI (Remote Methode Invocation) gesammelt zu haben. Das Modul SWT3 ist außerdem ein Pflichtmodul für das Hochschulzertifikat "Software-Architekt". Kein Wunder, denn Software-Architektur ist ein roter Faden dieses Kurses.
     
    Das Lehrbuch
     
    Grundlage für den Kurs ist das "Lehrbuch der Softwaretechnik - Entwurt, Implementierung, Installation und Betrieb" von Helmut Balzert. Es ist der Folgeband zum "Lehrbuch der Softwaretechnik - Basiskonzepte und Requirements Engineering" vom gleichen Autor. Während sich der Inhalt des ersten Bandes auf 2 Module verteilte, muss man für SWT3 tatsächlich die kompletten 580 Seiten durchackern. Und die haben es in sich. Wie schon im ersten Band legt Herr Balzert großen Wert auf eine präzise Definition der Begriffe. Viele Diagramme (vor allem UML-Diagramme) und Code-Beispiele (meist in Java) ergänzen den Kurstext.
     
    Die Themen
     
    Eine der ersten Einsendeaufgaben behandelte Verteilungsdiagramme. Mit diesen stellt man dar, wie die Komponenten eines verteilten Softwaresystems auf verschiedene physische Rechner oder auf verschiedene Ausführungsumgebungen an verschiedenen Standorten verteilt sind, und über welche Protokolle die Interaktion zwischen den Knoten abläuft. Konkret sollte man für die Aufgabe die sprachliche Beschreibung eines verteilten Systems in ein Diagramm umsetzen. Hier hatte ich Schwierigkeiten, mir das System und das Zusammenwirken seiner Teile vorzustellen. Ich brauchte mehrere Anläufe und viele Rückmeldungen meines Tutors, um diese Aufgabe befriedigend lösen zu können. Leider ist dieses Thema eine meiner Achillesfersen geblieben. Die Verteilungsdiagramme spielten auch in der Klausur eine Rolle und gerade mit dieser Aufgabe habe ich mich sehr schwer getan.
     
    Leichter fiel mir der große Themenbereich der Entwurfsmuster. Hier zielten die Einsendeaufgaben darauf ab, verschiedene Entwurfsmuster in Java auszuprogrammieren. Zu meiner Überraschung ist SWT3 ein Modul, in dem das Schreiben von Code wieder eine größere Rolle spielt. Eine schöne Nebenwirkung dieses Moduls ist, dass ich nun viel besser mit Netbeans umgehen kann. (Eigentlich nicht vorgesehen, ich hätte ich das Modul mit Eclipse bearbeiten sollen.) Wichtige Themen sind: Callback, Schichten-Muster, Beobachter-Muster, MVC-Muster, Fassaden-Muster, Kommando-Muster, Proxy-Muster, Fabrikmethoden-Muster, Strategie-Muster und Brücken-Muster.
     
    Angenehm am Modul ist auch, dass sich eher theoretische und sehr praktische Kapitel abwechseln. Nach einem recht theoretischen Kapitel über nicht-funktionale Anforderungen geht es also wieder recht praktisch weiter mit Globalisierung und Internationalisierung von Software, mit Authentifizierung und Autorisierung am Beispiel JAAS und mit Transaktionen am Beispiel JTA. Ergänzend zur vorherrschenden Java-Perspektive gibt es immer wieder kleinere Ausflüge, wie die verschiedenen Konzepte des Kurses in .NET umgesetzt werden.
     
    Ein nächster großer Block sind Arten der Netzkommunikation bei verteilten Anwendungen. Hier lernt man in rascher Folge die Kommunikation mit Sockets, mit Remote Method Invocation (RMI), mit CORBA, mit XML-RPC, mit SOAP und REST. Hierzu gibt es auch wieder mehrere Programmieraufgaben. In diesem Zusammenhang lernt man auch weitere Entwurfsmuster kennen, z.B. Wert-Objekte, Fabrik-Dienste und Fassaden.
     
    Es folgt ein Kapitel über softwaretechnische Infrastrukturen. Hier geht vor allem um Java EE und um .NET. Das Kapitel über eingebettete Systeme und Architekturmuster für diese fällt aus meiner Sicht recht knapp aus. Wichtiger scheint mir das Kapitel über Persistenz. Hier gibt es Einsendeaufgaben zur objektrelationalen Abbildung (ORM) und zur Java Persistence API (JPA). ORM war ja auch schon im Modul "SQL und relationale Datenbanken" Thema, aber ich finde es nicht schlecht, dass dieses Thema hier noch einmal auftaucht. Bei der objektrelationalen Abbildung geht es darum, Klassen, Assoziationen und Vererbungsstrukturen eines per OOA erstellen Fachkonzepts in sinnvoller Weise auf Tabellen einer relationalen Datenbank abzubilden. Hierfür gibt es mehrere Möglichkeiten, die je eigene Vorzüge und Nachteile haben.
     
    Die restlichen Kapitel über GUI-Entwurfsmuster, den Entwurfsprozess, Qualitätssicherung der Architektur, Implementierung, Verteilung und Installation, Betrieb und Reverse Engineering werden nur noch durch Tests abgedeckt. Aufgrund des Umfangs des Moduls gibt es sehr viele Tests. Ich habe auch den Eindruck, dass im Abschlusstest breit geprüft wird.
     
    Mein Tutor war der gleiche wie in SWT1, SWT2, Mobile Computing und Web-Design. Die Rückmeldungen zu meinen Einsendeaufgaben kamen meist schon am nächsten Tag. Besonders interessant war es natürlich, wenn meine Lösung nicht gestimmt hatte. Durch die schnelle Antwortzeit, konnte ich gut Rückfragen stellen und meine eingereichten Lösungen zum Teil in mehreren Schritten verbessern. Das war wieder sehr hilfreich für die Klausurvorbereitung.
     
    Online- und Präsenzklausur
     
    Bei der Online-Klausur kamen Themen dran, mit denen ich nicht unbedingt gerechnet hätte. Aufgrund der Gewichtung der Einsendeaufgaben erschienen mir, Entwurfsmuster, Arten der Netzkommunikation und Persistenz als die Kernthemen des Moduls, die man gründlich vorbereiten sollte. Aber hier kamen auch Aufgaben zu kleineren Themen. Wer Bonuspunkte will, sollte also den gesamten Kurs ernst nehmen.
     
    In der Präsenzklausur kamen große Punktebringer dann schon aus den oben genannten Kernthemen. Es gab aber auch mehrere kleinere Aufgaben, die mit Wissensfragen Inhalte aus dem gesamten Modul abdeckten. Schon eine clever konstruierte Prüfung, wenn man checken will, ob die Studierenden wirklich alles bearbeitet und verstanden haben. Leider kamen auch die von mir nicht geliebten Verteilungsdiagramme wieder dran.
     
    Fazit und Ausblick
     
    Manche der vorgestellten Architektur-Muster waren recht komplex. Zum Teil habe ich bei diesem Modul gespürt, dass ich an die Grenzen meiner Abstraktionsfähigkeit komme. Man merkt deutlich, dass es ein Modul für fortgeschrittene Semester ist. Gut gefallen hat mir, dass hier die Umsetzung der Entwürfe in Code wieder eine größere Rolle spielt. SWT3 bildet eine gute Brücke zwischen den Modulen der Softwaretechnik und den Programmiermodulen. Ich finde insgesamt die Studienbereiche GdI und SWT gut aufeinander abgestimmt. Der Kurs hat mir wieder sehr viel Spaß gemacht, war aber für mich auch herausfordernd. Während ich bei anderen Modulen oft noch Wünsche formulieren konnte, was ich gerne noch alles gelernt hätte, war ich nach SWT3 endlich einmal "satt". Das kommt bei mir eher selten vor.
     
    Ein Klausurergebnis habe ich noch nicht, aber ich hoffe sehr, dass die Mühe sich gelohnt hat und ich diesen anstrengenden Teil meines Studiums nun auch wirklich hinter mir lassen kann. Den "dicken Brocken" Softwaretechnik habe ich damit aber noch nicht geschafft. Auf mich warten noch immer die Module "Software-Management 1" und "Software testen". Ich brauche nun aber tatsächlich einen Themenwechsel, um nicht ständig von der gleichen geistigen Ressource zu zehren. Darum möchte ich nun endlich einmal das bislang von mir vernachlässigte Thema BWL angehen, um das auch Studierende der Web- und Medieninformatik nicht herumkommen. In den nächsten Wochen wird mich also das interne und externe Rechnungswesen beschäftigen. Nicht gerade eine Entwicklungsaufgabe, auf die ich mich freue, aber nachdem ich in den letzten Wochen sehr viel vor dem Bildschirm gesessen habe, wird es zumindest eine Abwechslung sein.
  4. kurtchen
    Das Modul "Präsentieren & Moderieren" wird in den IT-Studiengängen von Springer Campus dem Wahlkatalog 1 "Basiskompetenz Beruf" zugeordnet. Es gehört damit zu den Soft Skill-Modulen dieser Studiengänge. Andere Module aus diesem Katalog sind "Selbst- und Zeitmanagement", "Kreativitätstechniken", "Rhetorik" und "Soziale Kompetenz". Auch das Modul "Wissenschaftliches Arbeiten" gehörte in diese Gruppe, es ist aber inzwischen ein Pflichtmodul. Angehende Web- und Medieninformatiker wählen ein Soft Skill-Modul, die Wirtschaftsinformatiker zwei. Zu den Modulen "Rhetorik" und "Präsentieren & Moderieren" gehört aus naheliegenden Gründen eine mündliche Prüfung. Die Klausur fällt dafür nur einstündig aus.
     
    Normalerweise wählt man diese Module ganz zu Beginn des Studiums. Ich war mir unsicher, was ich hier belegen sollte, weil ich viele Themen interessant fand. Lediglich das Modul zu den Kreativitätstechniken hätte ich nicht belegen wollen, weil ich hier - bedingt durch meine Ausbildung - schon relativ viel kannte. Für das Modul Präsentieren habe ich mich entschieden, weil ich annahm, es sei eine gute Vorbereitung für die Präsentation der Bachelorarbeit. Die Entscheidung fiel gegenüber Rhetorik sehr knapp aus. Den Ausschlag für Präsentieren gab dann das Thema Umgang mit Präsentationsmedien, das im Modul Präsentieren natürlich stärker ausgeprägt ist. Rhetorik konzentriert sich stärker auf den mündlichen Vortrag und die Argumentation.
     
    Wer das Hochschulzertifikat "Requirements-Engineer" oder "Software-Manager" erwerben will, muss Präsentieren belegen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Moderieren, Präsentieren, Faszinieren" ist von Petra Motte. Es hat an die 300 Seiten und enthält viele Abbildungen, insbesondere in den Kapiteln zum Umgang mit Präsentationsmedien. Der Schreibstil unterscheidet sich natürlich deutlich von einem Informatik-Lehrbuch. Aber auch im Vergleich zum Modul Wissenschaftliches Arbeiten merkt man hier, dass man im Bereich der Soft Skills ist. Präsentation und Moderation haben viel mit der Person des Moderators zu tun, mit seiner Haltung, seiner Persönlichkeit, seinem Auftreten. Im wissenschaftlichen Arbeiten geht es stärker um etablierte Konventionen und Regeln. Das wirkt im Vergleich "faktisch". Beim Präsentieren geht es stärker darum, seine Persönlichkeit einzubringen, mit eigenen Stärken und Schwächen zu arbeiten. Das Buch ist daher im Vergleich zu einem Informatik-Lehrbuch eher in einem Tonfall verfasst, der den Leser persönlicher anspricht. Es zeigt eher Wege und Möglichkeiten auf als eine Handlungsanweisung vorzulegen.
     
    Deutlich wird dies zum Beispiel im Kapitel 3, in dem es um die Person des Moderators geht. Anhand von Photos (oder auf der Lernplattform auch kleinen Videos), werden Aspekte wie Körpersprache, Mimik und Gestik behandelt. Das Thema Umgang mit Lampenfieber spielt eine Rolle. Im Vergleich dazu geht es im Modul Wissenschaftliches Arbeiten stärker um das fachliche und die sachgerechte Aufbereitung der Inhalte. Hier steht mehr im Mittelpunkt, dass die Inhalte durch die Person des Präsentierenden zur Geltung kommen. Darum ist es sinnvoll, sich auch mit sich selbst und seiner eigenen Wirkung zu befassen.
     
    Im Kapitel 4 geht es um die Vorbereitung und Gliederung einer Präsentation. Hier geht es vor allem um einen gelungenen Spannungsbogen, der das Publikum weder über- noch unterfordert. Auch Themen wie Zeitmanagement und Umgang mit Störungen spielen eine Rolle. Die Perspektive ist stärker didaktisch. Im Vergleich zum Modul Wissenschaftliches Arbeiten wird hier stärker dem Umstand Rechnung getragen, dass Zuhörer eine begrenzte Aufnahmekapazität und Aufmerksamkeit haben. Sie können aus einem Vortrag aussteigen, wenn sie sich langweilen, ermüden oder sich überfordert fühlen. Diese Aspekte waren im Modul Wissenschaftliches Arbeiten weniger präsent als hier.
     
    Das recht ausführliche Kapitel 5 widmet sich den verschiedenen Präsentationsmedien. Nicht überraschend beginnt es mit der Bildschirmpräsenation oder dem, was man einen Beamer-Vortrag nennt. Hier geht es freilich nicht um konkrete Software-Produkte oder dem Umgang damit, auch wenn der Name PowerPoint fällt. Vielmehr geht es darum, die Vorzüge und Nachteile verschiedener Medien zu kennen und gegeneinander abzuwägen, um für jede Situation das geeignete Medium wählen zu können.
     
    Auch der vermeindlich altmodische Overhead-Projektor kommt vor, z.B. wegen der Möglichkeit Folien während des Vortrages zu bearbeiten. So etwas ist zwar heute auch mit digitalen Hilfsmitteln möglich, aber die Arbeit mit den Folienstiften hat eine hohe Unmittelbarkeit und ermöglicht zum Beispiel auch, Teilnehmer einzubeziehen, die im Umgang mit digitalen Medien wenig versiert und gehemmt sind.
     
    Noch unmittelbarer ist die Moderation mit einer Flipchart. Auch sie ermöglicht eine direkte Einbeziehung und Interaktion mit Teilnehmern, eignet sich allerdings eher für kleinere Gruppen. Mit dem Medium Whiteboard ist im Kapitel noch nicht das sogenannte interaktive Whiteboard sondern tatsächlich die weiße Tafel gemeint, die ebenfalls mit Folienstiften bemalt und mit Zetteln beklebt werden kann. Sie ist eher als Nachfolger der klassischen Kreidetafel zu sehen. Schließlich geht es um die Pinwand-Moderation, die ebenfalls viele Möglichkeiten zum aktiven Mitmachen und zur Arbeit in Kleingruppen bietet.
     
    Im Verlauf des Kapitels wird auch langsam ein Bogen zu Arbeitsformen geschlagen, bei denen nicht mehr der Vortrag des Moderators sondern die Beiträge der Teilnehmer im Mittelpunkt stehen. Auch wenn die mündliche Prüfung in diesem Modul ein Vortrag ist, hat es mir gut gefallen, dass hier interaktive Arbeitsformen mit Gruppen betont wurden, denn schließlich halten Informatiker nicht nur Fachvorträge.
     
    Das Kapitel 5 betont interaktive Methoden in der Moderation. Hier geht es um den Einsatz von Mind Maps, um Methoden des Brainstormings und Brainwritings und die Moderationsformen Open Space, World Café und Zukunftswerkstatt. Open Space ermöglicht es zum Beispiel, mit sehr großen Gruppen in einer Weise zu arbeiten, die den Austausch untereinander und das Sammeln fachlicher Beiträge der Teilnehmer unterstützt. Hier geht es nicht mehr darum, dass der Moderator als Wissender seinem Publikum Informationen vermittelt. Er soll vielmehr einen Austausch in Gang bringen, in dem die Teilnehmer ihr eigenes Wissen teilen und miteinander in Kommunikation kommen. Die Teilnehmer werden also eher zu Teilgebern. Sie und nicht der Moderator präsentieren Ergebnisse ihrer Arbeit in Kleingruppen.
     
    Im Rahmen dieses Kapitels kommt dann auch das sogenannte interaktive Whiteboard zur Sprache, dass ja mit großem finanziellen Aufwand an immer mehr Schulen Einzug hält. Ichpersönlich störe mich ein wenig an dem Begriff, weil er mir zu implizieren scheint, das klassische Whiteboard sei nicht interaktiv gewesen. Ein hohes Maß an Publikumsbeteiligung erreicht man nicht allein durch ein bestimmtes Medium sondern in erster Linie durch die Arbeitsform. Hier bieten klassische analoge Medien noch immer viele Vorteile, weil sie unmittelbar zu benutzen sind. Gerade für Menschen, die mit digitalen Medien weniger Erfahrung haben, sind sie "niedrigschwellig".
     
    Das letzte Kapitel wagt einen Blick in die Zukunft der Moderation. Hier geht es auch um eine wahrgenommenen Veränderung in der Rolle des Moderators, der heute stärker die Selbstlernkräfte seiner Teilnehmer aktivieren soll. Um Raum für Beiträge der Teilnehmer zu schaffen, muss der Moderator sich selbst stärker zurücknehmen.
     
    Tests und Aufgaben
     
    Die Einsendeaufgaben fordern einen in diesem Modul natürlich anders als in anderen Modulen im Informatikstudium, wo vor allem abstraktes Denken und Logik gefragt sind. Hier geht es eher ums Abwägen oder darum, sich in Situationen einzufühlen, Möglichkeiten und Wege zu skizzieren. Für mich war das eine willkommene Abwechslung, vor allem im Kontrast zum Modul "Text Mining", welches das abstrakte Denken sehr forderte. Insofern kann ich empfehlen, so ein Soft Skill-Modul mit einem als sehr schwierig empfundenen Modul zu kombinieren. Man zehrt dann beim Lernen von unterschiedlichen Ressourcen. So kommt man gut voran.
     
    Die Rückmeldungen meiner Tutorin kamen schnell. In diesem Modul wurde ich auch mal telefonisch betreut, weil ich eine Frage hatte, die auf diesem Wege besser zu klären war. Betreut wurde ich von der Autorin des Buches, der man anmerkt, dass sie für ihr Thema und ihren Beruf brennt.
     
    Klausur und mündliche Prüfung
     
    Schrifliche Einsendeaufgaben eignen sich bei diesem Modul natürlich nur bedingt zur Kontrolle des eigenen Lernerfolges. Als entscheidenden Baustein empfand ich darum die mündliche Prüfung. Hier ist ein (Beamer-)Vortrag zu einem Thema auszuarbeiten, dass mit Informatik nichts zu tun haben muss. Ich hatte z.B. ein Thema, bei dem es um die deutsche Sprache ging. Aus Gesprächen mit Kommilitonen weiß ich, dass die Themen oft beinhalten, eine eher offene Fragestellung zu beantworten, eine eigene Position zu einem Thema zu finden und argumentativ zu vertreten.
     
    Im Gegensatz zum Modul Wissenschaftliches Arbeiten reicht man hier keine Vorschläge ein. Man bekommt das Thema zwei Wochen vor der Prüfung vom Studienbüro. Es ist also ein "Überraschungei". Ich war ganz zufrieden mit dem, was ich bekommen habe.
     
    Für mich war es schön, mal zu einem ganz anderen Thema zu recherchieren. Und mir zu überlegen, wie ich das in begrenzter Zeit rüberbringe. Im Gegensatz zum Modul Wissenschaftliches Arbeiten, bei dem formale Korrektheit eine große Rolle spielt, geht es hier stärker darum, die Sache ein bisschen interaktiv zu gestalten. Für mich war jedenfalls die mündliche Prüfung die Messlatte dafür, ob ich aus dem Modul etwas mitgenommen haben. Mir hat es großen Spaß gemacht.
     
    Die Klausur dauert in diesem Modul nur eine Stunde. Sie war absolut fair gestellt. Leider war mir neben der Vorbereitung der mündlichen Prüfung und dem Lernen für Text Mining kaum Zeit geblieben, den Stoff des Lehrbuches in diesem Modul zu wiederholen. Das habe ich ein bisschen zu spüren bekommen. Mal sehen, wie sich das auswirken wird.
     
    Klausur und mündliche Prüfung gehen gleichermaßen in die Endnote ein. Das Ergebnis der mündlichen Prüfung erfährt man unmittelbar danach. Das ist auch schön, Feedback einmal so unmittelbar zu bekommen. Ich habe daraus noch ein paar Anhaltspunkte für die Präsentation meiner Bachelorarbeit mitgenommen, die ja nächstes Jahr fällig wird.
     
    Die mündliche Prüfung in diesem Modul erfordert allerdings auch viel Vorbereitungszeit. Man muss ziemlich schnell ein Thema recherchieren, das mit dem Studium und dem Modul nicht viel zu tun hat. Auch die Vorbereitung der Folien kostet Zeit. Schließlich möchte man üben, ob man mit der Zeit auskommen wird. Ich hätte rückblickend betrachtet die Klausur zu diesem Modul vielleicht eher auf den nächsten Termin schieben sollen, um mich voll auf eine Sache konzentrieren zu können. Vielleicht wollte ich diesmal zu viel auf einmal.
     
    Zu den mündlichen Prüfungen ist noch zu sagen, dass sie nur in Dortmund stattfinden. Es gibt zu jedem Prüfungstermin drei Slots am Vormittag. Mündliche Prüfungen müssen etwas früher angemeldet werden als schriftliche, weil der organisatorische Aufwand höher ist. Die Details dazu stehen in jeder Einladung zum Prüfungstag, die man als Studierender per E-Mail bekommt.
     
    Fazit
     
    Ich glaube schon, dass das Modul Präsentieren mir für die Verteidigung der Bachelorarbeit im nächsten Jahr noch einmal etwas bringen wird. Das war für mich ein Grund, es zu belegen. Es bisschen wehmütig bin ich auch, denn Rhetorik hätte mich schon auch interessiert. Der Schwerpunkt lag hier stärker auf dem Umgang mit Medien und auf interaktiven Arbeitsformen mit Gruppen. Im Modul Rhetorik spielt das Argumentieren anscheinend eine größere Rolle. Auch interessant! Aber man kann nicht alles machen.
     
    Allmählich wird es übersichtlich. Im Januar möchte ich noch die Module "IT-Projektmanagement" und "Electronic Business" abschließen. Die Klausuren möchte ich voraussichtlich in Heidelberg schreiben. Dann steht die Bachelorarbeit an. Insgesamt muss ich also nur noch einmal nach Dortmund reisen. (Vielleicht ein zweites Mal, um den nächsten Präsenztag mitzunehmen.) Schade, dass Springer Campus keinen Master anbietet, der an diesen Bachelor anschließt, denn die Anbindung an die staatliche FH Dortmund gefällt mir sehr.
  5. kurtchen
    Das Modul "Text Minining" kann in den Studiengängen von Springer Campus im Vertiefungsbereich (also als Wahlpflichtfach) belegt werden. Es ist auch Teil des Hochschulzertifikates "Junior-Data-Analyst". Um dieses Zertifkat zu erlangen, muss man allerdings auch eine Projektarbeit mit dem inhaltlichen Schwerpunkt Datenanalyse schreiben.
     
    Ich hatte mich für dieses Modul entschieden, weil ich auch Data Mining belegt hatte. Der Schwerpunkt dieses Moduls lag stark auf der Anwendung von Data Mining Techniken in einem betrieblichen Kontext. Es war also eher aus der Perspektive der Wirtschaftsinformatik geschrieben. Mich hätte mehr interessiert, wie die verschiedenen Techniken zur Wissensextraktion mathematisch und algorithmisch funktionieren. Das spielte eine vergleichsweise geringe Rolle. Die Beschreibung des Moduls "Text Mining" ließ erwarten, dass der Schwerpunkt hier anders gelegt sein würde; nämlich auf Mathematik, Statistik und Algorithmen. Insofern hoffte ich, in diesem Modul das zu finden, was ich eigentlich im Modul "Data Mining" gesucht hatte. Ich wurde nicht enttäuscht.
     
    Wer dieses Modul im Wahlpflichtbereich belegen möchte, sollte wissen, dass es inhaltlich zu den anspruchsvollsten Modulen im Studiengang gehört. Das Modul "Statistik" wird als fachliche Voraussetzung genannt. Das finde ich nachvollziehbar. In diesem Modul spielen auch einige Inhalte aus dem ersten Mathematik-Modul eine Rolle: Mengen, Relationen und Graphen. Das Modul ist recht mathematisch. Wer nach seiner letzten Mathe-Klausur froh war, keine Formeln mehr lesen zu müssen, sollte um dieses Modul eher einen Bogen machen. In der Beschreibung heißt es, das Modul "Data Mining" erlaube es, Querbezüge herzustellen. Das trifft es recht gut. Wer die hier beschriebenen Verfahren begriffen hat, kann sich gut vorstellen, wie man vergleichbares mit den strukturierten und halbstrukturierten Daten in Datenbanken machen kann. Für mich hat daher das Modul "Text Mining" einige der Inhalte aus Data Mining noch einmal neu "zum Leben erweckt".
     
    Beim Thema Text Mining berühren sich Informatik, Mathematik, Statistik und die Geisteswissenschaften. Gerade letzteres könnte für manchen Informatik-Studenten herausfordernd sein. So lässt es sich beispielsweise nicht vermeiden, ein wenig linguistische Terminologie zu lernen. Begriffe wie Phonem, Graphem, Morphem, Flexiv, Derivativ oder Allomorphe muss man sich erschließen, wenn sie aus Schulzeiten nicht mehr geläufig sein sollten. Beim Thema Text Mining muss der Informatiker den Geisteswissenschaften ein Stück weit entgegenkommen. Es ist sehr interessant, wie Informatik und Sprachwissenschaft sich gegenseitig fachlich bereichern können. In diesem Bereich tut sich gerade einiges. So bezeichnet der Begriff "digital humanities" die Nutzung computergestützter Verfahren und digitaler Wissensressourcen in den Geisteswissenschaften. Solche digitalen Ressourcen sind zum Beispiel die großen Mengen natürlichsprachlicher Texte im Internet.
     
    Das Lehrbuch
     
    Das Lehrbuch "Text Mining: Wissensrohstoff Text" von Gerhard Heyer, Uwe Qualsthoff und Thomas Wittig hat an die 350 Seiten. Mir liegt der 3. Nachdruck vom Mai 2016 vor. Ursprünglich erschienen ist es 2006. Nun könnte man meinen, das sei für ein Lehrbuch im Bereich Informatik ein stattliches Alter. Man muss sich aber klarmachen, dass es hier nicht um konkrete Implementierungen und Technologien geht, die schnell wieder aus der Mode kommen. Das Buch beschäftigt sich mit Konzepten, Methoden und Algorithmen. Solches Wissen hat eine deutlich höhere Halbwertszeit. Insofern bin ich bei diesem Modul nicht der Meinung, eine inhaltliche Aktualisierung sei nötig. In der Lernplattform und bei den Einsendeaufgaben wird allerdings manchmal auf Online-Ressourcen verwiesen, die in dieser Form nicht mehr existieren. Eine Bearbeitung der Aufgaben ist trotzdem möglich, aber hier wäre eine Aktualisierung sicher benutzerfreundlicher.
     
    Das Thema Text Mining ist komplex. Man braucht viele Konzepte, Begriffe und Verfahren, die wechselseitig stark voneinander abhängen. Daraus ergibt sich die Schwierigkeit, in welcher Reihenfolge man die Inhalte präsentiert. Es lässt sich bei diesem Thema nicht vermeiden, manche Themen mehrfach anzusprechen, weil man ein erstes Verständnis braucht, um sich weitere Konzepte zu erschließen, die dann erst ein vertieftes Verständnis der ersten Themen ermöglichen. So ist es auch in diesem Buch. Immer wieder tauchen Themen aus früheren Kapiteln auf und erscheinen nun in neuem Licht. Diese didaktischen Schleifen sind nötig, weil man den Stoff nicht im ersten Anlauf begreifen kann.
     
    Das Einführende Kapitel "Wissen und Text" gibt auch einen kleinen historischen Rückblick über die automatische Wissensverarbeitung. Hier geht es u.a. um den Ansatz der Expertensysteme, der auf Logik, Fakten und Regeln basierte (Klassische KI). Dieser Ansatz erwies sich als nicht so fruchtbar, wie ursprünglich erhofft. Expertensysteme blieben Insellösungen, die über eine gewisse Komplexität nicht hinaus kamen. Außerdem war ein hoher Aufwand zur Wissenserschließung nötig. Text Mining beschäftigt sich mit der (halb-)automatischen Erschließung von Wissen aus unstrukturiertem Text und bietet somit neue Lösungsansätze.
     
    Im Kapitel "Grundlagen der Bedeutungsanalyse" berühren sich Linguistik und Statistik. Es geht um drei sehr grundlegende Begriffe, die für das Verständnis des gesamten Moduls essentiell sind:
    syntagmatische Relationen paradigmatische Relationen semantische Relationen  
    Vereinfacht gesagt, bezeichnet die syntagmatische Relation das gemeinsame Auftreten zweier Wortformen in einem Satz. Im vorhergehenden Satz stehen also die Wortformen "Satz" und "Auftreten" in syntagmatischer Relation. Das alleine hilft aber nicht weiter. Interessanter ist die statistisch-signifikante syntagmatische Relation. Hierzu betrachtet man die relativen Häufigkeiten einzelner Wortformen im Korpus. Auf dieser Grundlage bestimmt man die Wahrscheinlichkeit dafür, dass zwei Wortformen in einem zufällig zusammengestellten Satz vorkommen. Interessant sind nun Paare von Wortformen, die im Korpus wesentlich häufiger in syntagmatischer Relation stehen, als dies statistisch zu erwarten gewesen wäre. Der Grund ist oft, dass es einen Bedeutungszusammenhang zwischen den Wortformen gibt. So werden zum Beispiel die Wörter Butter und Brot häufiger gemeinsam auftreten als etwa Butter und Schraube.
     
    Der betrachtete Ausschnitt muss nicht immer ein Satz sein. Für viele Anwendungen ist es interessant, benachbarte Wörter zu betrachten. Wörter die statistisch häufig gemeinsam auftreten, bezeichnet man als Kookkurrenzen. Das Finden von Kookkurrenzen ist die Grundlage der Bedeutungsanalyse.
     
    Die paradigmatische Relation hat einen höheren Abstraktionsgrad. Hierfür betrachtet man den globalen Kontext einer Wortform. Das ist einfach die Menge ihrer signifikanten Kookkurrenzen. So könnte z.B. ein Wort wie Brot Kookkurrenzen wie Butter, Marmelade, Bäcker, Wurst und Honig haben. Das Wort Semmel könnte ähnliche oder die gleichen Kookkurrenzen haben. Die Kookkurrenzen sind also Mengen von Wörtern. Man vergleicht nun für Paare von Wörtern diese Wortmengen mittels eines Ähnlichkeitsmaßes. Sind die Kookkurrenzen ähnlich, so sagt man, die Wörter stehen in paradigmatischer Relation. Dies dürfte bei Brot und Semmel der Fall sein. Man sucht also Wörter, die in ähnlichen Kontexten verwendet werden. Dies ist für die Bedeutungsanalyse sehr fruchtbar.
     
    Semantische Relationen findet man, indem man die globalen Kontexte vor Bestimmung der Ähnlichkeit nach verschiedenen Kriterien filtert. Auf diese Weise findet man Zusammenhänge wie Kategorie, Funktion, Maßeinheit, Qualifizierung oder Ersetzungsklassen von Wörtern. Logische Relationen sind besonders trennscharf. Sie erlauben das Ziehen von Schlüssen. Dazu gehören z.B. Ober- und Unterbegriffe oder Gegensatzpaare.
     
    Interessant ist hierbei, dass Logik aus der Perspektive der Bedeutungsanalyse nicht als grundlegend erscheint. Grundlegend sind die statistisch-signifikanten syntagmatischen Relationen, also das auffällig häufige gemeinsame Auftreten von Wortformen. Logische Relationen erscheinen erst auf relativ hohen Abstraktionsstufen (sozusagen als emergente Eigenschaft). Dies ist ein wichtiger Unterschied zu den klassischen Expertensystemen, bei denen die Logik grundlegend war. Mit der Bedeutungsanalyse lassen sich logische Beziehungen zwischen Begriffen durch statistische Verfahren extrahieren.
     
    Im Kapitel "Textdatenbanken" geht es um Datenstrukturen, die sich für die Verarbeitung sehr großer Mengen natürlich-sprachlicher Texte eignen. Diese sollen einerseits platzsparend sein, andererseits einen sehr schnellen Zugriff erlauben. So soll es beispielsweise möglich sein, bei einem Korpus aus hunderten Millionen Wörtern schnell zu überprüfen, ob ein bestimmtes Wort enthalten ist. Eine Datenstruktur, die sich dafür gut eignet, sind sogenannte Tries. Sie sind letztlich Baumstrukturen, wobei jeder Knoten für einen Buchstaben eines Wortes steht. Das interessante an einem Trie ist, dass die Zugriffszeit nicht von der Anzahl der enthaltenen Wortformen sondern allein von der Länge des gesuchten Wortes abhängt.
     
    Auch die Herausforderungen der Segmentierung von Texten sind ein Thema dieses Kapitels. So könnte man meinen, das Ende eines Satzes lasse sich leicht finden, weil deutsche Sätze auf einen Punkt enden. Denkt man einen Moment darüber nach, merkt man, dass die Sache wesentlich komplizierter ist. Nicht jeder Satz endet mit einem Punkt. Nicht jeder Punkt markiert das Ende eines Satzes. Zum Beispiel kann ein Algorithmus leicht eine Abkürzung mit einem Satzende verwechseln. Auch die Identifikation einzelner Wortformen kann durch zahlreiche Sonderfälle erheblich verkompliziert werden.
     
    Im Kapitel "Sprachstatistik" geht es zunächst um die Zipfschen Gesetze. Diese erlauben z.B., die Anzahl der verschiedenen Wortformen eines Textes relativ gut zu schätzen, wenn seine Länge und seine Sprache bekannt sind. Sehr wichtig für das Verständnis der folgenden Kapitel ist der Abschnitt zur Differenzanalyse. Diese beruht auf dem Vergleich einer Textsammlung allgemeinsprachlicher Texte (dem Referenzkorpus) mit einer Sammlung bestimmter Texte (Analysekorpus). Die bestimmten Texte könnten zum Beispiel Zeitungsartikel eines bestimmten Themenbereiches sein. Die Differenzanalyse sucht mit statistischen Methoden nach Wortformen im Analysekorpus, die wesentlich häufiger auftreten als im Referenzkorpus. Dies ist ein Hinweis darauf, dass diese Wortformen für den Text oder die Textgattung in besonderer Weise bedeutungstragend sind. Dies ist zum Beispiel eine Grundlage für die automatische Beschlagwortung von Texten.
     
    Relativ anspruchsvoll sind die Abschnitte zum probabilistischen Sprachmodell. Hier geht es um Hidden-Markov-Modelle. Sie sind endliche Automaten, deren Zustandsübergänge mit Wahrscheinlichkeiten versehen sind. Hidden-Markov-Modelle (HMMs) kann man vielfältig einsetzen, zum Beispiel in der Spracherkennung. HMMs können nämlich mehrdeutige Fälle durch Auswertung des Kontextes auflösen. Sie können z.B. entscheiden, welches von mehreren gleich oder ähnlich klingenden Wörtern gemeint ist.
     
    Spannend sind die Verfahren zur Visualisierung von Kookkurrenzen mit Graphen. Um Begriffe herum erscheinen Wortwolken mit Begriffen, die in einem inhaltlichen Zusammenhang stehen. Bei manchen Begriffen sind diese Wortwolken zusammenhängend. Bei anderen zerfallen sie in Cluster. Das sind dann oft mehrdeutige Begriffe. Ein Beispiel wäre der Begriff Maus. Er ist umgeben von einem Cluster aus Wortformen, die mit der Bedeutung Nagetier zusammenhängen. Ein weiterer Cluster steht für die Bedeutung Eingabegerät.
     
    Im Kapitel "Clustering" geht es um die entsprechenden Algorithmen. Gerade hier kann man vieles auf die Inhalte des Moduls "Data Mining" übertragen. Im Text Mining verwendet man Clustering-Algorithmen, um z.B. Dokumente mit ähnlichem Inhalt zu gruppieren. Es ist faszinierend, dass so etwas allein auf der Grundlage von Kokkurrenzen und Differenzanalyse möglich ist.
     
    Im Kapitel "Musteranalyse" geht es reguläre Ausdrücke, die ja jedem Informatiker geläufig sind. Diese eignen sich gut, um aus Texten bestimmte Informationen mit vergleichsweise geringem Aufwand zu extrahieren. Die Suche nach Morphem-Mustern eignet sich dagegen zur automatischen Extraktion von Fachbegriffen eines Fachgebietes.
     
    Die letzten beiden Kapitel beschäftigen sich mit "Hybriden Verfahren" und "Beispielanwendungen". Insbesondere im letzten Kapitel werden viele Inhalte aus den vorangegangenen Kapiteln im Anwendungskontext noch einmal präsentiert. Nicht zu vernachlässigen sind in diesem Modul die Anhänge, die z.B. linguistische Begriffe klären oder Stoff aus dem Modul Statistik wiederholen.
     
    Tests und Aufgaben
     
    Dass die Inhalte anspruchsvoll sind, merkte ich bei diesem Modul auch bei den Tests und Einsendeaufgaben. Selten gelang es mir, die Tests auf Anhieb richtig zu lösen. Gut war, dass die meisten relativ umfangreiche Kommentare enthielten, so dass man erklärt bekam, warum etwas falsch war. Das half ungemein. Es empfiehlt sich, die gleichen Tests nach ein paar Tagen zu wiederholen, um zu schauen, ob man den Stoff verinnerlicht hat.
     
    Bei allen Aufgaben dieses Moduls habe ich deutlich länger für die Bearbeitung gebraucht als angegeben. In vielen Aufgaben geht es darum, zu erklären, wie bestimmte Verfahren und Anwendungen des Text Minings funktionieren. Es geht um Methoden und Algorithmen. Ich musste die Kapitel schon sehr gründlich durcharbeiten, um den Stoff gut genug zu verstehen.
    Die Implementierung der Verfahren in einer konkreten Programmiersprache spielte im Modul dagegen keine Rolle. Das ist kein Kurs für Leute, die mal wieder etwas programmieren wollen. Es geht allerdings durchaus darum, bestimmte Algorithmen so gut zu verstehen, dass man sie implementieren könnte. Ich habe jetzt z.B. eine ganz gute Vorstellung davon, wie Clustering funktioniert. Das schöne daran ist: Wenn man das verstanden hat, könnte man alles mögliche clustern, nicht bloß Texte oder Wortformen. Das Modul hat für mich so ein paar Wünsche erfüllt, die mir im Modul zu Algorithmen und Datenstrukturen offen geblieben sind.
     
    Klausur
     
    Bei der Online-Klausur habe ich leider gemerkt, dass ich die Aufgaben zwar prinzipiell hätte lösen können, allerdings nicht in der zur Verfügung stehenden Zeit. Dazu hätte man die Konzepte und Methoden schon sehr verinnerlichen müssen, um Lösungen praktisch ohne Nachdenken hinschreiben zu können. Das lief bei mir eher mittelprächtig, weswegen ich der Präsenzklausur mit Sorge entgegen sah.
     
    Die Präsenzklausur war dann einfacher als gedacht. Aber das ist kein Modul, das man nebenbei macht. Es ist nötig, alle Einsendeaufgaben gründlich zu bearbeiten. Und man sollte das Feedback seines Tutors nutzen, um fachliche Lücken zu schließen.
     
    Die Rückmeldungen meines Tutors waren in diesem Modul z.T. recht umfangreich, was mir bei diesem Thema auch sehr geholfen hat. Nachdem mir in der Online-Klausur die Zeit davongelaufen war, bekam ich auch ein paar Hinweise, wie ich schneller werden könnte. Ich habe versucht, dass in der Präsenzklausur zu beherzigen und hoffe, dass ich etwas davon umsetzen konnte. Auf das Ergebnis warte ich noch.
     
    Fazit
     
    Dieses Modul hat mich leider sehr lange beschäftigt. Gebucht hatte ich es schon Anfang 2017. Ich hatte angenommen, das irgendwann "zwischendrin" zu bearbeiten. Aber es war zu anspruchsvoll, um es nebenbei zu schaffen. Ich habe dann zunächst geschaut, dass ich Pflichtmodule abarbeite. Dann hielt mich meine Projektarbeit auf Trab. Nach dem Sommer war ich ein bisschen genervt, dass ich Text Mining noch immer nicht abgeschlossen hatte. Ich hatte das Lehrbuch schon zwei Mal zu zwei Dritteln gelesen, hatte es aber immer wieder abbrechen müssen. Um das Modul fertig zu kriegen, musste ich nun abermals von vorne anfangen. Hilfreich war dabei, dass ich Text Mining mit dem Modul "Präsentieren" kombiniert habe, dass mich auf eine ganz andere Weise forderte. Noch mehr abstraktes Denken hätte ich parallel zu Text Mining nicht geschafft.
     
    Man kann also sagen, dass Text Mining für mich ein anstrengendes Modul war. Es war allerdings auch ein Modul, dass ich inhaltlich unheimlich interessant fand. Gerade weil es fachlich zwischen Informatik, Statistik und Sprachwissenschaft angesiedelt ist, was die Sache natürlich auch schwierig macht. Im Wahlpflichtbereich gibt es leichtere Optionen. Andererseits meine ich, dass die Module "Data Mining" und "Business Intelligence" erst mit diesem Modul "komplett" sind, weil eben hier die mathematische und algorithmische Perspektive betont wird. Das Modul ist klar für Studierende, die sich im Wahlpflichtbereich ein bisschen fordern wollen.
     
    Aktuell warten nur noch zwei gebuchte Module auf mich - IT-Projektmanagement und Electronic Business. In beide habe ich schon reingeschnuppert. Ich hoffe, diese beiden Module im Januar abschließen zu können. Danach sollte nur noch die Bachelorarbeit vor mir liegen.
  6. kurtchen
    Mein zweites Modul bei der W3L war "Rechnerstrukturen und Betriebssysteme". Es ist eines von 4 Pflichtmodulen im Studienbereich IT-Systeme. Ich hatte es früh belegt, weil ich wusste, dass es dort auch um Digitalelektronik geht. Da hatte ich ein bisschen Vorkenntnisse, weil ich in der 9. und 10. Klasse einen Differenzierungskurs Mathematik belegt hatte, und da hatten wir uns ein halbes Jahr lang mit Digitalelektronik beschäftigt und z.B. Serienaddierer gebaut. Insofern hatte ich gehofft, dass mir dieses Modul etwas leichter fallen würde, was für den Einstieg ins Studium ja nicht schlecht gewesen wäre. Ein bisschen Zweifel an dieser Entscheidung kamen auf, als beim Präsenztag mehrere Kommilitonen meinten, dieses Modul habe es in sich. Aber da hatte ich schon gebucht und musste die Sache angehen.
     
    Inhalte des Moduls waren:
    - Codierung von Zahlen.
    - Boolesche Algebra:  Ausdrücke, Funktionen, Normalformen
    - Umformung und Minimierung boolescher Ausdrücke
    - darauf aufbauend Schaltnetze: Das sind zustandslose Schaltungen, die bei einem bestimmten Eingangsvektor immer den gleichen Ausgangsvektor liefern.
    - und Schaltwerke: Die haben einen inneren Zustand, der mit dem Eingangsvektor verknüpft wird. Und darum liefern die nicht immer den gleichen Ausgangsvektor bei gleichem Eingangsvektor.
    - Rückkopplungselemente, Flip-Flops, Steuerwerke
     
    Bis  hierhin kam ich mit meinem Schulwissen ziemlich gut mit.
     
    Aber nun ging es weiter mit:
    - Grundstruktur des Prozessors
    - Rechenwerk des Prozessors
    - Steuerwerk des Prozessors
    - Prozessorarchitekturen
    - Befehls- und Programmabarbeitung
    - Koprozessoren
    - Optimierungskonzepte
    - Multiprozessorsysteme
    - Prozessorcaches
    - Ein-/Ausgabe-Komponenten
     
    Da hatte ich weniger Vorkenntnisse und das fiel mir schon schwerer.
     
    Nun kam der Schwenk zur Software also zu Betriebssystemen. Hier ging es vor allem um:
    - Prozessverwaltung
    - Speicherverwaltung
    - Dateiverwaltung
     
    Einsendeaufgaben waren z.B. einen Fehler in einem Schaltwerk finden, ein Schaltnetz vereinfachen, die Vorzüge verschiedenen Prozessorarchitekturen gegeneinander abwägen, virtuelle Speicheradressen berechnen.
     
    Eine Herausforderung bei diesem Kurs war, dass das Lehrbuch sehr dicht geschrieben war. Es hatte nur an die 200 Seiten, was mir zunächst sehr wenig vorkam. Aber die hatten es in sich. Jeder Satz zählte. Am Anfang hatte ich mit diesem Stil meine Schwierigkeiten. Ich hatte mir viel Sekundärliteratur aus der Uni-Bibliothek besorgt, um alles noch einmal und ausführlicher zu lesen. Nach einer Weile merkte ich jedoch: Das knappe Buch der W3L enthält alles was man braucht. Man muss nur sehr genau lesen und sich klar machen, dass jeder Satz wichtige Informationen enthält. Nachdem ich  das begriffen hatte, war ich von dem  Buch sogar ziemlich begeistert. Wegen der knappen Form konnte man es sehr gut zum Nachschlagen benutzen. Es dauerte nie lange, etwas zu finden.
     
    Sehr hilfreich war auch bei diesem Kurs die recht intensive Betreuung durch meinen Tutor, der viele weitergehende Fragen von meiner Seite in kurzer Zeit beantwortete und auch mal auf Nachfrage zusätzliches Material per PDF schickte. So bekam ich im Laufe der Zeit doch ziemlich viel Spaß an der Auseinandersetzung mit den Themen des Kurses.
     
    Die Klausur lief dann auch  ganz gut. Ich hatte sogar Zeit, vieles noch einmal gründlich zu checken. Geholfen hat mir hier, dass ich die Einsendeaufgaben in der Vorbereitung noch einmal  gründlich durchgegangen war und auch die Online-Klausur geschrieben hatte. Das gab schon einen ganz guten Eindruck von dem, was einen erwartete.
     
    Nach dem Kurs hätte ich Lust gehabt, vertiefende Kurse mit Hardwarebezug zu buchen. Internet of things ist ja ein aktuelles Schlagwort und es gibt auch immer mehr embedded systems, die in irgendeiner Weise vernetzt sind. Leider hat die W3L hierzu bislang nichts im Angebot. Das Studium heißt "Web- und Medieninformatik", insofern spielen Web-Technologien die entscheidende Rolle. Hardware ist eher ein Grundlagenthema, mit dem man sich einmal auseinander gesetzt haben sollte. Um mehr  davon zu bekommen, hätte ich wohl eher  technische  Informatik studieren müssen. Vielleicht kommt ja später einmal eine Gelegenheit, mich mit solchen Themen vertieft zu beschäftigen.
     
  7. kurtchen
    Einbettung in den Studiengang
     
    Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt.
     
    Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden.
     
    Das Lehrbuch
     
    Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste.
     
    Multimedia wird im Buch aus drei Blickwinkeln betrachtet:
    Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind.  
    Kapitel: Bild
     
    Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen.
     
    Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert.
     
    Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht.
     
    Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht.
     
    Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können.
     
    Kapitel: Audio
     
    Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht.
     
    Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können.
     
    Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden.
     
    Kapitel: Video
     
    Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton.
     
    Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen.
     
    Kapitel: 2D-Animation mit Flash
     
    Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten.
     
    Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann.
     
    Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden.
     
    Kapitel: 3D-Animation mit VRML
     
    Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte.
    Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein.
     
    Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt.
    Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt.
     
    Kapitel: Einsatz dynamischer Medien
     
    Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind.
     
    Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel.
     
    Die Einsendeaufgaben
     
    Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen.
     
    Die Präsenzklausur
     
    Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben..
     
    Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt.
     
    Fazit
     
    Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden. 
    Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen.
     
    Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.
  8. kurtchen
    14 Uhr - Vorlesung: "Smarte Gegenstände, hybride Produkte, disruptive Geschäftsmodelle, neue Arbeitsformen, Always on-Gesellschaft - wie Vernetzung und Digitalisierung Wirtschaft, Verwaltung und Gesellschaft verändern", Prof. Dr. Uschi Gröner, FH Dortmund
     
    Die letzte Vorlesung des Tages hielt Prof. Dr. Uschi Gröner vom Fachbereich Wirtschaft der FH Dortmund. Sie lehrt Betriebsinformatik und verteilte Informationssysteme. Da am Ende des Präsenztages meine Aufmerksamkeit schon etwas nachließ, waren meine Notizen dazu nicht mehr so detailliert. Insofern kann ich über ihren Vortrag nur skizzenhaft berichten.
     
    Ist-Zustand
     
    Frau Gröner begann mit einer Analyse des Ist-Zustandes. 81% der Bevölkerung sind Online. Das bedeutet im Umkehrschluss, dass immerhin noch 19% - also fast ein Fünftel der Bevölkerung - "Offliner" sind. 15-16 Millionen Deutsche sind NICHT im Internet. 94% davon sind älter als 50. Frauen stellen in dieser Gruppe die Mehrheit.
     
    Wie nimmt man diese Gruppe mit? Diese Frage ist relevant, denn gerade Führungskräfte sind oft ältere Mitarbeiter. Startups haben dagegen meist junge Mitarbeiter. Es fehlt oft an Kompetenzen, ältere Mitarbeiter und solche, die nicht so technikaffin sind, in Übergänge einzubinden.
     
    Weltweit sind ca. 4 Milliarden Menschen online. Wir befinden uns in der Phase der 4. industriellen Revolution. Wie sind wir dorthin gelangt?
     
    Blick zurück
     
    Frau Gröner lieferte einen knappen historischen Rückblick über die bisherigen 3 industriellen Revolutionen. (Im Modul "Electronic Business" wird dieses Thema ausführlicher behandelt.) Einen guten Überblick liefert in diesem Zusammenhang eine Timeline zur Geschichte der Digitalisierung, die man unter www.swisscom.ch finden kann.
     
    1. Industrielle Revolution
     
    Sie begann um 1784 mit der Nutzung von Wasser und Dampfkraft und war gekennzeichnet durch mechanische Produktionsanlagen, die harte körperliche Arbeit ersetzten. In diese Ära fallen auch Innovationen wie die Eisenbahn und der Photoapparat. (Die Eisenbahn eröffnet z.B. die Möglichkeit, auch weiter entfernte Märkte zügig zu beliefern.)
     
    2. Industrielle Revolution
     
    Sie begann um 1870 und ist gekennzeichnet durch die Nutzung elektrischer Energie, künstliches Licht (das z.B. Produktion rund um die Uhr ermöglichte), das Fließband, die Erfindung des Telefons. Es war die Ära der arbeitsteiligen Massenproduktion. Frau Gröner empfahl in diesem Zusammenhang den Spielfilm-Klassiker "Moderne Zeiten" von Charlie Chaplin. Er zeigt und parodiert die monotone Arbeit dieser Zeit.
     
    3. Industrielle Revolution
     
    Sie begann um 1969. Es ist die Ära der speicherprogrammierten Steuerung und der Miniaturisierung von Technik. Dies ermöglichte automatisierte Produktion durch elektronische Steuerung. In diese Phase fallen Innovationen wie E-Mail, Mikrosystemtechnik, Mikroprozessoren oder RFID. Durch Software können immer mehr Arbeitsprozesse automatisiert werden, z.B. im Rechnungswesen. Unternehmenskennzahlen sind erstmals zeitnah verfügbar. Vorher war der Jahresabschluss eines Vorjahres oft erst im August fertig. Auch das World Wide Web, GPS, Mobilfunk oder Skype werden dieser Epoche zugerechnet.
     
    4. Industrielle Revolution
     
    Sie findet gerade statt und ist gekennzeichnet durch die Verschmelzung von virtueller und realer Welt. Alles ist mit allem vernetzt. Es ist eine Ära der Sensorik und Robotik und der weltweiten Vernetzung von intelligenten Gegenständen (Internet of things, IOT). Menschen und Geräte sind "always on". Durch die Vernetzung aller Dienste entsteht Big Data. Intelligente Algorithmen übernehmen zunehmend Denkarbeit. Nutzer haben nicht nur Smartphones sondern zunehmend Smart Things.
     
    Konsequenzen von "always on"
     
    Der Mensch und seine Wünsche stehen im Mittelpunkt. Internetbasierte Dienste bieten ihren Nutzern enormen Komfort und enorme Preistransparenz. Nutzer erwarten, alles sofort und zum bestmöglichen Preis zu bekommen. Sie wollen personalisiert angesprochen werden (also z.B. nur Angebote bekommen, die für ihre Präferenzen und Bedürfnisse relevant sind).
     
    Interessant in diesem Zusammenhang ist die Infografik "60 Sekunden im Internet" auf de.statista.com.
     
    An dieser Stelle thematisierte Frau Gröner einen Widerspruch: Die oben erwähnten Erwartungen an schnelle und günstige Bedürfnisbefriedigung stehen im Widerspruch zu unserem Wunsch, nicht transparent zu werden. Dafür müssten wir allerdings lernen, bestimmte Dinge nicht mehr zu tun, oder darauf verzichten, bestimmte Dienste zu nutzen. Als Beispiel nannte sie Fitness-Tracker, die Bewegungsprofile erfassen. Selbstverständlich könnte man sich auch ohne solche Hilfsmittel fit halten.
     
    An dieser Stelle entspann sich eine kleine Diskussion unter den Zuhörern. Manche Studierende setzen ihre Hoffnung auf bessere Aufklärung und Bildung insbesondere jüngerer Nutzer. Wenn diese über Risiken informiert seien, würden sie bewusster mit der Preisgabe persönlicher Daten umgehen. Andere sahen das pessimistischer. So gibt es z.B. kostenpflichtige Alternativen zu Diensten wie WhatsApp. Diese werden aber wenig genutzt, obwohl sie nur wenig kosten. Frau Gröner verwies in diesem Zusammenhang darauf, dass die meisten Menschen inzwischen sehr viele Dienste nutzen. Selbst wenn pro Dienst nur überschaubare Beträge fällig würden, käme so im Monat doch eine nennenswerte Summe zusammen.
     
    Was ist Digitalisierung?
     
    Die Überführung analoger Werte in digitale Wert ist in diesem Zusammenhang nicht gemeint. Auch nicht die Automation, denn die gab es schon in der 3. industriellen Revolution. Auch die Kombination von Automation und Änderung des Geschäftsmodells ist noch nicht gemeint. Ein Beispiel dafür wäre eine digitale Überweisung und auch die gibt es schon länger.
     
    Gemeint ist vielmehr ein Paradigmenwechsel. Software und Hardware werden für völlig neue Geschäftsmodelle eingesetzt. Wenn diese neuen Geschäftsmodelle alte ersetzen, nennt man sie disruptiv. Oft decken solche Modelle aber auch einen bislang ungedeckten Bedarf.
     
    Ein Beispiel für solch ein neues Geschäftsmodell findet sich unter www.moovel.com. Daimler und BMW bündeln dort ihre Mobilitätsdienste. ÖPNV, car2go, mytaxi und Bahn werden in einer App verbunden. Man kann schnellste Routen über unterschiedlichste Verkehrsträger suchen, buchen und bezahlen. Das hat das Potential, Dienste, die nur einen Verkehrsträger abdecken, zu ersetzen.
     
    Warum macht ein Unternehmen wie Daimler so etwas? Wahrscheinlich weil man erwartet, dass künftig nicht das Auto im Mittelpunkt des Kundeninteresses steht sondern die Mobilität an sich.
     
    Bei einem disruptiven Geschäftsmodell ändern sich die Art der Leistungserbringung, die Leistung, das Produkt oder die Art der Bezahlung. Elektronische Zahlverfahren spielen dabei eine wichtige Rolle.
     
    Ein Beispiel für ein (künftiges) disruptives Geschäftsmodell wäre Carsharing mit fahrerlosen Autos. Die Fahrzeuge wären besser ausgelastet und man bräuchte weniger Platz für parkende Autos. Der Kunde "kauft" seine Fahrt zu Arbeit und nicht ein Fahrzeug, das die meiste Zeit ungenutzt herumsteht.
     
    Kennzeichnend für neue Geschäftsmodelle sind oft neue Erlösmodelle. Gängig ist inzwischen, dass neben Nutzern und Anbietern eines Dienstes noch Dritte involviert sind. Frühere Geschäftsmodelle folgten dem Muster: "Ich kaufe oder nutze, also muss ich auch bezahlen." Bei neuen Geschäftsmodellen zahlt die Leistung immer häufiger ein Dritter, weil er personalisierte Werbung platzieren will oder mit personenbezogenen Daten der Nutzer handeln möchte.
     
    Welche Technologien haben Bedeutung für die Wettbewerbsfähigkeit deutscher Unternehmen?
     
    Industrie 4.0: Maschinen und Gegenstände werden mit Hard- und Software gekoppelt. Es entsteht ein Cyber Physical System, z.B. eine Smart Factory, in der Maschinen miteinander kommunizieren. Sie rüsten sich z.B. schneller ein oder um, weil sie wissen, welche Teile von anderen Maschinen kommen. Big Data: Entsteht als Folge der Vernetzung aller Dienste und Geräte. Big Data bezieht sich auf das Volumen der Daten und auf die Geschwindigkeit ihrer Generierung, aber auch auf eine größere Datenvielfalt (Formate, unstrukturierte und halbstrukturierte Daten). Real-Time Analytics ermöglicht die Auswertung solcher Daten in Echtzeit und somit schnellere Entscheidungen. Predictive Analysis versucht, auf der Grundlage vorhandener Daten in die Zukunft zu blicken. Prescriptive Analysis geht noch einen Schritt weiter, indem automatisiert Handlungsempfehlungen gegeben werden. Im Zusammenhang mit Big Data entstehen neue Berufsfelder mit Bezeichnungen wie Data Scientist, Datenanalyst, Datenarchitekt, Datenwissenschaftler. Die Datenmengen sind in den Unternehmen oft längst da. Die Unternehmen bekommen nun aber neue Möglichkeiten, die vorhandenen Daten zu nutzen. Augmented Reality: Techniker bekommen bei Reparaturen Hilfestellungen in ihr Sichtfeld eingeblendet. Robotik: Ein Beispiel für eine neue Robotik-Anwendung ist Pepper, ein humanoider Roboter, der z.B. in Verkaufräumen oder an Empfangstischen eingesetzt werden könnte. Ein anderes Beispiel sind Roboter für die letzte Meile im Logistikbereich. Blockchain: Mit dieser Technologie lassen sich Daten fälschungssicher ablegen. Estland nutzt dies z.B. für Bürgerdaten. 3D-Druck: Ein Beispiel wären 3D-Drucker, die ein Wohnhaus bauen können. Spracheingabe-Systeme: Viele Nutzer haben bereits solche Sprachassistenten. Diese müssen sich an ihre Nutzer anpassen, indem sie trainiert werden. Das geht mittlerweile meist recht schnell.  
    Was sind Folgen der Digitalisierung?
     
    Die Arbeit wird sich verändern: Microsoft hat in München ein Gebäude, in dem nur Arbeitsplätze für zwei Drittel der Mitarbeiter zur Verfügung stehen. Der Rest ist im Home Office. Auch Digitale Nomaden sind ein Beispiel für veränderte Arbeit. Es gibt Plattformunternehmen ohne Produktionsmittel: Sie haben schon heute produzierende Unternehmen als Börsenchampions abgelöst. Börsenwert und Anzahl der Beschäftigen entkoppeln sich. Für vergleichbare Leistungen werden viel weniger Beschäftigte gebraucht. Ein vergleichbarer oder sogar höherer Börsenwert lässt sich mit weniger Beschäftigten generieren. Der IT-Fachkräftemangel spitzt sich in allen Branchen zu.  
    9 von 10 Unternehmen halten die Digitalisierung für eine Chance.
     
    Im Verlauf des Vortrages kam es immer wieder zu kleinen Diskussionen. Gerade über das Thema "Folgen der Digitalisierung" hätten wir noch lange sprechen können. Leider endete nicht nur diese interessante Vorlesung sondern auch der Präsenztag. Gerade Studierende, die eine weitere Anreise hatten, mussten ihre Anschlüsse bekommen.
     
    Fazit (zum Präsenztag):
     
    Der Präsenztag war wieder mal sehr schön. Bei Kaffee und Kuchen, Snacks und Getränken gab es immer wieder Gelegenheit, mit anderen Studierenden, Mitarbeitern des Studienbüros und der Hochschule ins Gespräch zu kommen. Auch wenn der Studiengang gewachsen ist, die im Vortrag unserer Absolventen beschriebene familiäre Atmosphäre ist noch immer spürbar. Ich freue mich auf den nächsten Präsenztag. Falls ich gut vorankomme, könnte es mein letzter werden. Bei dem Gedanken mischt sich auch ein bisschen Bedauern in meine Vorfreude.
  9. kurtchen
    Nach dem für mich nicht so befriedigenden Modul "Webprogrammierung" wollte ich zügig zum Modul "Webanwendungen 1" übergehen. Da ich schon einmal einen Blick ins Lehrbuch geworfen hatte, erwartete ich, hier die gründliche Einführung in HTML und CSS zu erhalten, die ich im Vorgängermodul vermisst hatte. Außerdem behandelt "Web-Anwendungen 1" HTML5 und nicht XHTML wie noch in "Webprogrammierung". Mein oberflächlicher Eindruck war, dass ich dieses Modul viel lieber als erstes belegt hätte. Und so kam es auch.
     
    Weil ich von meiner Tutorin wusste, dass die Rückmeldungen zu den Aufgaben in den nächsten Wochen nicht in gewohnter Geschwindigkeit kommen würden, hatte ich für die Bearbeitung dieses Moduls etwas mehr Zeit eingeplant. Genauer gesagt bearbeitete ich es parallel zu GdI4 "Algorithmen und Datenstrukturen". Auf diese Weise kam ich im Studium insgesamt zügig voran, obwohl das Tempo im Modul niedriger war. Normalerweise bearbeite ich die Themen lieber schön nacheinander, aber in diesem Fall erwies es sich als gute Strategie. Ich war auch froh, dass mir meine Tutorin realistisch mitgeteilt hatte, dass es etwas länger dauern könnte. So konnte ich mich auf die Situation einstellen und entsprechend planen. (Von vielen Modulen bei der W3L bin ich auch etwas verwöhnt. Aktuell bearbeite ich zum Beispiel "Softwaretechnik 1". Da bekomme ich meine Einsendeaufgaben oft einen Tag nach Einsendung korrigiert zurück. Das ist schon irre schnell, vor allem wenn man sich klarmacht, dass die Tutoren ihre Tätigkeit nur zusätzlich ausüben.)
     
    Das Lehrbuch zu "Web-Anwendungen 1" hat an die 480 Seiten und behandelt in erster Linie HTML5, CSS und ein bisschen Javascript. Deutlich weniger Themen als im Vorgängermodul "Webprogrammierung". So bleibt mehr Zeit, in die Tiefe zu gehen. Ebenfalls angenehm: Am Fallbeispiel eines (zugegebenermaßen sehr einfachen) Web-Anzeigenmarktes werden die verschiedenen Konzepte aus dem Kurs in einer Anwendungssituation gezeigt.Im Fallbeispiel geht es nicht allein um das zu erstellende Produkt Webanzeigenmarkt sondern auch um die fiktive Firma, die ihn im Auftrag eines Kunden entwickelt. Und um die verschiedenen Berufsrollen in diesem Entwicklungsprozess und wie sie miteinander kooperieren. Das trägt sehr zum Verständnis bei. Solche Fallbeispiele kenne ich auch aus anderen Kursen der W3L, aber gerade in diesem Modul fand ich es sehr gelungen umgesetzt.
     
    In diesem Modul geht es um statische Webseiten. Erst in "Web-Anwendungen 2" geht es wieder darum, HTML-Code dynamisch zu erzeugen. Das Buch beginnt mit dem für die W3L üblichen Schnelleinstieg. Hier geht es um den Aufbau eines HTML5-Dokumentes, um das Anlegen von Links, das Einfügen von Bildern, die Verwendung von Formularen und Tabellen und um erste Schritte mit CSS. Alle diese Themen werden später im Buch in eigenen Kapiteln vertieft.
     
    Es gibt ein kurzes Kapitel zum HTTP-Protokoll, aber das wird detaillierter im Modul "Computernetze" behandelt und soll hier nur Hintergrundinformationen für die eigentlichen Kursinhalte liefern.
     
    Nun kommen 60 Seiten Einführung in HTML5. Hier merkte ich sowohl beim Durcharbeiten des Lehrbuches als auch beim Bearbeiten der Einsendeaufgaben: Es bleibt viel mehr hängen. Die Aufgaben waren auch weniger technisch und boten Möglichkeiten, ein bisschen kreativ zu sein. Themen hier sind z.B.:
    - Strukturelemente
    - Zeichensätze
    - Block- und Inline-Elemente
    - Hyperlinks
    - Einführung in Webserver
     
    Besonders interessant fand ich die Ausführungen zur Modellierung von Webseiten mit UML und die Hinweise zur systematischen Programmierung.
     
    Weiter ging es mit einem Kapitel zum Einbinden von Multimedia-Elementen in Webseiten, also Bilder, Audio und Video. Hier geht es auch um Grafik-, Audio- und Videoformate und um Link-sensitive Bilder.
     
    Im nächsten Kapitel ging es um CSS:
    - Trennung von Struktur und Präsentation
    - Stilregeln
    - Textgestaltung und Schrift
    - Farbe und Hintergrund
    - Textformatierung
    - und das Boxmodell
     
    Speziell beim Boxmodell empfehle ich, aufmerksam zu arbeiten, denn das ist etwas, dass sich in einer Klausur in knapper Form abprüfen lässt, ohne dass man viel Code schreiben muss.
     
    Zwischen den Kapiteln kommt der Lehrtext immer wieder auf das Fallbeispiel Webanzeigenmarkt zurück, dass mit den neuen Techniken erweitert und verfeinert wird. So erlebt man den neuen Stoff im Zusammenspiel mit bekannten Inhalten. Das finde ich wirklich didaktisch gut gemacht.
     
    Nun folgen zwei Kapitel zu Tabellen und Formularen. Insbesondere Formulare sind ja für die Interaktion mit den Nutzern einer Seite sehr wichtig. Hier gibt es inhaltliche Überschneidungen mit dem Modul "Web-Design und Web-Ergonomie", wobei es in "Web-Design" um Aufbau und Gestaltung von Formularen geht und in diesem Modul um die technische Umsetzung. Die Module wirken an dieser Stelle gut aufeinander abgestimmt. Auch Tabellen und Formulare werden ins Fallbeispiel Webanzeigenmarkt integriert.
     
    Im nächsten Kapitel geht es um Javascript. Mit "Webprogrammierung" im Hintergrund kam ich diesmal ganz gut zurecht, wenngleich der Stoff auch hier recht komprimiert vermittelt wurde. Ca. 25 Seiten mussten genügen.
     
    Das nächste Kapitel war das einzige im Buch, dass ich nicht so gelungen fand. Hier ging es um neue Features in HTML5, z.B. zur Validierung von Formularen, für Drag&Drop, um das Canvas-Element, um die lokale Speicherung von Web-Ressourcen und um sematische Auszeichnung. Hier war man bemüht, aktuelle Inhalte zu vermitteln. Beim Ausprobieren der Fallbeispiele erlebte ich, dass die Browser neue Elemente zum Teil sehr unterschiedlich darstellen, so dass man sich gut überlegen muss, was man davon in der Praxis verwenden möchte. Oft schienen Codebeispiele erst nicht zu funktionieren, bis ich sie in einem anderen Browser testete. Am besten liefen die Sachen noch im Firefox. (Ich verwende meist Chrome.) Der Grund, weshalb ich von diesem Kapitel nicht so begeistert war: Es fehlte der rote Faden, der sich sonst durch das ganze Lehrbuch zog. Eher war es eine bunte Sammlung von Themen, die in einer recht beliebig scheinenden Reihenfolge präsentiert wurden und zwischen denen es wenig inhaltliche Zusammenhänge gab. Das erinnerte ein wenig an den eher technischen Charakter des Vorgängermoduls "Webprogrammierung". Entsprechend war der Stoff dieses Kapitels auch nicht mit dem Fallbeispiel verknüpft.
     
    Das folgende Kapitel zu CSS war wiederum sehr gelungen. Hier ging es um:
    - Selektoren
    - Pseudoelemente und Pseudoklassen
    - um medienspezifische Präsentation, also um Seiten die z.B. auf einem Smartphone anders aussehen als auf einem Bildschirm
    - um den Elementfluss
     
    Wenn man hier gut aufpasste, konnte das schon als erster Einstieg in responsive Web-Design dienen, auch wenn das nicht explizit Thema des Moduls ist. Meine Tutorin hat mir hier ein sehr gutes weiterführendes Buch empfohlen und ich habe auch einige Aufgaben aus dem Modul nach diesem Kapitel neu bearbeitet, um z.B. Formulare so umzugestalten, dass sie auch auf einem Handydisplay gut zu bedienen sind. An diesem Punkt hatte ich das Gefühl, dass nun alle Kursinhalte schön ineinander greifen und ich die Dinge im Zusammenhang sehe. Ein befriedigender Abschluss.
     
    Das letzte Kapitel handelte von barrierefreiem Webdesign. Es ist aber zu kurz, um danach wirklich Ahnung vom Thema zu haben. Trotzdem finde ich es gut, dass es im Modul enthalten ist. Behörden müssen sich mit dem Thema auseinandersetzen. Firmen machen es seltener. Ich finde das Thema wichtig. Das Internet ist längst im Alltag unverzichtbar, aber man vergisst gerne, dass es viele Menschen gibt, die aufgrund von Einschränkungen Webseiten nicht so nutzen und betrachten können wie die meisten von uns. Aber auch diese Menschen brauchen die Informationen und Dienste, die das Web bereitstellt. In "Web-Design und Web-Ergonomie" taucht dieses Thema noch einmal auf. Leider auch dort in recht kompakter Form. Klar wird allerdings: Barrierefreiheit per se gibt es nicht. Barrierefrei ist eine Seite immer im Hinblick auf die Fähigkeiten und Möglichkeiten ihres Nutzers. Ein blinder Mensch hat zum Beispiel andere Bedürfnisse als jemand mit motorischen Einschränkungen.
     
    Die Einsendeaufgaben haben mir in diesem Modul viel Spaß gemacht und bauten zum Teil auch aufeinander auf. Die Rückmeldung kam zum Teil recht langsam, dann oft schubweise für mehrere Aufgaben, aber das war mir ja so angekündigt worden und ich hatte entsprechend geplant. Auch die Korrektur der Präsenzklausur ließ ein Weilchen länger auf sich warten. Dies mag aber auch den Sommerferien geschuldet gewesen sein.
     
    Die Präsenzklausur fand ich leider nicht so einfach, obwohl viele meiner Kommilitonen der Ansicht waren, im Falle von "Web-Anwendungen 1" sei sie ja besonders leicht. Viele meiner Mitstudierenden arbeiten als Web-Entwickler und haben täglich mit den Inhalten dieses Moduls zu tun. Solche Routine ist natürlich mit Pauken nicht zu ersetzen. Mein Problem war denn auch in erster Linie die Zeit, die ich für die Aufgaben brauchte. Hier ist es mir leider nicht gelungen, alles zu bearbeiten. Ein weiteres Problem war das Arbeiten mit Stift und Papier, ohne zwischendurch einmal sehen zu können, wie das nun im Browser dargestellt wurde. Ich hatte zwar auch für diese Klausur einige Aufgaben noch einmal von Hand bearbeitet, aber dieser Aspekt blieb für mich schwierig.
     
    So befürchtete ich denn, bei diesem Modul schlechter abzuschneiden als bei "Webprogrammierung". Das hätte mich sehr geärgert, weil ich das Gefühl hatte, diesmal den Stoff viel besser verstanden zu haben. Zum Glück hatte ich beim Abschlusstest und der Online-Klausur ziemlich gut abgeschnitten, so dass mir die Bonuspunkte halfen, ein paar Schwächen in der Präsenzklausur auszugleichen. Insgesamt endete es nicht schlechter als in "Webprogrammierung", so dass ich nicht nur mit dem Modul sondern auch mit dem Ergebnis zufrieden war.
     
    Anderen Studierenden im Studiengang Web- und Medieninformatik würde ich empfehlen, sowohl in "Webprogrammierung" als auch in "Web-Anwendungen 1" reinzuschnuppern. Und sich dann zu überlegen, ob sie "Web-Anwendungen 1" nicht entgegen der Empfehlung der W3L zuerst belegen möchten.
  10. kurtchen
    Ich befinde mich nun in der letzten Etappe meines Fernstudiums. Das dauert nun doch schon länger, als ich mir vorgenommen hatte, denn zwischenzeitlich hatte ich sogar gehofft, Ende 2018 fertig zu werden. 
     
    Rückblickend war diese Hoffnung nicht realistisch. Zu Beginn war ich schneller vorangekommen, als ich gedacht hätte. Die Module in den Kernbereichen des Informatikstudiums wie Mathematik, Programmierung, Softwaretechnik oder IT-Systeme fand ich inhaltich spannend. Entsprechend leicht fiel es mir, mich zum Lernen zu motivieren. Meine raschen Fortschritte dieser Zeit habe ich extrapoliert.
     
    Themen, die mich weniger interessiert haben (wie z.B. BWL), habe ich dagegen vor mir hergeschoben. Mein Lernfortschritt in solchen Modulen war zäher. Ohne Neugier auf die Inhalte fiel es mir schwerer, an den Themen dranzubleiben. Auch blieb mir der Stoff nicht so mühelos im Gedächtnis wie bei den Themen, die mich stark interessierten. Das hat meinen Studienfortschritt im letzten Drittel ausgebremst. Schließlich habe ich den Anstieg des fachlichen Niveaus unterschätzt. Module wie "Text Mining" waren spannend, aber den Erfolg musste ich mir hier mühsamer erarbeiten als in den ersten Semestern.
     
    Auch die Projektarbeit hat viel Zeit verschlungen. Die war meiner Meinung nach aber gut investiert. Ich konnte hier Wissen aus verschiedensten Modulen meines Studienganges verbinden und anwenden. Zugleich war es spannend, längere Zeit an einer Software zu arbeiten, die allmählich größer und unübersichtlicher wurde. Das hat mich immer wieder herausgefordert, Entwurfsentscheidungen erneut zu bewerten, um der wachsenden Komplexität Rechnung zu tragen. Die Inhalte vieler Module wurden dadurch noch einmal lebendig. Insofern war der fachliche Gewinn sehr hoch. Leider habe unterschätzt, wie viel Aufmerksamkeit und Zeit die Projektarbeit binden würde. Mein Plan, nebenbei noch regelmäßig Module zu bearbeiten und Klausuren zu schreiben, erwies sich als zu ambitioniert.
     
    Inzwischen bearbeite ich mein letztes Modul "Electronic Business". Es richtet sich an Wirtschaftsinformatiker. Dementsprechend betrachtet es das Thema Web-Business nicht durch eine technische sondern durch eine unternehmerische "Brille". Solche Module sind mir in meinem Studium schwer gefallen. Andererseits habe ich bewusst immer wieder auch solche Module im Wahlpflichtbereich belegt. Die Erfahrung, sich in Themen einzuarbeiten, die nicht auf den ersten Blick "zum Anbeißen" sind, gehört meiner Meinung nach zu einem Studium dazu. Ich sehe aber auch, dass ich im Vergleich zu Menschen, die für betriebswirtschaftliche Themen ein genuines Interesse aufbringen, langsamer bin. Es ist gut, solche Erfahrungen zu machen. Am Ende meines Studium will ich nicht nur meine Stärken sondern auch meine Schwächen besser kennen.
     
    Vor einigen Wochen habe ich schließlich meine Bachelorarbeit angemeldet. Diese soll nicht auf meiner Projektarbeit aufbauen, ist also auch nicht praxisbezogen. Die Projektarbeit war ja eine konstruktive Arbeit, die ein praxisbezogenes Problem lösen sollte. Dabei sollten zwar Erkenntnisse der Informatik zur Anwendung kommen und auch Techniken des wissenschaftlichen Arbeitens geübt werden, aber der Fokus lag natürlich auf den Anforderungen und der Anwendungsdomäne. Die Bachelorarbeit soll dagegen eine wissenschaftliche Fragestellung untersuchen. Ich hatte den Wunsch, hier thematisch wieder stärker im Kernbereich der Informatik als Strukturwissenschaft zu landen. Zur Bachelorarbeit werde ich einen eigenen Blogbeitrag verfassen, aber es soll um einen Vergleich zwischen objektorientierter und funktionaler Programmierung an einem Fallbeispiel gehen. Ich möchte einige Varianten des klassischen Travelling Saleman Problems mit evolutionären Strategien lösen, und zwar jeweils mit einer objektorientierten und einer funktionalen Implementierung.
     
    Unterschätzt habe ich den administrativen Vorlauf einer Bachelorarbeit. Der ist nämlich höher als bei der Projektarbeit. Zunächst einmal musste ich noch einen Zweitbetreuer finden, dessen Rolle mir anfangs nicht klar war. Inzwischen weiß ich: Der Zweitbetreuer begleitet zwar nicht den Entstehungsprozess der Bachelorarbeit, hat aber auf die Notengebung einen hohen Einfluss und ist auch Prüfer im Abschlusskolloquium. Hier übernahm das Studienbüro wieder eine "Lotsenfunktion". Das ist sehr wichtig, weil man als Fernstudierender die Professoren der FH Dortmund nicht so gut kennt wie ein Präsenzstudierender. Mir wurden zwei Betreuer vorgeschlagen, die ich auch beide schon bei einem Präsenztag erlebt hatte. Das war gut. Beide hatten bei mir einen sehr positiven Eindruck hinterlassen. Den Ausschlag gab, dass der eine Vortrag einen stärker algorithmischen Fokus hatte. Ich hatte den Eindruck, hier mit meinem Thema gut hinzupassen. Dies zeigt aus meiner Sicht noch einmal, dass die Präsenztage einen Wert haben, den man als Student in den ersten Semestern nicht unbedingt erkennt. Der Gedanke, bei diesem oder jenem Vortragenden meine Bachelorarbeit zu schreiben, drängte sich mir damals noch nicht auf. Dieses Ziel war noch zu weit, um greifbar zu sein.
     
    Der eigentliche Anmeldeprozess ist ebenfalls formaler als bei der Anmeldung zu Klausuren oder zur Projektarbeit. Das Anmeldeformular muss per Briefpost nach Dortmund geschickt werden, Erst- und Zweitbetreuer müssen es unterzeichnen und schließlich muss es auch ins Prüfungsamt. Hier geht also ein physischer Gegenstand über Schreibtische, wird mit der Hand angefasst und zu Fuß transportiert. Das macht sich in der Durchlaufzeit bemerkbar. Ich warte nun schon etwas mehr als 3 Wochen auf den Startschuss. Als Studierender auf einer Online-Plattform bin ich natürlich durch schnelle Reaktionszeiten verwöhnt. Aber vor dieser letzten Etappe lebe ich nun noch einmal in der älteren und langsameren analogen Welt, wo gut Ding Weile haben will. Vermutlich wird das mein anvisiertes Studienende noch mal ein paar Wochen nach hinten verschieben.
     
    Innerlich scharre ich schon ein bisschen mit den Hufen, aber zur Untätigkeit bin ich ja nicht verdammt. Denn so bearbeite ich Schritt für Schritt mein letztes Modul Electronic Business und habe dann hoffentlich Kopf und Hände frei, wenn es mit der Bachelorarbeit losgehen darf.
     
    Meine hoffentlich letzte Klausur ist im Mai. Für die Bachelorarbeit darf ich mir 6 Monate Zeit nehmen. Dann kommt noch das Kolloquium. Inzwischen spüre ich deutlich, dass ich in diesem letzten Abschnitt meines Studium nicht mehr ein extern auferlegtes Curriculum abarbeite, sondern eigenen fachlichen Interessen folge. Mein Denken und Handeln ist nicht mehr so kleinschrittig wie in den einzelnen Modulen, wo es jeweils um das nächste Kapitel, den nächsten Online-Test oder die nächste Einsendeaufgabe ging. Inzwischen geht es um ein eigenes fachliches Interesse. Ich selbst suche Mittel und Wege und muss entscheiden, in welche Richtung mich der nächster Schritt führen soll. Das ist schwieriger. Aber ich spüre dadurch auch ein Selbstbewusstsein, dass ich allein durch die erfolgreiche Bearbeitung von Modulen nicht gewinnen konnte.
     
    Was sehr schön ist: Ich genieße es im Moment, neben meinem Studium meinen fachfremden Beruf auszuüben. Die unverblümte und direkte Art der Kinder in meiner Einrichtung holt mich regelmäßig von meinen gedanklichen Höhenflügen zurück und erdet mich wieder ein bisschen.
  11. kurtchen
    Im März 2019 wird es in Dortmund keinen Präsenztag für Studierende in den IT-Studiengängen von Springer Campus geben. Grund dafür sind die geringen Teilnehmerzahlen der letzten Jahre. Darüber informierte uns das Studienbüro in den virtuellen Cafés unserer Studiengänge.
     
    Diese Entscheidung bedauere ich sehr. Leider kann ich die Gründe gut nachvollziehen. Ich erinnere mich noch lebhaft an meinen ersten Präsenztag im September 2015. Dieser war der letzte, bei dem Anwesenheitspflicht bestand. Entsprechend hoch waren die Teilnehmerzahlen. An diesem Tag wurde uns verkündet, dass die Teilnahme wegen einer Gesetzesänderung künftig freiwillig sei. Die Reaktion aus dem Plenum ließ große Zustimmung dafür erkennen. Auch ich fand das damals gut. Da ich nicht in der Nähe wohne, ist für mich die Teilnahme an einem Präsenztag in jedem Fall mit einer Übernachtung verbunden. Der Wegfall der Präsenzpflicht schien mir die Vereinbarkeit von Studium, Beruf und Familienleben zu verbessern. Es ist gut, eine Wahl zu haben.
     
    Ich habe mir trotzdem jedes Mal die Zeit genommen, nach Dortmund zu fahren, und zwar nicht allein wegen der Möglichkeit, am Präsenztag Prüfungen abzulegen. Leider gingen die Teilnehmerzahlen schnell zurück. Manchmal hatte ich den Eindruck, dass manche Studierende allein wegen der Prüfungen anreisten und die Vorträge ausfallen ließen.
     
    In der Summe standen nun anscheinend der Aufwand der Präsenztage und ihre Nutzung durch uns Studierende in keinem vernünftigen Verhältnis mehr. Darum soll es in diesem Jahr nur noch einen Präsenztag im September geben, an dem dann auch die Absolventenfeier stattfindet.
     
    Inzwischen stelle ich meine ursprüngliche Sichtweise auf die Befreiung von der Präsenzpflicht in Frage. Ich fand es damals gut, eine Wahl zu haben, aber die habe ich ja nun nicht mehr. Natürlich kann es viele gute Gründe geben, NICHT an einem Präsenztag teilzunehmen. Aber dass das Angebot so wenig genutzt wurde, spricht in meinen Augen dafür, dass viele Studierende die Vorzüge eines Präsenztages nicht ausreichend wahrnehmen. Nur zwei davon möchte ich hier noch einmal nennen:
    Die angebotenen Tutorien in Mathematik, die mir sehr geholfen haben, eine Lernstrategie für das vergleichsweise schwierige Modul Mathe2 zu entwickeln. Dabei wird gerade dieses Modul immer wieder als Herausforderung beschrieben. Früher oder später braucht man einen Betreuer für eine Projektarbeit und für eine Bachelorarbeit. Dieser Betreuer spielt eine wichtige Rolle im Prozess. Ich empfinde es als besonderen Nachteil eines Fernstudiums, dass wir die Professoren kaum in der Lehre erleben und so ein Gefühl dafür entwickeln können, bei wem wir gerne unsere Abschlussarbeit schreiben würden. Der Präsenztag war eine der wenigen Gelegenheiten dafür.  
    Ich habe gelesen, dass durch eine erneute Gesetzesänderung die Präsenzpflicht an Hochschulen in NRW wieder möglich werden soll. Über die Details bin ich nicht im Bilde. (Ich lebe auch nicht in NRW.) Als Fernstudierender bin ich eigentlich der Auffassung, das Studierende in hohem Maß selbst Verantwortung für ihren Lernprozess übernehmen müssen und dazu auch in der Lage sind. Und zwar unabhängig davon, ob sie Präsenz- oder Fernstudierende sind. Ich glaube, dass viele Menschen lernen und sich entwickeln wollen, aber nicht immer die Möglichkeiten dafür vorfinden, die zu ihrer Lebenssituation passen. Daher bin ich eigentlich stets dafür, externe Hürden, Vorgaben und Beschränkungen abzubauen, und stattdessen Gelegenheiten zu schaffen. Mit dem Beispiel unseres Präsenztages vor Augen denke ich darüber nach, ob mein Menschenbild nicht zu optimistisch ist. Ich kann nun zumindest nachvollziehen, dass Präsenzpflicht für viele Menschen ein bildungspolitisches Thema ist.
     
    Ich genieße es sehr, bei einem vergleichsweise kleinen Anbieter zu studieren. Auch wenn vieles doch per Telefon oder Mail geregelt wird, man kennt die Menschen am anderen Ende der Leitung. Das liegt auch an den Präsenztagen.
  12. kurtchen
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Softwaretechnik 2
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Aktuell in Bearbeitung bei Springer Campus
    - Softwaretechnik 3
    - CMS
    - Data Mining
     
    Noch geplant für das 4. Semester
    - künstliche Intelligenz (WINGS WISMAR)
  13. kurtchen
    Das Abschlusskolloquium ist die letzte Prüfungsleistung in den Informatik-Studiengängen bei Springer Campus. Die Bachelorarbeit wird in einer Präsentation vorgestellt, die 20 Minuten dauern soll. Es folgt ein Prüfungsgespräch mit Erst- und Zweitprüfer. Ich hatte bei Abgabe meiner Bachelorarbeit damit gerechnet, dass es bis zum Kolloquium recht lange dauern würde. Unsere Studiengangskoordinatorin hatte ich mich bei Abgabe der Arbeit nach meinen beruflichen Plänen gefragt. Ich hatte ihr signalisiert, dass ich es schon gut fände, wenn ich zumindest noch vor Jahresende abschließen könnte. Insofern hatte ich auf einen Termin kurz vor Weihnachten gehofft.
     
    Mein Erstprüfer und Betreuer meldete sich dann aber schon knapp drei Wochen nach der Abgabe, um mir einen Termin für Ende November anzubieten; an einem Montag Nachmittag um 16 Uhr. Ich war erst ziemlich überrascht, dass er mit der Korrektur schon so weit fortgeschritten war. Andererseits hatte ich ihm während des Schreibens immer wieder Kapitel der entstehenden Arbeit geschickt, so dass er sie in weiten Teilen schon kannte. Zunächst war ich etwas angespannt, weil ich mich nach der Abgabe auf ein paar Wochen "La dolce vita" gefreut hatte. Nun musste ich die Abschlusspräsentation vorzubereiten. Andererseits war es auch verlockend, noch vor dem ersten Advent das Studium abzuschließen. Und ausnahmsweise einmal eine ruhige Vorweihnachtszeit zu genießen. Der nächste Termin wäre auch erst wieder im neuen Jahr möglich gewesen. Also habe ich zugegriffen.
     
    Bei der Vorbereitung der Präsentation war mein größtes Problem, die umfangreiche Arbeit auf 20 Minuten einzudampfen. Letztlich lief es darauf hinaus, knapp vorzustellen, was das Gesamtkonzept war, und dann stichprobenartig einige Punkte vorzustellen, die mir besonders wichtig erschienen. Insgesamt kam ich so auf 13 Folien.
     
    Themen waren:
    Was unterscheidet funktionale Programmierung von objektorientierter Programmierung? Was ist das Travelling Salesman Problem? Was ist heuristische Optimierung? Grobe Arbeitsweise des Sintflut-Algorithmus. (Die anderen Verfahren habe ich nicht vorgestellt.) Wiederkehrende Muster funktionaler Programmierung in der Fallstudie: Funktionen höherer Ordnung und Funktionsverkettung. Performanceunterschiede zwischen objektorientierter und funktionaler Programmierung. Das Muster "Focussed Mutability" mit dem man die Performance-Nachteile funktionaler Sprachen z.T. ausgleichen kann.  
    Das Material meiner Arbeit musste ich nicht noch einmal durchgehen. Da die Abgabe noch nicht so weit zurück lag, war ich noch gut im Thema.
     
    In der mündlichen Prüfung zum Modul "Präsentieren" hatte ich die Rückmeldung bekommen, dass meine Foliengestaltung recht "altbacken" wirkte. Insofern habe ich einen Tag investiert, um mir verschiedene Präsentationsframeworks anzuschauen. Auf einem unserer Präsentage hatte ich eine Beamerpräsentation von Prof. Jörges (FH Dortmund) gesehen, die er mit dem Framework reveal.js erstellt hatte. Da schreibt man seine Inhalte in HTML (oder Markdown) und braucht sich nicht um graphische Gestaltung kümmern. Das überlässt man einer CSS-Stilvorlage. Die Präsentation läuft dann im Browser. Man kann mit einem geeigneten Plugin die Folien auch in PDFs wandeln, die sich ausdrucken lassen. An dem Ansatz gefiel mir die Trennung von Inhalt und graphischer Gestaltung. Das erinnerte mich an LaTeX, wo ich ja auch nur beschreibe, WAS ich will, und es dem Satzsystem überlasse, WIE das layoutet wird. Das habe ich also mal ausprobiert und die Ergebnisse haben mir auf Anhieb ganz gut gefallen.
     
    Alternativ habe ich auch mal in impress.js angeschaut. Das ist ebenfalls ein Javascript-Framework für Präsentationen. Hier können Inhalte frei in einem dreidimensionalen Raum platziert werden. Die Präsentation ist dann eine Kamerafahrt durch diesen Raum. Das kann sehr chic aussehen. Allerdings ist es auch nicht ganz trivial, diese Möglichkeiten sinnvoll auszuschöpfen.
     
    Als dritte Variante habe ich das LaTex-Paket powerdot angetestet. Damit kann man recht übersichtliche Folien erstellen. Da ich in LaTeX gut eingearbeitet war, wäre ich damit wahrscheinlich am schnellsten voran gekommen. Die Stilvorlagen waren aber ziemlich nüchtern und erinnerten mich an meine mit LibreOffice Impress erstellen Folien. Empfehlen würde ich LaTeX, wenn man Folien mit vielen Formeln setzen muss oder regelmäßig Fußnoten in den Folien unterbringen möchte. Das geht damit sehr komfortabel.
     
    Meine Wahl fiel schließlich auf reveal.js, das mit einem entsprechenden Plugin Formelsatz in LaTeX-Syntax ermöglicht. Wenn man ein bisschen HTML oder Markdown kann, aber nicht so gerne graphisch gestaltet, ist das eine ziemlich gute Möglichkeit, schnell eine Präsentation zu gestalten.
     
    Dann galt es, meinen Vortrag zu üben, um die Inhalte frei sprechend aber eben in 20 Minuten rüber zu bringen. Anfangs lag ich regelmäßig über der Zeit, aber es wurde von Durchgang zu Durchgang besser, so dass ich zumindest in die Nähe der 20 Minuten kam.
     
    Am Tag der Prüfung bin ich vor der Abreise nach Dortmund noch ins Schwimmbad gegangen, um Stresshormone abzuarbeiten. Ich bin dann ziemlich entspannt nach Dortmund gefahren. Auf der Fahrt bin ich meinen Vortrag noch ein paar mal gedanklich durchgegangen. In Dortmund blieb noch Zeit für ein verspätetes Mittagessen.
     
    Gelegentlich möchten andere Studierende an so einem Kolloquium teilnehmen, aber da meines an einem Montag um 16 Uhr stattfand, herrschte im Haus schon allgemeine Aufbruchstimmung in den Fluren. Ich stand also lediglich vor meinen Prüfern.
     
    Das Üben und Feilen an den Formulierungen hatte anscheinend etwas gebracht. Bei der Präsentation blieb ich erstmals knapp unter den anvisierten 20 Minuten. Dafür blieb Zeit, im anschließenden Prüfungsgespräch an der Flipchart vorzustellen, wie die in der Fallstudie verwendeten Mutationsoperatoren funktionieren. Dann ging es unter anderem um die Frage, ob die Performance-Nachteile funktionaler Sprachen eines Tages durch optimierende Compiler überwunden werden könnten. In Teilbereichen gibt es so etwas ja schon. Zum Beispiel übersetzt der Scala Compiler endrekursive Funktionen in Schleifen, weil die JVM gar keine Tail Call Optimierung unterstützt. Aber insgesamt ist nicht damit zu rechnen, dass es derartig optimierende Compiler geben wird, weil man bei funktionaler Programmierung nicht nur mit anderen Sprachen sondern auch mit anderen Datenstrukturen und Lösungsstrategien arbeitet.
     
    Gefühlt ging das Prüfungsgespräch ziemlich schnell rum. Die Notenfindung dauerte auch nicht lange. Mit dem Ergebnis war ich zufrieden. Die Note ist eine Gesamtnote für die Bachelorarbeit und das Colloquium. Gewichtet werden diese beiden Prüfungsteile im Verhältnis 2:1. Da das Kolloquium einen recht großen Anteil an der Gesamtnote der Bachelorarbeit hat, ist es empfehlenswert, auch dieser Prüfungsleistung genügend Zeit und Aufmerksamkeit zu widmen.
     
    Und damit ist das Studium nun rum. Insgesamt habe ich etwas mehr als 8 Semester gebraucht. Als es zwischenzeitlich mit den Modulen sehr schnell voranging, hatte ich ja sogar einmal gehofft, schon um Weihnachten 2018 fertig zu werden. Allerdings erwiesen sich dann die Projektarbeit und die Bachelorarbeit doch als recht aufwendig. Andererseits boten diese Module die beste Gelegenheit, eigenen Interessen zu folgen. Insofern hat es Spaß gemacht, hier Zeit zu investieren.
     
    Auf der Rückfahrt habe ich angefangen, das Hörbuch "Krabat" zu hören. Ich erwähne das hier, weil ich in den vergangenen vier Jahren kaum fiktionale Literatur gelesen habe, obwohl ich eigentlich sehr gerne lese. Das war eines der Opfer, die ich für mein Studium bringen musste. Insofern ist es schön, jetzt auch wieder Zeit für solche Dinge zu haben. Auf mich wartet inzwischen ein halbes Billy-Regal voll mit Romanen, Comics oder auch Sachbüchern, die nichts mit Informatik zu tun haben. Es wird eine Weile dauern, bis dieser Stau aufgelöst ist. Seltsamerweise ist bei mir noch gar nicht so richtig angekommen, dass mein Studium nun vorbei ist. Es bleibt eine innere Unruhe, ein unbestimmtes Gefühl, mich bald wieder an den Schreibtisch setzen zu müssen, weil ich doch bestimmt noch etwas zu tun habe.
     
    Nun bin ich natürlich gespannt darauf, die Urkunde in den Händen zu halten. Von Kommilitonen habe ich sehr unterschiedliche Erfahrungswerte gehört, wie lange so etwas dauern kann. Das wird dann wahrscheinlich einer meiner letzten Beiträge in diesem Blog.
  14. kurtchen
    Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager".
     
    Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde.
     
    Lehrbuch
     
    Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge.
     
    Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben.
     
    Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt.
     
    Inhalte & Themen
     
    Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab.
     
    Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat.
     
    Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2".
     
    Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden.
     
    Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt.
     
    Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen:
    sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten  
    Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren.
     
    Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen.
     
    Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt.
     
    Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie.
     
    Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl.
     
    Klausur
     
    In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht.
     
    Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben.
     
    Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK.
     
    Fazit
     
    "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen.
     
    Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.
  15. kurtchen
    Das Modul Geschäftsprozessmanagement (GPM) ist ein Pflichtmodul in den Studiengängen Web- und Medieninformatik (WMI) und Wirtschaftsinformatik (WI). Im Studiengang WMI ist es - zu meiner anfänglichen Überraschung - dem Studienbereich IT-Systeme zugeordnet. In beiden Studiengängen wird die Belegung im 3. Fachsemester empfohlen. Formal gibt es keine inhaltlichen Voraussetzungen. Empfohlen werden als fachliche Grundlage aber BWL2 und Grundlagen der Informatik 1 (GdI1). Beide Empfehlungen sind für mich nicht nachvollziehbar. Im Falle von BWL2 liegt das daran, dass ich GPM entgegen der Empfehlung vor BWL2 belegt habe. Möglicherweise wäre mir das Modul also leichter gefallen, wäre ich dem empfohlenen Studienplan gefolgt. Warum ich GdI1 belegt haben sollte, erschließt sich mir nicht.
     
    Die Zuordnung zum Studienbereich IT-Systeme wurde mir im Verlauf des Moduls klarer. Geschäftsprozesse werden in Unternehmen durch IT-Systeme unterstützt. Nun wurden Geschäftsprozesse in vielen Unternehmen klassischerweise funktionsorientiert organisiert. Ähnliche Tätigkeiten wurden in Abteilungen zusammengefasst, in denen Mitarbeiter arbeiteten, die genau für diese Tätigkeiten besonders qualifiziert waren. So hatte ein Unternehmen z.B. eine Auftragssannahme, ein Lager, einen Einkauf, eine Montage und so weiter. Diese Gliederung hatte auch oft damit zu tun, dass bestimmte Produktionsmittel, wie z.B. teuere Maschinen, effizienter genutzt werden konnten und nur ein Mal angeschafft werden mussten.
     
    Die funktionsorientierte Gliederung hat aber auch Nachteile. Ein kompletter Geschäftsprozess, z.B. ein Auftrag für ein Produkt, das mit Teilen aus dem Lager gefertigt werden muss, läuft quer durch die Abteilungen. Beim Übergang von Abteilung zu Abteilung wird der Vorgang in Warteschlangen eingereiht. Die Durchlaufzeit von Prozessen verlängert sich dadurch erheblich. Außerdem hat kein Mitarbeiter einen Gesamtüberblick über den einzelnen Prozess. Beim Übergang von Abteilung zu Abteilung müssen Informationen weitergegeben werden. Dabei kommt es zu Missverständnissen und Fehlern. Haben Kunden im laufenden Prozess Rückfragen oder Änderungswünsche, ist es dadurch oft schwierig, einen klaren Ansprechpartner ausfindig zu machen, weil jeder nur seinen Teilschritt betrachtet und kennt. Werden Teilprozesse parallel in unterschiedlichen Unternehmensteilen bearbeitet, ist es schwierig, bei Änderungen des Auftrags alle Daten konsistent zu halten und alle Beteiligten auf den aktuellen Stand zu bringen. Außerdem spielt ein klassischer Vorteil der funktionsorientierten Gliederung, teure Produktionsmittel müssen nur ein Mal angeschafft werden, in modernen Unternehmen eine geringere Rolle. Viele Geschäftsprozessen transformieren heute Wissen und nicht Material. Die dazu benötigten Produktionsmittel - z.B. PCs - kosten nicht viel.
     
    Transparenz, Schnelligkeit, die Möglichkeit zu Änderungen im laufenden Prozess, spielen dagegen für immer mehr Kunden eine große Rolle. Darum strebt man heute eine prozessorientierte Organisation an. Geschäftsprozesse sollen nicht quer durch die Abteilungen laufen, Mitarbeiter sollen einen Gesamtüberblick über einzelne Prozesse haben, es soll klare Ansprechpartner für Prozesse geben.
     
    Im Hinblick auf IT-Systeme ist die Unterscheidung zwischen funktionsorientierter und prozessorientierter Organisation der Geschäftsprozesse bedeutsam. Ein naiver Ansatz wäre, einfach die bestehenden Geschäftsprozesse in Software abzubilden. Im Falle einer funktionsorientierten Organisation landet man so bei Insellösungen. Der Lagerist bekommt eine Lagerverwaltungssoftware, die Auftragsannahme bekommt ein System zur Erfassung von Aufträgen, die Rechnungsabteilung hat eine Software zur Rechnungsstellung und so weiter. Jede Abteilung fühlt sich durch ihre Software in ihrer Tätigkeit unterstützt. Beim Übergang von Abteilung zu Abteilung müssen Daten von einer Software in die andere übertragen werden. Das macht unnötig Arbeit und führt oft zu Fehlern. Die Daten werden leicht inkonsistent, insbesondere im Fall von nötigen Änderungen. Die Vorteile der Softwareunterstützung können so nicht im vollen Umfang realisiert werden.
     
    Es gibt aber noch einen viel gravierenderen Nachteil. Sollte sich das Unternehmen entscheiden, die bisherigen Geschäftsprozesse zu ändern, z.B. um eine eher prozessorientierte Organisation zu erreichen, müsste die bisherige Software geändert werden. Das können Unternehmen oft nicht selbst. Sie sind auf die Hilfe von externen Spezialisten angewiesen. Software hat also eine Tendenz, bestehende Geschäftsprozesse zu zementieren. Man kann die Organisation nicht mehr einfach ändern, weil man dazu die IT-Systeme ändern müsste.
     
    Aus diesem Grund lohnt es sich, vor Einführung einer IT-Lösung die Geschäftsprozesse genau zu betrachten. Oft lässt sich mit Software-Unterstützung ein effizienterer Ablauf erreichen, z.B. indem man Daten nur ein Mal erfasst und zentral speichert, die Abteilungen vernetzt. Manchmal ist es auch möglich, IT-Systeme von kooperierenden Unternehmen zu vernetzen, sogar über mehrere Unternehmen hinweg. So ist es z.B. möglich, dass Lager automatisch bei Lieferanten Teile nachbestellen, sobald ein größerer Auftrag eingegangen ist.
     
    Soll eine Softwarelösung für ein Unternehmen erstellt werden, reicht es also nicht die Frage zu beantworten: Was machen die? Wie machen die es? Man muss sich auch damit beschäftigen: Könnte man es mit Softwareunterstützung besser und effizienter machen? Welche Änderungen im Ablauf könnten sich ergeben?  Inwiefern ist unsere Software an Änderungen anpassbar? Eben weil IT-Systeme in Unternehmen sehr eng mit den Geschäftsprozessen verknüpft sind, lohnt sich eine Beschäftigung mit Geschäftsprozessen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Geschäftsprozessmanagement" von Thomas Allweyer hat ca. 400 Seiten. Das ist für Module bei Springer Campus ein üblicher Umfang. Die Gliederung des Buches folgt dem Geschäftsprozessmanagement-Kreislauf:
    - Strategisches Prozessmanagement
    - Prozessentwurf
    - Prozessimplementierung
    - Prozesscontrolling
     
    Für jemanden wie mich, der keinen leichten Zugang zu BWL-Themen hat, ist es sehr verständlich geschrieben. Konzepte und Begriffe werden anhand von Szenarien in Unternehmen veranschaulicht, so dass man sich stets gut vorstellen kann, was damit gemeint ist. Das Buch enthält viele Diagramme und Abbildungen. Das ist wichtig, weil bei den Einsendeaufgaben und in der Klausur das Zeichnen von ereignisgesteuerten Prozessketten und anderen Diagrammen eine Rolle spielt. Auch viele andere Diagrammtypen spielen im Kurs eine Rolle, z.B. Funktionsbäume, Organigramme aber auch UML-Klassendiagramme, mit denen die Datenobjekte in den IT-Systemen modelliert werden können.
    Gut gefallen hat mir am Lehrbuch vor allem, dass das Glossar hier einmal nicht am Ende des Buches war. Stattdessen wurden am Ende jedes Kapitels die zentralen Fachbegriffe noch einmal definiert, was ich als gute Wiederholung des Stoffes empfand.
     
    Didaktisch finde ich das Buch hervorragend aufgebaut. Das war in diesem Fall auch wichtig für mich, denn der Stoff war mir völlig neu. Da ich selbst keinen entsprechenden beruflichen Hintergrund habe, war mir die betriebswirtschaftliche Perspektive des Moduls nicht sehr vertraut und ich habe für dieses Modul wesentlich länger gebraucht als gehofft.
     
    Die Tests
     
    Die Tests sind sehr gut auf den Stoff des Lehrbuches abgestimmt. Im Gegensatz zu manchen anderen Modulen, ist hier jede einzelne Lösung ausführlich kommentiert. Wenn man etwas falsch macht, kann man diese Erläuterung lesen und begreift so in der Regel gut, was das Problem war und wo man noch einmal nachlesen müsste. In manchen Modulen sind die Autoren an dieser Stelle sehr zurückhaltend. Das wird damit begründet, die Studierenden zum eigenen Nachdenken anregen zu wollen. Ich habe die Erläuterungen hier mit großem Gewinn gelesen und konnte durch eigene Fehler in Verbindung mit dieser Hilfestellung oft Erkenntnissprünge machen, die sich allein durch die Lektüre des Kurstextes noch nicht eingestellt hatten.
     
    Die Aufgaben
     
    Die Aufgaben waren zahlreich und ebenfalls gut auf den Kurstext abgestimmt. Im Vergleich zu anderen Modulen sind die Aufgaben vor allem im ersten Drittel des Kurses sehr textlastig. Die angegebene Bearbeitungszeit habe ich nie einhalten können. Trotzdem hätten meine Lösungen in vielen Fällen noch ein wenig umfangreicher ausfallen können und sollen. Wer nicht schon "im Thema" ist, sollte für dieses Modul also mehr Zeit einplanen.
     
    Zu den Aufgaben gibt es Lösungshinweise. Diese kommen in Form von Fragen zum Stoff, die der Studierende noch einmal für sich klären soll. Er baut so stufenweise das nötige Hintergrundwissen auf, um die Aufgabe lösen zu können. Dabei müsste er noch einmal wesentlich mehr Text produzieren, um sich so in einer iterativen Vorgehensweise einer guten Gliederung und einer Lösung der Aufgabe zu nähern. Diese Hinweise fand ich sogar etwas zu üppig. Nicht etwa, weil sie die eigene Lösung der Aufgabe vorweg nahmen. Das taten sie ganz und gar nicht. Sie erhöhten den Arbeitsaufwand noch einmal erheblich, weil sie oft auf gründliche Wiederholung des Stoffes und der nötigen Grundlagen setzten. Didaktisch war das zwar ebenfalls hervorragend gemacht, aber irgendwann wollte ich das Modul auch einmal abschließen. Hier fehlte es mir letztlich an Geduld und Fleiß.
     
    Online-Test
     
    Der Online-Test deckte den Stoff des Moduls gut ab. Die Fragen waren neu, so dass man hier eine gewisse Transferleistung erbringen musste. Mein Eindruck ist, dass das Verständnis der vermittelten Konzepte auf diese Weise gut abgeprüft werden kann, was im Hinblick auf die Klausuranmeldung ja auch Sinn der Sache ist. Der Online-Test ist eine gute Möglichkeit, sich ein paar Bonuspunkte zu sichern, wenn man das Lehrbuch gründlich durchgearbeitet hat.
     
    Zur Online-Klausur kann ich diesmal nichts sagen. Aus familiären Gründen habe ich es (erstmals) nicht geschafft, die Online-Klausur noch rechtzeitig zu schreiben. Darum weiß ich bei diesem Modul nicht, ob die Online-Klausur einen realistischen Eindruck von den Aufgaben der Präsenzklausur gibt.
     
    Inhalte
     
    Im Kursteil "Strategisches Management" geht es um folgende Inhalte:
    - Zielsystem des Unternehmens
    - Balanced Scorecard
    - Outsourcing
     
    Interessant für mich war, dass gerade Prozesse, die man outsourcen möchte, genau untersucht werden sollten. Um festzustellen, ob Outsourcing günstiger ist, muss man nämlich zunächst einmal wissen, was die bestehenden Prozesse IM EIGENEN UNTERNEHMEN eigentlich kosten. Dazu muss man auch genau verstehen, welche Leistungen künftig ausgelagert werden und was im eigenen Unternehmen weiterhin zu tun ist. Insbesondere muss man die zu erbringenden Leistungen sehr genau definieren, um sinnvolle Verträge schließen zu können. Und schließlich muss man die Einhaltung der vereinbarten Leistungen überprüfen. Und man muss sinnvolle Schnittstellen zwischen den ausgelagerten Prozessen und den daran anschließenden Prozessen im eigenen Unternehmen definieren. Aus all diesen Gründen, müssen gerade solche Prozesse, die ausgelagert werden sollen, sehr genau untersucht werden.
     
    Im Kursteil "Prozessentwurf" geht es um:
    - Nutzen und Inhalt von Prozessmodellen
    - Sichten auf Prozesse
    - ARIS als Rahmenkonzept
    - Leistungen, Funktionen, Daten, Information, Wissen
    - Aufbauorganisation
    - die Modellierung von Kontrollflüssen mit ereignisgesteuerten Prozessketten (EPK)
    - Geschäftsregeln
    - Prozessmodelle und Objektorientierung
    - Die Auswahl von Prozessmodellen und Notationen
    - Prozessanalyse (um Schwachstellen aufzudecken)
    - Prozesskostenrechnung
    - Simulation
    - Qualitäts-Management-Systeme
    - integrierte Management-Systeme
     
    Insbesondere das Zeichnen von EPKs spielt bei den Aufgaben immer wieder eine Rolle. Obwohl im Kurs auf verschiedene Softwarewerkzeuge hingewiesen wurde, habe ich das von Hand gemacht, weil ich ja wusste, dass ich in der Klausur auch keine Software zur Verfügung haben würde. Hier hat es sich mal wieder als große Hürde erwiesen, sich beim Arbeiten mit Stift und Papier den Platz gut einzuteilen, um sich nicht "in eine Sackgasse zu zeichnen". Das ist tatsächlich etwas, das mit Übung besser wird. Anfangs lag bei mir viel geknülltes Papier auf dem Boden.
     
    Die EPKs sind oft Grundlage der Prozessanalyse. Sie enthalten im Kern Information zum Workflow. Diese kann aber ergänzt werden mit Informationen zu den Abteilungen, in denen Leistungen erbracht werden, zu Artefakten und Datenobjekten, die erzeugt und konsumiert werden, zu einzelnen Akteuren oder auch verwendeten Produktionsmitteln. Je mehr Informationen man integriert, umso schwieriger wird es, die EPK übersichtlich aufzubauen. Am gefundenen Prozessmodell kann man dann Schwachstellen der bestehenden Prozesse erkennen, z.B. Mehrfachspeicherung von Daten, Organisationsbrüche, unnötige Schleifen und Verzögerungen und vieles mehr. Dies ist dann Grundlage für den Entwurf von verbesserten Abläufen. Im Hinblick auf die Klausur würde ich empfehlen gerade den Stoff dieses Kursteiles sehr aufmerksam zu lernen.
     
    Im Kursteil "Prozessimplementierung" geht es um:
    - Change Management
    - Betriebswirtschaftliche Standardsoftware
    - Workflow-Management-Systeme
    - Business-Process-Management-Systeme
    - Prozessorientierte Software-Entwicklung
     
    Interessant war für mich vor allem der Abschnitt über Change-Management. Mitarbeiter fühlen sich durch die Umgestaltung von Prozessen oft bedroht. Nicht selten sind optimierte Prozesse Grund für Sorge um den eigenen Arbeitsplatz. Und das ist ja auch nicht immer unbegründet. Es kommt häufig vor, dass Mitarbeiter vordergründig an Prozessänderungen mitarbeiten, aber im Hintergrund versuchen, eben diese Veränderungen auszubremsen. Change-Management beschäftigt sich damit, wie man die Mitarbeiter in Veränderungsprozesse einbezieht, so dass die Implementierung geänderter Prozesse gelingen kann. In vielen Fällen wird das auch dazu führen, dass Änderungen kleiner ausfallen, als man zunächst geplant hatte. Eine kleinere Änderung, die von den Mitarbeitern akzeptiert und umgesetzt wird, wird oft mehr bewirken als ein komplett neu gestalteter und in der Theorie optimaler Prozess, an dem die Mitarbeiter nur widerwillig mitwirken. Ein iteratives Vorgehen ist hier oft sinnvoll. Manchmal ist es gut, größere Änderungen durch erfolgreiche durchgeführte kleinere Änderungen einzuleiten. Mitarbeiter müssen oft an kleineren Beispielen erleben, dass sich wirklich Vorteile ergeben, damit sie zu größeren Schritten bereit sind. Dieses für mich recht spannende Thema wird im Modul leider nur angerissen.
     
    Bei den meisten Themen dieses Abschnittes ist ein klarer Bezug zu IT-Sytemen offensichtlich. Rückblickend würde ich sagen, dass hier ein roter Faden erkennbar ist. Anfangs wurde Software für einzelne Unternehmen erstellt. Aus Kostengründen wurde dann mehr und mehr Standardsoftware benutzt, die für das eigene Unternehmen konfigurierbar sein sollte. Da Software die Tendenz hat, bestehende Prozesse "zu zementieren" ist es wünschenswert, dass Software so gestaltet wird, dass Workflows sich auch von Mitarbeitern anpasen und verändern lassen, die keine einschlägige IT-Ausbildung haben. Man will also Standardlösungen, die von Laien über geeignete User-Interfaces im hohem Maße anpassbar sind, z.B. mit graphischen Tools, die das Zeichnen von Workflows ermöglichen, und die dann in entsprechende Dialoge und Datenflüsse in der Software umgesetzt werden. Hier ging es z.B. um Service-orientied-Architectures (SOA). Dabei werden häufig benötigte Grundfunktionen als Web-Services realisiert, die sich dann flexibel zu komplexeren Abläufen kombinieren lassen.
     
    Im letzten Abschnitt "Prozesscontrolling" geht es um:
    - Messung von Prozesskennzahlen
    - Planung und Steuerung von Prozessen
    - Real Time Enterprise
    - Ständige Prozessverbesserung
     
    Insbesondere die Definition von Kennzahlen ist sehr wichtig, um den Erfolg von eingeführten Veränderungen beurteilen zu können.
    Interessant war für mich vor allem der Abschnitt über Real Time Enterprise. Hier geht es um die Fähigkeit von Unternehmen (mit Hilfe von Informationssystemen) auf wichtige Ereignisse sehr schnell reagieren und sich flexibel anpassen zu können, z.B. auf Veränderungen der Nachfrage, eine örtliche Verlagerung von Nachfrage, schnell steigende oder sinkende Zahlen von Service-Anfragen, eine sich schnell verändernde Wettbewerbssituation und ähnliche Szenarien. Dazu sammeln IT-Systeme fortlaufend relevante Daten und präsentieren sie Entscheidungsträgern in geeigneter Form. Dazu gehören z.B. auch automatisch generierte Benachrichtigungen, Warnungen und dergleichen.
     
    Präsenzklausur
     
    Die Klausur deckte die verschiedenen Themen des Moduls breit ab. Das Zeichnen von Diagrammen spielte - wenig überraschend - eine große Rolle, sowohl im Hinblick auf Punkte als auch im Hinblick auf die Bearbeitungszeit. Insgesamt empfand ich die Zeit als recht knapp, um alles schaffen zu können. Es gab viele kleinere Aufgaben. In der Vorbereitung würde ich den Schwerpunkt auf den Kursteil "Prozessentwurf" legen. Das Zeichnen von Diagrammen auf Papier sollte man geübt haben. Insgesamt fand ich die Klausur fair gestellt. Ob ich das auch in eine erfreuliche Note umsetzen kann, bleibt abzuwarten.
     
    Fazit
     
    Erste Grundlage des Moduls Geschäftsprozessmanagement ist das verständlich geschriebene Lehrbuch von Thomas Allweyer. Durch die gute Verzahnung mit den Online-Tests und Aufgaben wird ein didaktisch hervorragendes Modul daraus. Ich schreibe das, obwohl mir das Thema überhaupt nicht lag. Zwar empfand ich GPM als wesentlich spannender als BWL1, aber meine grundsätzlichen Schwierigkeiten mit BWL-Themen machten sich auch hier bemerkbar. Das Modul war aber so beschaffen, dass man mit Fleiß und Ausdauer weit kommen konnte. Ein bisschen Spaß hatte ich unterwegs dann doch. Insbesondere wurde immer wieder ein klarer Bezug zur Informatik hergestellt, was natürlich meinen Interessen eher entsprach.
     
    Ich glaube, dass der Stoff des Moduls sehr nützlich ist, wenn man Software im Unternehmenskontext entwickelt und mit Menschen kommunizieren muss, die betriebswirtschaftlich denken. Insofern habe ich mich bemüht, die hier dargebotenen Inhalte mit Offenheit und wachem Geist aufzunehmen. Allerdings hoffe ich nun auch, dass mit der Klausur das Modul geschafft ist und der zwar nicht allzu große aber für mich doch recht einschüchternde Hügel BWL wieder ein bisschen kleiner geworden ist.
     
    Ausblick
     
    Als nächstes möchte ich das Modul BWL2 bearbeiten. Da geht es um Unternehmensführung und Ökonomie (Volkswirtschaft). Ich erwarte, dass mir das mehr Spaß machen wird als BWL1 aber weniger als GPM. Aber warten wir mal ab, wie sich die Sache anlässt.
     
    Parallel dazu möchte ich gerne mit Text-Mining weiterkommen. Der Inhalt dieses Moduls ist mathematischer als ich vermutet hätte. Der Stoff ist sehr interessant aber leider auch nicht ganz einfach.
  16. kurtchen
    Heute habe ich in Heidelberg meine letzte Prüfung im Modul "Electronic Business" abgelegt. Da ich mir ziemlich sicher bin, bestanden zu haben, kann ich sagen: "Ich bin scheinfrei."
     
    Das ist ein gutes Gefühl, denn obwohl mir mein Studium große Freude gemacht hat, so habe ich - zumindest im Moment - keinen Appetit mehr auf Module, Einsendeaufgaben und Klausuren.
     
    Scheinfrei heißt natürlich nicht fertig. Die Bachelorarbeit steht noch an. Angemeldet ist sie inzwischen. Ein bisschen geschrieben habe ich auch schon. Die Zeit zur Erstellung einer Latex-Vorlage war gut investiert. Ich kann mich gut auf's Schreiben konzentrieren und das erzeugte PDF sieht ganz gut aus. Jetzt freue ich mich auch darauf, mit der Bachelorarbeit ein eigenes Thema erkunden zu dürfen und meinen Lernprozess selbstständig zu gestalten.
     
    Aber das geht erst nächste Woche wieder los. Ich gönne mir jetzt Kaffee und Kuchen in der Kantine. Ein paar Kommilitonen schreiben noch die nächste Prüfung, aber für mich beginnt nun mein Wochenende.
     
    Ein Modulbericht zu "Electronic Business" folgt noch, könnte diesmal aber etwas knapper ausfallen.
  17. kurtchen
    Softwaretechnik 1 ist das erste von insgesamt drei aufeinander aufbauenden Modulen. Ergänzt wird es um die Module "Softwaremanagement" und "Software testen". Diese fünf Module bilden den Studienbereich "Softwaretechnik" und sind für Studierenden im Studiengang "Web- und Medieninformatik" Pflicht. Studierende der Wirtschaftsinformatik müssen "Softwaretechnik 3" und "Software testen" nicht belegen. Für Studierende beider Studiengänge wird ein Vertiefungs-Modul "Softwaremanagement 2" angeboten.
     
    Das Modul Softwaretechnik 1 basiert auf dem "Lehrbuch der Softwaretechnik" von Helmut Balzert. Zugeschickt bekommt man Band 1 "Basiskonzepte und Requirements Engineering". Beim Auspacken erlebt man die erste Überraschung. Es ist kein Buch vom W3L-Verlag sondern vom Spektrum Verlag. Die zweite Überraschung ist, dass es ein ziemlich dicker Wälzer von über 600 Seiten ist. Der didaktische Aufbau ist aber durchaus ähnlich, wie man das von der W3L gewohnt ist. Herr Balzert hat ja auch den Studiengang "Web- und Medieninformatik" der W3L aufgebaut. Man kommt mit dem Format gut zurecht. Außerdem ist wird dieses Lehrbuch nicht allein im Modul "Softwaretechnik 1" verwendet sondern auch in "Softwaretechnik 2". Dieses Modul behandelt die Kapitel I bis III. Man landet so bei einem üblichen Umfang von 430 Seiten.
     
    Prinzipien und Werkzeuge
     
    Die ersten 100 Seiten des Lehrbuches behandeln Basistechniken. Interessant ist vor allem das Kapitel "Prinzipien". Hier werden verschiedene Begriffe entwickelt, die im weiteren Verlauf des Kursmoduls von Bedeutung sind: Abstraktion, Strukturierung, Bindung und Kopplung, Hierarchisierung, Modularisierung, Geheimnisprinzip, Lokalität, Verbalisierung. Betrachtet werden außerdem die Abhängigkeiten zwischen diesen Prinzipien. Dieser Abschnitt des Kurses fühlte sich teilweise fast schon wie ein geisteswissenschaftliches Modul an. Man sollte beim Lesen regelmäßig innehalten und über die eingeführten Begriffe nachdenken, zum Beispiel darüber, was für Bezüge es zwischen Struktur und Hierarchie gibt und wie sich Hierarchien von Strukturen unterscheiden. Herr Balzert entwickelt die Begriffe sehr präzise, unterscheidet sehr genau. Diesen Teil des Kurses habe ich sehr geschätzt. Ich halte Begriffe für wichtig, weil man sie braucht, um sich mit anderen auszutauschen - sei es im direkten, kollegialen Dialog, sei es indirekt, indem man Bücher, Fachartikel oder Dokumentationen liest. Der Stoff dieses Kursabschnittes wurde allein durch Tests abgeprüft. Die waren gut gestellt und brachten einen noch einmal ins aktive Nachdenken über das Gelernte.
     
    Ein weiterer größerer Abschnitt behandelte Werkzeuge in der Softwaretechnik. Die sind natürlich einen ständigen Wandel und auch gewissen Moden unterlegen, aber hier geht es darum, Werkzeuge hinsichtlich bestimmter Operationen zu klassifizieren: Editieren, Transformieren, Suchen, Visualisierung, Verbinden, Nachvollziehen, Verwalten von Versionen und Änderungen, Dokumentieren, Messen, Verfolgen und Überwachen, Prüfen, Kommunizieren. Für alle diese Funktionen werden auch konkrete Beispiele genannt. Den Abschluss bilden Kriterien für die Auswahl von Werkzeugen.
     
    All dies war interessant aber auch ein wenig theoretisch. Das änderte sich mit dem Kapitel "Basistechniken". Dieses zerfällt in drei Teile: Statik, Dynamik, Logik.
    Statik
     
    Statik
     
    Laut meinem Tutor ist das Kapitel Statik für die Praxis der meisten Entwickler am wichtigsten. Hier geht es um:
    - Zusammenfassung von Funktionen
    - Funktionsbäume
    - Pakete
    - Vererbung
    - Assoziationen
    - Multiplizitäten
    - Aggregationen und Kompositionen
    - Daten-Strukturen
    - XML, DTD und XML-Schemata zur Beschreibung von Datenstrukturen
    - Entity-Relationship-Modelle
    - Schlüssel, Tabellen und Dateien
    - Semantische Datenmodelle
    - Unternehmensdatenmodelle
    - Multidimensionale Datenstrukturen
    - OLAP und Hyperwürfel
     
    Zur Darstellung der statischen Beziehungen wird in erster Linie die UML verwendet. Man könnte sagen, dass Softwaretechnik 1 in weiten Teilen ein UML-Kurs ist. Dies gilt besonders für das Kapitel Statik. Aber auch andere Notationsformen wie ER-Diagramme mit verschiedenen Notationen für die Kardinalitäten werden behandelt. In diesem Teil des Kurses gibt es nun auch Einsendeaufgaben. Die bestehen in der Regel darin, dass man ein konkretes Szenario geschildert bekommt, in dem eine Software eingesetzt werden soll. Dazu soll nun ein Modell entwickelt werden, oft in UML.
     
    Die Aufgaben in Softwaretechnik 1 fand ich oft schwieriger als in anderen Modulen der W3L. Der Abstraktionsgrad ist höher. Im Gegensatz zu Programmiermodulen kann man ein Modell nicht "laufen lassen" und dann erleben, was nicht funktionert. Natürlich würde man merken, dass ein Modell schlecht ist, wenn man anfinge, es in Code umzusetzen und dann auf Schwierigkeiten stieße. Aber genau das soll ja durch eine sinnvolle Modellierung verhindert werden. Hier habe ich selten die volle Punktzahl erzielt. Mit den oft sehr konkreten und detaillierten Rückmeldungen meines Tutors konnte ich meine Lösungen aber überarbeiten und verbessern. Oft habe ich überarbeitete Lösungen noch einmal eingeschickt, um zu hören, ob es so besser ist. Auf diesem Wege habe ich viel gelernt. (Auch wenn das natürlich an den erreichten Punkten nichts ändert.)
     
    Dynamik
     
    Dieses Kursabschnitt fand ich am schwierigsten. Auch Gesprächen mit Kommilitonen weiß ich, dass es anderen Studierenden ähnlich geht. Auch finden viele Studierende dieses Kapitel weniger praxisrelevant. Das kommt natürlich sehr darauf an, was für eine Art von Software man entwickeln möchte.
    Während in Statik Beziehungen modelliert werden, die über die Laufzeit eines Programmes stabil bleiben, beschäftigt sich Dynamik mit Veränderungen über die Zeit, also mit Systemen in Bewegung. Hier geht es um Zustandsübergänge, Zustandsänderungen und die Ereignisse, die dazu führen. Das ist natürlich wesentlich komplexer und herausfordernder.
     
    Es geht um:
    - Kontrollstukturen
    - Nebenläufigkeit
    - Aktivitätsdiagramme
    - Geschäftsprozesse und Use-Cases
    - Zustandsautomaten: Mealy, Moore und Harel
    - Petrinetze: Bedingungs-Ereignis-Netze, Stellen-Transitions-Netze, Hierarchische-Petrinetze, zeitbehaftete Petrinetze und stochastische Petrinetze
    - Szenarien
    - Sequenzdiagramme
    - Kommunikationsdiagramme
     
    Für die Einsendeaufgaben sollten hier Zustandsautomaten entworfen werden. Außerdem sollte ein Petri-Netz entworfen werden, dass ein bestimmtes Problem löst. Für letztes war eine Software empfohlen worden, Visual Objects Net++, die man sich gratis runterladen kann. Die lief leider auf meinem System ziemlich instabil und stürzte häufig ab, was mich viel Zeit gekostet hat. Man sieht dem Programm an, dass es ein paar Jahre auf dem Buckel hat. Hier hätte ich sicher die Möglichkeit gehabt, mich nach aktuelleren Alternativen umzusehen, aber die Arbeit an den Petri-Netzen machte mir nicht so viel Spaß und ich wollte lieber zügig mit dem Thema abschließen. Rückblickend betrachtet, wäre es besser gewesen, hier ein wenig mehr Zeit zu investieren. Mein Tutor hatte mich gewarnt, das Softwaretechnik 1 ein sehr anspruchsvoller Kurs sei, der von vielen Studierenden unterschätzt werde. Ich war hingegen froh, endlich zum dritten Abschnitt "Logik" weitergehen zu können.
     
    Logik
     
    Vom Kapitel "Logik" erwartete ich, dass es mich wieder mehr interessieren würde. Anfangs wurde ein knapper Überblick über Aussagenlogik, Prädikatenlogik und Temporallogik gegeben. Dann kamen Abschnitte mit klaren Softwarebezug.
    - Constraints und die OCL in der UML
    - Entscheidungstabellen und Entscheidungsbäume
    - Erstellung, Darstellung und Optimierung von Entscheidungstabellen
    - Entscheidungstabellen-Verbunde
    - Regeln und regelbasierte Software
    - Verkettung von Regeln, Lösungssuche, Tiefe-Zuerst-Suche, Breite-Zuerst-Suche, Heuristische Suche
    - Geschäftsregeln
     
    Als konkrete Realsierung von regelbasierter Software wird zum Beispiel die Sprache Prolog genannt, die für bestimmte Spezialanwendungen elegante Lösungen ermöglicht.
     
    Für die Einsendeaufgaben sollte man wieder Klassendiagramme zeichnen, diesmal ergänzt um Informationen über Constraints, z.B. formuliert mit OCL. Außerdem sollte man verschiedene Entscheidungstabellen entwerfen. Dieser Kursteil hat mir wieder viel Spaß gemacht.
     
    Online-Klausur
     
    Den Online-Test habe ich ganz gut geschafft. Die Online-Klausur fand ich anspruchsvoll und habe auch ein paar dumme Fehler gemacht. Was mir entgegen kam: Es gab Aufgaben zu Petri-Netzen, aber hier ging es darum, die dynamische Entwicklung eines gegebenen Netzes nachzuvollziehen. Einzuschätzen, ob es zu Verklemmungen kommen kann. Das fiel mir relativ leicht. Es war gar nicht so schlecht, dass ich bei den Aufgaben zur Statik ein paar Fehler gemacht habe, weil ich so noch mal viele wertvolle Rückmeldungen von meinem Tutor bekommen habe und noch einmal gezielt ein paar Sachen wiederholt habe. So ging ich in die Präsenzklausur, auf die ich mich eigentlich ganz gut vorbereitet fühlte.
     
    Die Präsenzklausur
     
    Die Präsenzklausur hat mich dann leider ziemlich kalt erwischt. Ich fand sie viel schwieriger als die Online-Klausur. Vor allem hing ungefähr die Hälfte der Punkte an Stoff aus den Kapiteln zur Dynamik. Unter anderen sollte man ein Petri-Netz entwerfen, das ein konkretes Problem löst. Als Einsendeaufgabe mit genügend Zeit zur Verfügung hätte ich das vielleicht geschafft. Aber Zeit ist eine knappe Ressource, mit der man vor allem in dieser Klausur sehr taktisch umgehen muss. Ich habe noch kein Ergebnis, aber diesmal habe ich ein ziemlich schlechtes Gefühl.
     
    Wie hätte ich mich rückblickend besser vorbereiten können? Was könnte ich anderen Studierenden dieses Moduls raten? Ich glaube, im allgemeinen ganz gut reflektieren zu können, wo meine Schwächen gelegen haben. Bei anderen Modulen habe ich auch immer wieder Tipps formuliert, worauf man bei der Prüfungsvorbereitung achten sollte. Bei diesem Modul bin ich erstmals ziemlich ratlos. Ich fand das Niveau im Vergleich zu anderen Modulen der W3L ziemlich hoch. Das liegt sicher auch ein Stück weit in der Natur der Sache. Softwaretechnik ist abstrakter als andere Module. Man hantiert mit Begriffen, Konzepten, Notationen, Modellen. Und man kann - anders als in der Programmierung - nicht mal schnell was ausprobieren und so Feedback vom System erhalten. Hier geht es darum, einen Sachverhalt genau zu analysieren, entscheidende Aspekte zu erkennen und die Beziehungen zwischen ihnen in einer geeigneten Form darzustellen. So schafft man die Blaupause für eine gute Implementierung, die auch wartbar und erweiterbar sein soll. Das ist schon eine anspruchsvolle Aufgabe.
     
    Insbesondere bei den Petri-Netzen bin ich ratlos. Ich meine, sie verstanden zu haben. Wenn ich ein Petri-Netz vor mir sehe, einen Ausgangszustand bekomme, so kann ich nachvollziehen, was Schritt für Schritt passieren wird. (Oder passieren kann. Ihr Verhalten ist ja oft nicht-deterministisch.) Aber der Entwurf ist eine ganz andere Herausforderung. Das ist vielleicht ähnlich wie der Unterschied zwischen dem Nachvollziehen und dem Finden eines Beweises in der Mathematik. Vielleicht hätte mir hier ein wenig mehr Übungsmaterial gut getan. Es gab nur eine Einsendeaufgabe zu Petri-Netzen. Vielleicht würde ich mich aktiv nach mehr Übungsmöglichkeiten umsehen, wenn ich dieses Modul nochmals machen müsste.
     
    Vielleicht merke ich bei diesem Modul auch, dass ich - im Gegensatz zu vielen meiner Kommilitonen - bislang nicht in einem IT-Beruf arbeite. Ich hatte den Eindruck, in der Klausur einfach nicht auf das Tempo zu kommen, dass ich gebraucht hätte, um die Aufgaben in der gegebenen Zeit zu schaffen. Das habe ich natürlich als Stress erlebt, habe nach schnellen Lösungen gesucht, bin oft den erstbesten Schritt auf die Lösung zugegangen, auch wenn es mich in die Sackgasse geführt hat. Ich hätte gründlicher über meine Entwürfe nachdenken müssen, bevor ich anfange, Teile meiner Diagramme zu zeichnen. Genau diese Zeit habe ich mir nicht genommen, weil ich - vielleicht zu unrecht - glaubte, sie nicht zu haben. Eine klare Antwort, wie ich es beim nächsten Mal besser machen könnte, habe ich noch nicht. Ich hoffe, dass ich außer der Note auch ein bisschen Feedback vom Tutor bekomme. Wenn sich dadurch neue Einsichten ergeben, möchte ich die hier noch nachreichen.
     
    Fazit
     
    Softwaretechnik 1 war insgesamt ein sehr interessantes Modul. Ich würde sagen, es geht in erster Linie darum, wie man komplexe Zusammenhänge und Prozesse auf wesentliche Aspekte zusammenfasst. Es geht darum, wie man etwas modelliert. Und darum, wie man Modelle mit einfachen graphischen Mitteln so darstellen kann, dass man sie anderen Menschen kommunizieren kann. Das halte ich allgemein für eine nützliche Fähigkeit. Ich glaube, dass viele Konzepte aus diesem Kurs einem sogar helfen könnten, auch in anderen Situationen als der Softwareentwicklung Probleme klarer zu sehen und zu beschreiben. Es geht um "Denkzeuge" und so etwas finde ich immer spannend. Auf das sehr gute Lehrbuch von Herr Balzert werde ich sicher auch in Zukunft immer wieder zurückkommen. Es ist sehr systematisch aufgebaut und eignet sich mit seinen vielen Checklisten sehr gut als Nachschlagewerk.
     
    Insofern möchte ich hier ein positives Fazit ziehen. Auch wenn ich befürchte, dass ich mit meiner Leistung in diesem Modul nicht zufrieden sein werde.
  18. kurtchen
    5. Semester - Wintersemester 2018
    - Geschäftsprozessmanagement
    - BWL2
     
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Web-Engineering
    - Softwaretechnik 2
    - Softwaretechnik 3
    - Content Management Systeme (CMS)
    - Data-Mining
    - XML
    - BWL1
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Aktuell in Bearbeitung bei Springer Campus
    - Text-Mining
    - Präsentieren
    - Aktuelle Webtechniken
     
    Danach noch fehlende Pflichtmodule:
    - Software-Management
    - Software-Testen
    - Multimedia
    - IT-Recht
    - Wissenschaftliches Arbeiten
    - Projektarbeit
    - Bachelorarbeit
  19. kurtchen
    Das Modul "Web-Design und Web-Ergonomie" ist für das 3. Semester vorgesehen. Die W3L hält es für wünschenswert, zuvor "Web-Programmierung" belegt zu haben. Formal nötig ist das aber nicht. Ich meine, man könnte dieses Modul auch gute als erstes im Fachbereich Web-Informatik belegen. Viele Kommilitonen halten es für vergleichsweise leicht zu bewältigen. Allerdings haben auch sehr viele Studierende beruflich mit Web-Technologien zu tun. Das relativiert diese Einschätzung natürlich.
     
    Basis ist ein Lehrbuch von Heide Balzert und Uwe Klug. Herr Klug hat auch die Lehrbücher zum Modul "SQL und realationale Datenbanken verfasst". Die fand ich didaktisch sehr gut aufgebaut und auch gut verständlich geschrieben, so dass ich mit der Erwartung in den Kurs ging, hier wieder gut durch den Stoff geführt zu werden. 
    Auch dieses Kursmodul entwickelt parallel zum Stoff ein Fallbeispiel: Die Gestaltung eines Web-Auftritts für einen Ökostromanbieter. Diesen Auftrag übernimmt die fiktive Firma Websoft, die mehrere Mitarbeiter hat, die sich in unterschiedlichen Berufsrollen an der Planung der Webseite beteiligen. Diesen Ansatz kannte ich schon aus anderen Modulen der W3L. Man bekommt so nicht nur  das Fachwissen vermittelt. Man entwickelt auch eine erste Vorstellung davon, wie es in einer Anwendungssituation genutzt wird. So wird deutlich, dass die Entwicklung einer Webseite in der Regel ein kollaborativer Prozess ist, in dem verschiedene Akteure in unterschiedlichen Rollen intensiv kommunizieren müssen, um ihr gemeinsames Ziel zu erreichen.
     
    Ich hatte mir vorgestellt, in diesem Modul in erster Linie etwas über Gestaltungsregeln zu erfahren. Was für Farben zusammenpassen, ein bisschen Typographie, wie man eine Seite aufteilt, so dass die Proportionen gefällig wirken. So etwas ist durchaus auch Thema dieses Moduls, aber eigentlich geht es um etwas anderes. Eine der hier vermittelten Thesen ist, dass man an der reinen Anmutung einer Seite nicht beurteilen kann, ob das Design etwas taugt. Man muss Webdesign im Hinblick auf die Ziele bewerten, die ein Kunde mit seinem Web-Auftritt verfolgt. An wen will er sich richten und wozu?
     
    Dementsprechend geht es in den ersten Kapiteln vor allem darum, sich Gedanken über die Nutzer einer Website oder eine Web-Anwendung zu machen. Was für Aufgaben haben die zu bewältigen und was für Vorkenntnisse und Erfahrungen bringen sie mit. Eine der ersten Aufgaben beinhaltet daher die Entwicklung einer "Persona", also eines fiktiven Charakters der einen typischen Nutzer oder eine Nutzergruppe der geplanten Web-Anwendung repräsentieren soll. Dieser Charakter soll so konkret beschrieben werden, dass ein Team, das eine Web-Anwendung plant, am Ende eine gemeinsame Vorstellung von diesem Menschen hat. Man entwickelt auch Kontextszenarien: Beschreibungen von Situationen, in denen die Persona eine Web-Anwendung nutzt, um ein bestimmtes Problem zu lösen. Und schließlich entwickelt man Nutzungsszenarien, kleinschrittigere Beschreibungen von Nutzungssituationen, bei denen einzelne Handlungsschritte des Nutzers beschrieben werden und wie das geplante System darauf reagiert.
     
    Auch wenn der Kurs "Web-Design und Web-Ergonomie" heißt, lassen sich meiner Meinung nach viele Konzepte z.B. auf Desktop-Anwendungen übertragen. Das Modul ist auch ein Kurs über Software-Ergonomie.
     
    Eine große Rolle spielen verschiedene Methoden, Entwürfe zu evaluieren oder Inhalte in einer Weise zu strukturieren und kategorisieren, wie sie für die Nutzer einer Web-Anwendung intuitiv und einleuchtend ist. Dabei kommt oft etwas anderes heraus als Fachleute, die Web-Anwendungen erstellen, für plausibel halten. 
    In diesem Kurs geht es also um mehr als den schönen Schein. Er hat mehr mit sozialen Prozessen zu tun, als ich im Vorfeld für möglich gehalten hätte. Auch mit den sozialen Prozessen in den Teams, die Web-Anwendungen entwickeln.
     
    Eine interessante Nebenwirkung des Moduls: Bei privater Internetnutzung merkte ich immer häufiger, dass mich bestimmte Aspekte des Designs einer Seite störten. Da war zuvor nur eine leichte Irritation. Oder vielleicht auch nur eine gewisse Unlust, eine Seite weiter zu nutzen. Oder auch ein spontaner Impuls, eine begonnene Aktion abzubrechen oder einen Tab zu schließen. Ich fing an, solche Reaktionen an mir wahrzunehmen. Oft habe ich mir dann gedacht: "Das hat mich schon länger gestört." Viel seltener aber immerhin immer häufiger dachte ich: "So wäre es wahrscheinlich besser gewesen." Natürlich kann man nicht erwarten, nach einem Modul von 5 ECTS ein Experte in UI-Design zu sein. Aber es trägt auf jeden Fall dazu bei, ein Problembewusstsein zu entwickeln und mit etwas anderen Augen auf Web- und Benutzeroberflächen zu schauen.
     
    Natürlich geht es auch um Layout, Navigation, um Farben und Typographie, um multimediale Elemente, um Formulargestaltung und ganz zum Schluss auch ein bisschen um barrierefreies Web-Design. Aber es gab auch Themen, die für mich überraschend waren, zum Beispiel über die Aufbereitung von Texten für das Lesen im Web. Und hier ist eben nicht die Schriftgestaltung oder das Layout gemeint. Es geht tatsächlich darum, dass es vorteilhaft ist, Texte für's Web anders zu formulieren und zu gliedern als für den Druck.
     
    Dies ist ein Modul über das WAS und nicht über das WIE einer Web-Anwendung. Dementsprechend habe ich für die Einsendeaufgaben vor allem Texte geschrieben und Entwürfe mit Papier und Bleistift gezeichnet. Die technische Umsetzung der Entwürfe z.B. mit HTML, CSS, client- und serverseitigen Sprachen ist nicht Thema dieses Kurses. Davon handeln andere Module.
     
    Insgesamt kam ich mit dem Modul gut zurecht und war auch mit meiner Note zufrieden. Die Rückmeldungen durch meinen Tutor kamen sehr zügig, was es mir erleichterte, schnell im Kurs voran zu kommen.
     
    "Web-Design und Web-Ergonomie" ist ein Modul für Web-Informatiker, nicht für Kommunikations-Designer. Es bleibt das einzige Modul im Studiengang, dass UI-Design so in den Mittelpunkt stellt. Gemessen an diesem Platz im Gesamtkonzept dieses Studiengangs finde ich es sehr gelungen. Leider befürchte ich, dass UI-Desing nicht meine Stärke werden wird. Ich finde es interessanter, was für eine Verarbeitungslogik im Hintergrund arbeitet. Insofern habe ich mich am Ende auch gefreut, mich wieder anderen Themen zuwenden zu können.
     
    Auf jeden Fall hat dieser Kurs meine Wertschätzung für das gesteigert, was ein guter Software-Ergonom leistet. Und es macht Spaß, wenn man im Alltag etwas wiedererkennt. Wenn man sich erinnert: "Hey, das kam doch im Modul Web-Design vor."
     
    Dieser Effekt des Moduls scheint nachhaltig zu sein.
  20. kurtchen
    Das Modul "Angewandte Mathematik" ist das dritte von insgesamt vier Mathematik-Modulen im Studiengang "Web- und Medieninformatik". Studierende der Wirtschaftsinformatik müssen es nicht machen, dürfen es aber als Vertiefungsfach belegen. Auch wenn es formal - wie bei der W3L üblich -  keine Teilnahmevoraussetzungen gibt, gelten Mathe2 (Analysis und lineare Algebra), GdI1 (strukturierte und prozedurale Programmierung) und GdI2 (objektorientierte Programmierung) als inhaltliche Voraussetzungen. Meiner Meinung nach braucht man auf jeden Fall die Kenntnisse in linearer Algebra und Analysis, die Mathe2 vermittelt. Die Programmierkurse wären aus meiner Sicht weniger wichtig.
     
    Kursautor von Mathe3 ist wieder Professor Lenze, der schon die Lehrbücher zu Mathe2 geschrieben hat. Die beiden Kurse bauen schön aufeinander auf. Man kann die Bände aus Mathe2 gut zum Nachschlagen nutzen, wenn man bei der Lektüre von Mathe3 merkt, das einem etwas entfallen ist. Auch in diesem Kurs gibt es die hervorragenden PDF-Tools, mit denen man sich zu allen Kapiteln des Buches selbst beliebig viele Übungsaufgaben mit Lösungen generieren kann.
     
    Angewandte Mathematik ist natürlich ein Sammelbegriff, der ganz verschiedene Teilgebiete zusammenfasst, die in unterschiedlichen Anwendungssituationen von Bedeutung sind. Herr Lenze hat für diesen Kurs drei Gebiete ausgewählt, die für einen Informatiker interessant sein sollten: Numerik, Grafik und Kryptik.
     
    Das Buch beginnt allerdings mit einem Kapitel über Zahldarstellungen und Maschinenzahlen und über charakteristische Rechen- und Rundungsfehler, die beim Rechnen mit Maschinenzahlen auftreten können. Das ist interessant und für manche Anwendungen relevant. Es ist letztlich eine Auffrischung von Stoff, der den Studierenden schon aus GdI1 bekannt sein sollte, wo dieses Thema bereits behandelt wurde. Dieses einführende Kapitel ist nicht klausurrelevant.
     
    Teil 1 - Numerik
     
    Das Kapitel Numerik fasst verschiedene Näherungsverfahren zusammen. Ausgangspunkt ist der Banachsche Fixpunktsatz. Hier geht es um sogenannte kontrahierende Selbstabbildungen. Das sind Funktionen, bei denen ich mein f(x) wieder neu als x in die Funktion einspeisen kann; die generierten Werte nähern sich dabei von Schritt zu Schritt einem Fixpunkt. Letztlich geht es in der Numerik darum, Funktionen zu finden, die bestimmte Probleme durch schrittweise Näherung lösen. Das ist dann nützlicht, wenn eine exakte Lösung schwierig, unbekannt oder aufwendig ist.
     
    Das Kapitel zur Numerik zerfällt in zwei Teile. Im ersten Teil geht es um Anwendungen in der Analysis, im zweiten um Anwendungen in der linearen Algebra. Relevant für die Präsenzklausur ist nur der erste Teil. Aber Achtung: In der Online-Klausur und in den Online-Tests kann - wie schon in Mathe2 - alles drankommen.
     
    Die Inhalte zur Analysis:
    - Mit dem Newton-Verfahren kann man näherungsweise die Nullstelle einer differenzierbaren Funktion in einem Intervall finden, indem man an den Graphen Tangenten anlegt.
    - Mit dem Heronverfahren kann man Quadratwurzeln reeler Zahlen näherungsweise berechnen.
    - Das Sekanten-Verfahren ist ein weiteres Verfahren zur Näherung von Nullstellen.
    - Mit dem Abstieg-Verfahren kann man das Minimum einer Funktion in einem Intervall finden.
    - Das Dividierte-Differenzen-Verfahren liefert Näherungen für Ableitungen einer Funktion.
    - Die Trapez- und Simpson-Regel nähern Integrale.
    - Die iterierte Trapez- und Simpson-Regel machen das gleiche mit verbesserter Genauigkeit.
     
    Die Inhalte zur lineare Algebra:
    - Gesamtschrittverfahren,
    - Einzelschrittverfahren und
    - SOR-Verfahren. Damit kann man lineare Gleichungsssysteme näherungsweise lösen, die durch eine reguläre Matrix und einen Vektor gegeben sind.
    - von Mises-Geiringer Verfahren. Damit kann man Eigenwerte und Eigenvektoren näherungsweise berechnen.
     
    Numerik war für mich schon recht interessant. Die Verfahren laufen mechanisch ab und lassen sich gut als Algorithmen implementieren. Im Kurs finden sich dafür auch Code-Schnipsel in Java. Aus dieser Perspektive macht Mathematik auch dem angehenden Informatiker Spaß.
     
    Teil 2 - Grafik
     
    Auch das Kapitel Grafik zerfällt wieder in zwei Teile. Im ersten Teil geht es um polynomiale Interpolation und Approximation. Das ist eigentlich eine ziemlich interessante Sache. Aus Schulzeiten kennen wir ja noch die Situation: Man bekommt eine Funktionsvorschrift und soll nun eine Reihe von Funktionswerten berechnen, die man in ein Koordinatensystem einzeichnet. Und wenn man genug Koordinaten hat, verbindet man die Punkte zu einem Graphen. Bei der polynomialen Interpolation geht man nun den umgekehrten Weg. Bekannt sind ein paar Koordinaten. Gesucht ist eine Funktionsvorschrift für ein Polynom, das genau durch diese Punkte verläuft. Bei der polynomialen Approximation sucht man ein Polynom, das nur ungefähr durch die gegebenen Punkte läuft, dafür aber einen glatteren Kurvenverlauf aufweist.
     
    Man lernt:
    - polynomiale Interpolation mit Monomen
    - polynomiale Interpolation nach Lagrange
    - polynomiale Interpolation nach Newton
    Gerade die letztere ist ziemlich interessant. Hier kann man nämlich das aus der Numerik bekannte Dividierte-Differenzen-Verfahren anwenden, um sogenannte Newton-Koeffizienten zu bestimmen. Die kann man nutzen, um mit dem Newton-Horner-Schema das Interpolationspolynom effizient auswerten zu können. Man kann also schnell weitere Funktionswerte berechnen, ohne sich die Mühe zu machen, die Funktionsvorschrift explizit zu bestimmen. Auch diese Verfahren lassen sich gut in Code implementieren.
     
    Ferner lernt man:
    - Interpolation nach Aitken-Neville
    - nach de Casteljau
    - interpolierende Subdivision nach Dubuc
    - und schließlich approximierende Subdivision nach Chaikin
     
    In diesem Kursabschnitt werden auch Bernstein-Grundpolynome wichtig, die in Mathe2 noch nicht klausurrelevant waren. Für Mathe3 muss man die unbedingt drauf haben.
     
    Den zweiten Teil des Grafik-Kapitels bilden Verfahren der Interpolation über Rechtecken und Dreiecken, die in der 3D-Grafik zum Einsatz kommen können. Hier geht es auch um Verfahren zur Schattierung, z.B. um die Gouraud oder die Phong-Schattierung. Dieser recht interessante Teil ist nicht relevant für die Präsenzklausur, kann aber in der Online-Klausur drankommen.
     
    Ich vermute, die Einschränkungen des Stoffes haben auch damit zu tun, dass viele der Verfahren eine hohe Zahl einfacher Rechenschritte erfordern. Dies gilt umso mehr für Verfahren, die mit linearer Algebra zu tun haben, weil man da mit Matrizen hantiert. Würde man so etwas in der Präsenzklausur machen, könnte man in der Zeit nur wenige Aufgaben stellen und nur wenig Stoff abprüfen. Das merkt man, wenn man die Einsendeaufgaben zu diesem Kapitel bearbeitet. Da hat man es zum Teil Gleichungen zu tun, die sich über viele Zeilen erstrecken. Das ist zeitaufwendig, die Schritt für Schritt umzuformen. Und man braucht viel Konzentration, um keinen Flüchtigkeitsfehler zu machen.
     
    Teil 3 - Kryptik
     
    Kryptik ist der letzte Teil des Kurses. Hier geht es um mathematische Grundlagen für Verschlüsselung und Schlüsseltausch. Diesen Teil kann ich nicht so detailliert beschreiben. Der Stoff war nicht unbedingt schwierig aber sehr fremdartig und neu. Man benutzt Primzahlen und ihre sogenannten Restklassenkörper. Außerdem beschäftigt man sich mit sogeannten Galois-Feldern. Die bestehen aus Polynomen, die lediglich 0 und 1 als Koeffizienten aufweisen und sich daher gut als Bitfolge darstellen lassen. Man lernt Addition und Multiplikation neu und wendet nun diese neuen Kenntnisse an, um im Restklassenkörper oder in Galois-Feldern z.B. Determinanten oder inverse Matrizen zu berechnen, Gleichungssysteme zu lösen und so weiter. Nichts davon ist wirklich schwierig, aber das Kapitel war trotzdem eine Herausforderung, weil man beim Rechnen leicht vergisst, dass man es nicht mit normalen Zahlen zu tun hat, auch wenn es so aussieht. Da schleichen sich leicht Fehler ein.
     
    Eine weitere Schwierigkeit ist, dass man zu Beginn nicht begreift, was das alles denn mit Verschlüsselung zu tun haben könnte. Man ist schon fast am Ende des Kapitels, wenn auf wenigen Seiten das Diffie-Hellman-Verfahren und das Vernam-Verfahren, AES, DES und RSA erklärt werden. Und auf einmal passt alles zusammen und man versteht den Sinn des ganzen. Hier lohnt es sich also wieder einmal, am Ball zu bleiben und sich erst mal die nötigen Grundlagen zu erarbeiten. Natürlich hätte ich mir gewünscht, gleich zu Beginn erklärt zu bekommen, wozu ich das Rechnen im Galois-Feld lernen soll. Aber man kann das "wozu" wohl erst verstehen, wenn man die Grundlagen beherrscht.
     
    Nach Mathe2 wird es leichter
     
    Im Vergleich zu Mathe2 war Mathe3 leichter. Weil es um recht praktische Verfahren geht, mit denen man etwas berechnen oder nähern kann. Weil diese Verfahren sich gut in Code überführen lassen. Weil man sich gut vorstellen kann, dass es für diese Verfahren Anwendungen gibt, auch wenn man die wahrscheinlich später nicht selbst in Code implementieren wird. Weil man für vieles, was hier geschieht, auch gute graphische Veranschaulichungen finden kann.
     
    Im Online-Test kann wieder alles drankommen. Meiner Meinung nach, bereitet man sich auf den Online-Test am besten vor, indem man die Tests des Moduls intensiv wiederholt. Auch in der Online-Klausur kann alles drankommen. Die Aufgaben werden anscheinend vom Zufallsgenerator ausgewählt. Ich hatte fast nur Aufgaben aus dem Kapitel Grafik und ein bisschen Kryptik. Und es war vor allem Stoff, der in der Präsenzklausur NICHT vorkommen sollte. Wer also in den Genuss von Bonuspunkten kommen möchte, muss zuschauen, dass er sich den ganzen Stoff erarbeitet. Zumindest muss man sich soweit auskennen, dass man im Online-Test die 70% holen kann, die man für die Klausurzulassung braucht.
     
    Die Betreuung durch Herrn Lenze war wieder einmal hervorragend. Sehr schnelle Rückmeldungen, gute Hinweise zur Prüfungsvorbereitung.
     
    In der Präsenzklausur war der Stoff sehr gleichmäßig über die drei Kapitel verteilt. Man darf keinen Taschenrechner benutzen. Es ist trotzdem schaffbar, weil die Werte so gewählt sind, dass sie sich gut für Handrechnung eigenen. Das Problem ist wieder einmal der Faktor Zeit. Man darf das Lehrbuch und sogar gerechnete Einsendeaufgaben mitnehmen. Aber das nützt nur bedingt, weil man die Aufgaben in der Zeit nicht schaffen wird, wenn man ständig nachschlagen muss. Es muss schon ein Grundstock Wissen im Kopf sein, dann kann ein gelegentlicher Blick ins Buch bestätigen, dass man sich an diese oder jene Formel richtig erinnert.
     
    Auch in Mathe3 habe ich noch kein Ergebnis, bin aber zuversichtlich, dass ich diese Klausur nicht nochmal schreiben muss.
     
    Nachtrag: Ergebnis
     
    Nach nicht einmal 2 Wochen habe ich für Mathe3 schon ein Prüfungsergebnis. Es ist ziemlich gut gelaufen. Die gründliche Vorbereitung hat sich gelohnt.
     
    Für diese Klausur habe ich im Urlaub oft bei brütender Hitze Übungsaufgaben gerechnet, während meine Familie sich im Pool verlustiert hat. Und sich gewundert hat, wie ich mich dazu überwinden konnte, im Urlaub und bei so schönem Wetter zu lernen. Nun freue ich mich sehr. Es ist schön, zu erleben, wie man innere Fortschritte macht. Wie sich Mühe auszahlt, weil man plötzlich Dinge begreift, die einem anfangs so schwierig erschienen. Es ist aber auch schön, wenn diese innere Entwicklung sich am Ende als äußerer Erfolg manifestiert. Das motiviert mich gerade im Fernstudium, wo es ja keinen äußeren sozialen Rahmen gibt, der mich trägt.
  21. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "IT-Projektmanagement" ist ein Pflichtmodul im Studiengang "B.Sc. Wirtschaftsinformatik" und wird dort auch dem Studienbereich Wirtschaftsinformatik zugerechnet. Vorgesehen ist es für das 4. Fachsemester. Formale Zugangsvoraussetzungen gibt es keine. Als inhaltliche Vorbereitung werden die Module "Geschäftsprozessmanagement" und "Software-Management 2" empfohlen. Ich meine, man könnte das Modul auch ohne diese Vorbereitung belegen. Web- und Medieninformatiker können dieses Modul im Wahlpflichtbereich belegen. Es gibt auch einen besonderen Anreiz, gerade dieses Modul zu wählen: Es ist Pflichtmodul für die Hochschulzertifikate "Requirements Engineer" und "Software-Manager".
     
    Persönliche Motivation
     
    Da ich Web- und Medieninformatik studiere, hätte ich dieses Modul nicht unbedingt belegen müssen. Nun war mir das Pflichtmodul "Software-Management 1" nicht leicht gefallen und auch die Klausur hätte besser laufen können. Darum hoffte ich, fachlich davon profitieren zu können, mich dem Thema Software-Management noch einmal aus einer anderen Perspektive zu nähern.
     
    Zum Lehrbuch
     
    Das Buch "Management von IT-Projekten" ist von Hans W. Wieczorrek und Peter Mertens. Es ist ein gebundenes Hardcover vom Springer Verlag aus der Serie Xpert.press. Im Modul verwendet wird die 4. Auflage von 2011. Sie hat einen Umfang von ca. 450 Seiten. Ich hatte das Glück, dass einer der Autoren mich als Tutor betreute.
     
    Das Buch behandelt sein Thema umfassend und aus vielen unterschiedlichen Perspektiven. In Kapitel 2 werden Grundbegriffe des Projektmanagements geklärt, Projektarten vorgestellt und Erfolgsfaktoren des Projektmanagements identifiziert. Kapitel 3 beschäftigt sich mit dem institutionellen Management von IT-Projekten. Hier geht es z.B. um Vor- und Nachteile verschiedener Projektorganisationsformen und auch um die Aufbauorganisation von Projekten. Schon nach diesen zwei Kapiteln wird deutlich, dass das Modul gegenüber dem Modul "Software-Management 1" eine stärker betriebswirtschaftliche Perspektive einnimmt. Ich finde, auch die Praxis bekommt ein etwas stärkeres Gewicht als im Lehrbuch von Herrn Balzert, dass dafür mehr Aufwand bei der scharfen Definition von Begriffen treibt.
     
    Kapitel 4 beschäftigt sich mit dem Vorgehen in IT-Projekten. Es geht um die Phasen der Projektinitialisierung und Projektdefinition. Dann geht es um mögliche Vorgehensmodelle, wobei auch agile Modelle eine Rolle spielen. Auch das Thema Prototyping wird behandelt. Insgesamt gibt es hier viel inhaltliche Überlappung mit dem Modul "Software-Management 1". Aber die Kapitel scheinen stärker aus der Perspektive der Praxis geschrieben zu sein. Mit dem Vorwissen aus dem Lehrbuch von Herrn Balzert war der präsentierte Stoff für mich gut lesbar. Ich hatte das Gefühl, hier viele Dinge noch einmal anders zu verstehen als beim ersten Anlauf. Insofern hatte ich schon hier den Eindruck, dass die Bearbeitung dieses Moduls sich für mich lohnte.
     
    Dem agilen Projektmanagement ist das Kapitel 5 gewidmet. Hier geht es unter anderem um das agile Manifest und Prinzipien agiler Entwicklung, aber auch um Voraussetzungen für den Einsatz agiler Modelle.
     
    Die Kapitel 6 und 7 beschäftigen sich mit der Planung von IT-Projekten und Techniken der Projektplanung. Projektmanagment wird als Regelkreis vorgestellt und Schritte und Phasen der Planung werden beschrieben. Neben der Listentechnik und den vielen bekannten Gantt-Diagrammen werden vor allem CPM-Netzpläne beschrieben, die auf der Graphentheorie basieren. Die Erstellung solcher Netzpläne sollte man für die Online-Klausur üben.
     
    Recht interessant war für mich das Kapitel zur Führung in IT-Projekten, wo es z.B. um soziologische Führungsmittel ging. Hier gab es z.T. sehr konkrete Hinweise, wie ein fairer Umgang mit Mitarbeitern aussehen müsste. Auch Themen wie Budgetierung, Steuerung und Controlling wurden behandelt.
     
    Für mich weniger zugänglich war das Kapitel 9 zur Aufwandsschätzung in IT-Projekten. Hier wurden verschiedene Methoden knapp vorgestellt. Es schafft somit einen Überblick. Leider wird nicht für alle Verfahren anschaulich gezeigt, wie sie im einzelnen funktionieren. Dass allerdings hätte den Umfang des Lehrbuches auch stark erhöht. Viele Schätzungen basieren auf dem Vergleich neuer Projekte (mit bislang unbekannten Kosten) mit abgeschlossenen Projekten (mit bekannten Kosten). Das setzt natürlich voraus, dass Projekte ordentlich dokumentiert und ausgewertet werden.
     
    Im Kapitel 10 geht es um die Wirtschaftlichkeit von IT-Projekten. Hier war mir das Tempo oft zu hoch. Es wird deutlich, dass die Autoren sich in einem betriebswirtschaftlichen Umfeld gut auskennen. Dabei setzen sie möglicherweise Begrifflichkeiten als allgemein bekannt voraus, die zumindest mir durchaus unklar waren. So habe ich zum Beispiel anhand der Ausführungen nicht begreifen können, was die Kapitalwertmethode ist. Allerdings war mein Tutor auf Nachfrage gerne bereit, mir dafür zusätzliches Übungsmaterial zur Verfügung zu stellen. Allgemein kann ich sehr empfehlen, Kontakt zu den Tutoren herzustellen und zu halten und sie als Ansprechpartner bei fachlichen Schwierigkeiten zu nutzen.
     
    Kapitel 11 gibt Tipps und Tricks für Leiter von IT-Projekten. Die folgenden Kapitel behandeln Subsysteme des Projektmanagements, Projektpolitik und stellen einen Rahmen für das Projektmanagement vor. Den Abschluss bildet, wie so oft bei Springer Campus, eine Fallstudie, die für meinen Geschmack noch ein bisschen mehr Raum hätte einnehmen dürfen.
     
    Insgesamt fand ich das Lehrbuch gut lesbar und praxisnah geschrieben. Obwohl ich bislang nicht im IT-Bereich arbeite, konnte ich einige Analogien zu Situationen in meinem beruflichen Alltag herstellen und so viele Ausführungen besser nachvollziehen. Die Materie an sich ist durchaus trocken, aber die Autoren behandeln den Stoff auf eine praxisorientierte Weise. Insgesamt habe ich von der Lektüre profitiert. Vieles, was ich beim Lesen des Lehrbuches von Herrn Balzert recht mühsam verstanden habe, fiel mir hier leichter. Das mag zum Teil an der inhaltlichen Überlappung liegen, aber ich glaube, dass Texthandwerk der Autoren leistet auch einen wichtigen Beitrag dazu.
     
    Tests und Einsendeaufgaben
     
    Die Tests habe ich selten auf Anhieb richtig lösen können. Gut gefallen hat mir, dass sie umfangreich kommentiert sind. So habe ich stets nachvollziehen können, warum meine erste Lösung falsch war. Oft habe ich gerade durch meine Fehler neue Einsichten in den Stoff gewonnen. Die Tests waren auf den Stoff der Kapitel bezogen und ergänzten ihn in sinnvoller Weise.
     
    Die Einsendeaufgaben zielten meist auf Reproduktion des Stoffes und waren somit relativ leicht lösbar. Hier hätte ich mir mehr Aufgaben gewünscht, die auf Anwendung abzielen und Transferleistungen beinhalten, denn das spielt in der Online-Klausur und in der Präsenzklausur natürlich eine Rolle.
     
    Die Rückmeldungen meines Tutors kamen zügig und waren konkret und hilfreich. Auf Nachfrage verwies mein Tutor auch auf zusätzliches Material, um z.B. das Erstellen von CPM-Netzplänen zu üben. Das erwies sich als sinnvoll und nützlich, denn erst in der Anwendung merkt man, ob man den Stoff verstanden hat. Allerdings hielte ich es deswegen für wünschenswert, wenn auch einige Einsendeaufgaben stärker auf Anwendung und Transfer abzielten.
     
    Online-Test und Online-Klausur
     
    Der Online-Test fiel mir recht leicht und passte gut zu den Aufgaben, die ich zuvor geübt hatte. Es war gut, dass ich zuvor mit zusätzlichem Material geübt hatte, auf das mich mein Tutor verwiesen hatte. Ich empfehle hier allen Studierenden, Kontakt mit dem Tutor zu suchen und auch konkret nachzufragen, wie und womit man üben kann. Es gibt im Netz viel Material, das frei zugänglich ist. Aber wenn man nicht im Dialog bleibt, entgeht einem womöglich die Chance, sich bestmöglich vorzubereiten. Leicht denkt man nach Lektüre der Kapitel, dass man alles verstanden hat und auch anwenden kann. Aber das kann trügerisch sein.
     
    Präsenzklausur
     
    Die Präsenzklausur lief für mich leider nicht gut. Die ersten Aufgaben fielen mir zwar leicht und ich konnte sie in weniger als der Hälfte der Zeit bearbeiten. Aber die letzte Aufgabe machte 40% der Punkte aus und war umfangreicher. Und ausgerechnet hier gelang es mir nicht, die Aufgabenstellung zu verstehen und die enthaltenen Hinweise zu verwerten. Am Ende war ich überzeugt, hier keinen einzigen Punkt erzielen zu können. So habe mich entschieden, alle bearbeiteten Aufgaben durchzustreichen, um mit null Punkten durchzufallen und einen neuen Anlauf nehmen zu können.
     
    Ursprung meiner Schwierigkeiten war ein Missverständnis. Ich hatte eine Auflistung von Werten falsch gelesen und so jeweils zwei durch ein Komma getrennte Werte als einen einzigen Wert mit Nachkommastellen aufgefasst, der dann völlig unrealistisch war. Leider waren diese Werte grundlegend für alle folgenden Arbeitsschritte. Offenbar war ich dann so aufgeregt, dass ich eine Art Tunnelblick entwickelt habe. Ich habe eine Stunde lang immer nervöser nach einer Möglichkeit gesucht, mit den unsinnigen Werten zu rechnen oder irgendeine sinnvolle Erklärung dafür zu finden. Ärgerlich daran ist, dass auch die letzte Aufgabe gut machbar gewesen wäre.
     
    An dieser Stelle zeigte sich wieder einmal der Wert einer guten tutoriellen Betreuung. Ich habe zu Hause umgehend meinen Tutor kontaktiert, weil ich zu diesem Zeitpunkt noch nicht verstanden hatte, was eigentlich schiefgelaufen war. Dementsprechend verunsichert war ich, auch im Hinblick auf eine Wiederholungsprüfung. Mein Tutor hat sehr umgehend reagiert und mit seiner Hilfe konnte ich verstehen und für mich reflektieren, was eigentlich passiert war. Für Außenstehende dürfte offensichtlich sein, dass ich dieses Mal die Nerven verloren hatte. Mir selbst war das zunächst gar nicht klar. Dies war meine 38. Klausur im Studiengang und bislang hatte ich unter Stress immer gut funktioniert und bis zum Schluss einer Klausur lösungsorientiert weiterarbeiten können. Möglicherweise habe ich mich wegen der stärker betriebswirtschaftlichen Perspektive des Moduls und dem Management-Fokus unsicher gefühlt.
     
    Jedenfalls habe ich mich nach der Klärung mit meinem Tutor wieder beruhigen und das Geschehene für mich einordnen können. Ich plane nun, einfach das nächste Modul zu bearbeiten und beim nächsten Klausurtermin die Wiederholungsklausur zu schreiben. Eigentlich sollte das klappen.
     
    Fazit
     
    Ursprüngliche Motivation für die Belegung dieses Moduls war, das Thema Software-Management noch einmal in den Blick zu nehmen. Und zwar nicht, weil ich mich für eine Tätigkeit mit diesem Schwerpunkt interessiere. Sondern eher, um die Perspektive eines Projektmanagers auf den Gesamtprozess besser verstehen zu können, auch wenn ich selbst lieber umsetzend als planend und führend tätig werden möchte. In meinem Arbeitsbereich habe ich die Erfahrung gemacht, dass ein wenigstens rudimentäres Verständnis für die Aufgaben des Managements die Kommunikation am Arbeitsplatz verbessert. In dieser Hinsicht hat sich das Modul für mich gelohnt. Das liegt in erster Linie am verständlich geschriebenen Lehrbuch und an der guten tutoriellen Betreuung.
     
    Obwohl das Projektmangement im Softwarebereich einige Besonderheiten hat, meine ich, dass ich einige Einsichten auch auf meinen gegenwärtigen Arbeitsbereich übertragen kann, der nichts mit IT zu tun hat. Möglichkeit zur Verbesserung sehe ich bei den Einsendeaufgaben. Diese könnte man um zwei bis drei komplexere Aufgaben ergänzen, die mehr Transfer und Anwendung erfordern.
     
    Um das Modul abschließen zu können, muss ich nun noch die Wiederholungsklausur bestehen. Ich werde hier im Blog berichten. Ich glaube, für meine persönliche Entwicklung ist es gar nicht schlecht, dass ich auch mal eine Klausur nicht bestanden habe. Mein Umgang damit war zunächst alles andere als gelassen. Für die Zukunft denke ich, dass ich an meiner Fähigkeit arbeiten muss, Rückschläge zu verdauen und mich bei eigenen Fehlern nicht gleich in Frage zu stellen. Das Phänomen, aus dem "kognitiven Tunnel" nicht mehr herauszufinden, ist auf jeden Fall Aufmerksamkeit und Reflexion wert. So etwas könnte ja auch in anderen Zusammenhängen passieren. Die nächste Chance, es besser zu machen, kommt Mitte März.
  22. kurtchen
    7. Semester - Wintersemester 2018/2019
    - Präsentieren
    - Text Mining
    - IT-Projektmanagement
     
    6. Semester - Sommersemester 2018
    - Multimedia
    - IT-Recht
    - Business Intelligence
    - Projektarbeit
     
    5. Semester - Wintersemester 2017/2018
    - Geschäftsprozessmanagement
    - BWL2
    - Aktuelle Webtechniken
    - Wissenschaftliches Arbeiten
    - Software-Management
    - Software-Testen
     
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Web-Engineering
    - Softwaretechnik 2
    - Softwaretechnik 3
    - Content Management Systeme (CMS)
    - Data-Mining
    - XML
    - BWL1
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Aktuell in Bearbeitung bei Springer Campus
    - Electronic Business
     
    Danach noch fehlende Pflichtmodule:
    - Bachelorarbeit
×
  • Neu erstellen...