Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    879
  • Benutzer seit

  • Letzter Besuch

Blogbeiträge von kurtchen

  1. kurtchen
    Welche Rolle spielt Softwaretechnik 2 im Studium?
     
    Das Modul "Softwaretechnik 2" wird - wenig überraschend - dem Studienbereich "Softwaretechnik" zugerechnet, der in den Studiengängen von Springer Campus einen recht großen Raum einnimmt. Das Modul ist Pflicht, sowohl im Studiengang "Web- und Medieninformatik" als auch im Studiengang "Wirtschaftsinformatik". Als inhaltliche Voraussetzung gilt das Modul "Softwaretechnik 1", bei dem es um Basistechniken und die Basiskonzepte Statik, Dynamik und Logik geht. Dieser Einschätzung würde ich mich anschließen. In SWT1 wird vor allem eine solide Grundlage in UML vermittelt, die man in SWT2 braucht. Springer Campus empfiehlt, auch das Modul "Softwaremanagement 1" vorher zu belegen, weil es das Verständnis von SWT2 erleichtere. Dazu kann ich nichts näheres sagen, weil ich SWM1 nicht vorher belegt hatte. Ich hatte den Eindruck, mit dem Stoff gut zurecht zu kommen und SWM1 als Grundlage nicht unbedingt zu brauchen. Möglicherweise wären mir die Kursabschnitte zur Aufwandsschätzung so leichter gefallen.
     
    SWT2 ist auch ein Pflichtmodul in den Weiterbildungszertifikaten "Requirements Engineer", "Software-Architekt" und "Software-Manager". Wer sich für eine dieser wissenschaftlichen Weiterbildungen interessiert, sei es als Etappenziel auf dem Weg zum Bachelor oder auch als eigenständige Weiterbildung, der muss sich mit den Inhalten dieses Moduls beschäftigen.
     
    Das Lehrbuch
     
    Inhaltlich geht es in SWT2 um Requirements Engineering, Aufwandsabschätzung und die Modellierung von Anforderungen. Ein neues Lehrbuch bekommt man nicht. Man bearbeitet die verbleibenden Kapitel vom (hervorragenden) "Lehrbuch der Softwaretechnik - Basiskonzepte und Requirements Engineering" von Helmut Balzert, welches ja schon SWT1 zu Grunde lag. Während SWT1 mit über 400 Seiten ein umfangreicher Kurs war, fällt SWT2 mit nur ca. 150 restlichen Seiten deutlich kompakter aus. Ich habe den Eindruck, dass sich das nicht ganz im Zeitaufwand niederschlägt. Viele Kapitel zum Requirements-Engineering sind vergleichsweise trockene Themen, durch die man sich mühsam durchbeißen muss. In SWT1 nahmen große UML-Diagramme viel Raum auf den Seiten ein, so dass man oft schneller voran kam. Dieses Modul ist etwas textlastiger. Gleichwohl scheint mir, dass der Arbeitsaufwand ungleichmäßig verteilt ist. Ich hätte es besser gefunden, die Kapitel zur Logik aus SWT1 noch SWT2 zuzuteilen. Allerdings ginge dabei die klare thematische Gliederung der Module verloren. Wahrscheinlich muss man sich damit abfinden, dass die Module trotz formal gleichem Workload mal anstrengender und mal etwas leichter ausfallen. Dies bezieht sich allerdings nur auf den Arbeitsumfang. Inhaltlich ist SWT2 anspruchsvoll und relevant.
     
    Requirements Engineering
     
    Beim Requirements Engineering geht es im wesentlichen um das Erfassen von Anforderungen für Software-Projekte. In der Vergangenheit sind immer wieder große Software-Projekte spektakulär gescheitert. Ein wesentlicher Grund war, dass die Anforderungen an das Produkt zu Beginn nicht präzise ermittelt wurden, Entwurf und Implementierung also schon vorangeschritten waren, als wesentliche Anforderungen erst bekannt wurden. So etwas endete oft damit, dass sich der erstellte Code als unbrauchbar erwiest, weil der Entwurf schon in den Grundzügen an den Anforderungen vorbei ging. Die nötigen Änderungen wären teurer gewesen als ein kompletter Neubeginn. Requirements Engineering beschäftigt sich mit Techniken und Vorgehensweisen, um relevante Anforderungen zu Beginn eines Projektes (und im laufenden Projekt) zu ermitteln, um ausufernde Kosten, Terminverzögerungen oder gar ein Scheitern des Projektes zu vermeiden.
     
    Das klassische Vorgehen ist ein dreistufiges. Die Anforderungen werden aus Kundensicht definiert. Das Ergebnis ist ein Lastenheft, das i.d.R. auch Angebotsgrundlage ist. Dann werden die Anforderungen aus dem Lastenheft spezifiziert. Das Ergebnis ist das deutlich umfangreichere Pflichtenheft, zu dem auch Abnahmekriterien gehören. Die im Pflichtenheft spezifizierten Anforderungen werden dann klassischerweise in eine fachliche Lösung in Form eines OOA-Modells überführt. Damit sind wir aber schon im Bereich Anforderungs-Modellierung.
     
    Es gibt aber auch agile Softwareentwicklung. Hier ist das Ziel mit möglichst wenig Dokumenten außer dem Code auszukommen. Ein Kunde oder Kundenrepräsentant wird ins Entwicklungsteam integriert, die Anforderungen werden in Form von User Stories erhoben, die beschreiben, was das Softwaresystem für die Benutzer leisten soll. Kennzeichnend für agile Entwicklung ist, dass die Anforderungen nicht vollständig vor sondern nach und nach während des Projektes ermittelt werden.
     
    Der inhaltliche Fokus von SWT2 liegt aber klar auf dem klassischen sequentiellen Vorgehen. Im Rahmen der Einsendeaufgaben erstellt man auch selbst ein Lasten- und ein Pflichtenheft, was sich vergleichsweise lange hinzieht und ungewohnt viel Schreibarbeit ist. Hier geht es unter anderem darum, Anforderungsschablonen anzuwenden, die eine klare inhaltliche Gliederung vorgeben und zum Teil auch mit einheitlichen Formulierungen arbeiten. Hier muss man sich ein bisschen disziplinieren. Man muss zum Beispiel sehr präzise unterscheiden, was ein System leisten SOLL und was es leisten MUSS. Beim Pflichtenheft ist es wesentlich, Abnahmekriterien zu formulieren, die eindeutig überprüfbar sind. Hier kam es mir tatsächlich einmal zu Gute, dass ich eine pädagogische Ausbildung habe. Bildungs- und Förderziele sollten ebenfalls so formuliert sein, dass sie konkretes und beobachtbares Verhalten beschreiben, damit man nachprüfbar ist, ob der Lernende sie erreicht hat. Schwammige Formulierungen wie "das Sozialverhalten der Schüler soll sich verbessern", lassen viel Interpretationsspielraum. Man kann mir so zwar nicht beweisen, dass meine Maßnahme wirkungslos war, aber ich kann umgekehrt auch nicht beweisen, dass ich etwas erreicht habe. Hier sah ich also eine gewisse Analogie, die mir das Verständnis erleichterte.
     
    Aufwandsschätzung
     
    In den folgenden Kapiteln geht es um das Schätzen des Entwicklungsaufwandes. Das ist ein sehr wichtiger Schritt, weil ein Unternehmen, das Software entwickelt, dem Kunden ein Angebot machen muss. Schätzt man den Aufwand zu hoch ein, geht der Kunde zu einem günstigeren Mitbewerber und man bekommt den Auftrag nicht. Schätzt man ihn zu niedrig ein, sind die Entwicklungskosten höher als der vereinbarte Preis und man verliert Geld. Eine möglichst gute Aufwandsschätzung ist also wesentlich für den wirtschaftlichen Erfolg, auch wenn es gute Gründe geben kann, eine Software unter den tatsächlichen Entwicklungskosten anzubieten. Zum Beispiel weil man damit in eine neue Anwendungsdomäne vordringen kann und sich eine Codebasis erarbeitet, die man in künftigen, ähnlichen Projekten wiederverwenden kann. Solche Entscheidungen sollte man dann aber bewusst und strategisch treffen.
     
    Aufwandsschätzung ist leider alles andere als einfach. Im Kurs lernt man verschiedene Schätzverfahren kennen, wozu auch algorithmische Verfahren wie Function Points oder Object Points gehören. Viele der Verfahren sind selbst recht aufwendig, so dass allein die Durchführung der Schätzung schon beträchtliche Kosten verursacht. Auch formalere Verfahren wie Functions Points müssen mit Erfahrungswerten aus dem Unternehmen sozusagen kalibriert werden, um ermittelte Aufwandspunkte in Entwicklermonate umrechnen zu können. Hier spielen viele Faktoren eine Rolle. Eine Rolle spielt zum Beispiel die Erfahrung der Entwickler mit ähnlichen Projekten, der Anteil von Code, der wiederverwendet werden kann, aber auch die Sprache, in der entwickelt werden soll.
     
    Natürlich darf man nicht erwarten, allein auf Grundlage eines Studienmoduls in der Lage zu sein, eine Aufwandsschätzung vorzunehmen. Man lernt Methoden kennen, mit denen Unternehmen versuchen, dieses Problem zu lösen. Man lernt relevante Begriffe und Konzepte. Und man entwickelt ein Bewusstsein, für die damit verbundenen Probleme. Einsendeaufgaben hier beinhalten z.B. das Bestimmen von Function Points für ein skizziertes Projekt.
     
    Anforderungen modellieren
     
    Im letzten Kursabschnitt geht es um objektorientierte Analyse, also das Erstellen eines OOA-Modells auf Grundlage einer Spezifikation. Wichtigstes Ergebnis ist in der Regel ein UML-Klassendiagramm, das die Statik des Systems modelliert. Der Kurs vermittelt 10 sogenannte OOA-Muster, wiederkehrende Formen der Verknüpfung von Klassen, mit charakteristischer Semantik und charakteristischen Multiplizitäten. Hier muss man wieder Diagramme zeichnen und dieser Kursteil war dann schon wieder lebendiger und näher dran an der Programmierung. Für mich persönlich war das der Teil des Kurses, der mir am meisten Spaß gemacht hat. Eine typische Einsendeaufgabe hier wäre das Wiedererkennen der behandelten Muster in kleinen Spezifikationen, die man modellieren soll.
     
    Prüfungen
     
    Online-Test und Online-Klausur deckten die Inhalte des Kurses noch einmal breit ab. Eine kleine Warnung vorweg: Ich hatte ein Lastenheft mit Glossar zu schreiben. Da steckt viel Schreibarbeit drin und es ist nicht ganz einfach, sich die Zeit gut einzuteilen. Hier habe ich Punkte verschenkt, weil ich mich mit Schreiben zu lange aufgehalten habe und die verlorene Zeit beim Modellieren nicht mehr rausholen konnte. Hilfreich wäre vielleicht, gewisse Text- und UML-Schablonen schon griffbereit zu haben.
     
    Ich hatte den gleichen Tutor wie in SWT1. Auch in SWT3 er mich voraussichtlich wieder begleiten. Die Kurse bauen aufeinander auf und es ist sehr schön, hier einen kontinuierlichen Ansprechpartner zu haben, der einen durch einen längeren Lernprozess begleitet.
     
    Die Präsenzklausur deckte die Inhalte breit ab, wenn auch mit unterschiedlicher Gewichtung. Ich hatte relativ viel Modellierung, was mir eigentlich Spaß gemacht hat. Mal sehen, ob ich das auch in eine gute Note umsetzen konnte. Der Zeitdruck war im Vergleich zur Online-Klausur geringer, so dass die Online-Klausur hier als gute Vorbereitung gelten kann. So ist es mir am liebsten.
     
    Ausblick
     
    Ich bin nun sehr gespannt auf SWT3, wo es unter anderem um Entwurfsmuster gehen wird. Laut meinem Tutor wird dort auch wieder mehr programmiert. Darauf freue ich mich schon richtig.
  2. kurtchen
    Das Modul Softwaretechnik 3 (SWT3) ist verpflichtend für Studierende im Studiengang Web- und Medieninformatik und wird dort dem großen Studienbereich "Softwaretechnik" zugerechnet. Für Studierende im Studiengang Wirtschaftsinformatik ist es nicht verpflichtend. Soweit ich es verstanden habe, kann es von ihnen nicht einmal als Vertiefungskurs belegt werden. Laut Studienplan sollte man SWT3 im 6. Semester belegen. Es ist also als eines der letzten Module vor der Bachelor-Arbeit vorgesehen.
     
    Voraussetzungen
     
    Die Liste der Module, die als inhaltliche Voraussetzung genannt werden ist lang: Man benötigt GdI1 und GdI2, weil man solide Kenntnisse objektorientierter Konzepte sowie gute Java-Kenntnisse braucht. GdI3 ist wichtig, weil die Interaktionen zwischen den Schichten GUI, Fachkonzept und Datenhaltung eine wesentliche Rolle spielen. SWT1 ist unter anderem nötig, weil man sich mit den verschiedenen UML-Diagrammen gut auskennen sollte. Wozu man Software-Management braucht, erschließt sich mir nicht. Ich hatte diese Grundlage nicht und habe sie auch an keiner Stelle des Kurses vermisst. Dafür denke ich, dass das Modul "Nicht-sequentielle Programmierung" (NSP) eine sinnvolle Vorbereitung wäre, denn verteilte Anwendungen spielen eine große Rolle und es ist sehr hilfreich, zumindest schon einmal Erfahrungen mit RMI (Remote Methode Invocation) gesammelt zu haben. Das Modul SWT3 ist außerdem ein Pflichtmodul für das Hochschulzertifikat "Software-Architekt". Kein Wunder, denn Software-Architektur ist ein roter Faden dieses Kurses.
     
    Das Lehrbuch
     
    Grundlage für den Kurs ist das "Lehrbuch der Softwaretechnik - Entwurt, Implementierung, Installation und Betrieb" von Helmut Balzert. Es ist der Folgeband zum "Lehrbuch der Softwaretechnik - Basiskonzepte und Requirements Engineering" vom gleichen Autor. Während sich der Inhalt des ersten Bandes auf 2 Module verteilte, muss man für SWT3 tatsächlich die kompletten 580 Seiten durchackern. Und die haben es in sich. Wie schon im ersten Band legt Herr Balzert großen Wert auf eine präzise Definition der Begriffe. Viele Diagramme (vor allem UML-Diagramme) und Code-Beispiele (meist in Java) ergänzen den Kurstext.
     
    Die Themen
     
    Eine der ersten Einsendeaufgaben behandelte Verteilungsdiagramme. Mit diesen stellt man dar, wie die Komponenten eines verteilten Softwaresystems auf verschiedene physische Rechner oder auf verschiedene Ausführungsumgebungen an verschiedenen Standorten verteilt sind, und über welche Protokolle die Interaktion zwischen den Knoten abläuft. Konkret sollte man für die Aufgabe die sprachliche Beschreibung eines verteilten Systems in ein Diagramm umsetzen. Hier hatte ich Schwierigkeiten, mir das System und das Zusammenwirken seiner Teile vorzustellen. Ich brauchte mehrere Anläufe und viele Rückmeldungen meines Tutors, um diese Aufgabe befriedigend lösen zu können. Leider ist dieses Thema eine meiner Achillesfersen geblieben. Die Verteilungsdiagramme spielten auch in der Klausur eine Rolle und gerade mit dieser Aufgabe habe ich mich sehr schwer getan.
     
    Leichter fiel mir der große Themenbereich der Entwurfsmuster. Hier zielten die Einsendeaufgaben darauf ab, verschiedene Entwurfsmuster in Java auszuprogrammieren. Zu meiner Überraschung ist SWT3 ein Modul, in dem das Schreiben von Code wieder eine größere Rolle spielt. Eine schöne Nebenwirkung dieses Moduls ist, dass ich nun viel besser mit Netbeans umgehen kann. (Eigentlich nicht vorgesehen, ich hätte ich das Modul mit Eclipse bearbeiten sollen.) Wichtige Themen sind: Callback, Schichten-Muster, Beobachter-Muster, MVC-Muster, Fassaden-Muster, Kommando-Muster, Proxy-Muster, Fabrikmethoden-Muster, Strategie-Muster und Brücken-Muster.
     
    Angenehm am Modul ist auch, dass sich eher theoretische und sehr praktische Kapitel abwechseln. Nach einem recht theoretischen Kapitel über nicht-funktionale Anforderungen geht es also wieder recht praktisch weiter mit Globalisierung und Internationalisierung von Software, mit Authentifizierung und Autorisierung am Beispiel JAAS und mit Transaktionen am Beispiel JTA. Ergänzend zur vorherrschenden Java-Perspektive gibt es immer wieder kleinere Ausflüge, wie die verschiedenen Konzepte des Kurses in .NET umgesetzt werden.
     
    Ein nächster großer Block sind Arten der Netzkommunikation bei verteilten Anwendungen. Hier lernt man in rascher Folge die Kommunikation mit Sockets, mit Remote Method Invocation (RMI), mit CORBA, mit XML-RPC, mit SOAP und REST. Hierzu gibt es auch wieder mehrere Programmieraufgaben. In diesem Zusammenhang lernt man auch weitere Entwurfsmuster kennen, z.B. Wert-Objekte, Fabrik-Dienste und Fassaden.
     
    Es folgt ein Kapitel über softwaretechnische Infrastrukturen. Hier geht vor allem um Java EE und um .NET. Das Kapitel über eingebettete Systeme und Architekturmuster für diese fällt aus meiner Sicht recht knapp aus. Wichtiger scheint mir das Kapitel über Persistenz. Hier gibt es Einsendeaufgaben zur objektrelationalen Abbildung (ORM) und zur Java Persistence API (JPA). ORM war ja auch schon im Modul "SQL und relationale Datenbanken" Thema, aber ich finde es nicht schlecht, dass dieses Thema hier noch einmal auftaucht. Bei der objektrelationalen Abbildung geht es darum, Klassen, Assoziationen und Vererbungsstrukturen eines per OOA erstellen Fachkonzepts in sinnvoller Weise auf Tabellen einer relationalen Datenbank abzubilden. Hierfür gibt es mehrere Möglichkeiten, die je eigene Vorzüge und Nachteile haben.
     
    Die restlichen Kapitel über GUI-Entwurfsmuster, den Entwurfsprozess, Qualitätssicherung der Architektur, Implementierung, Verteilung und Installation, Betrieb und Reverse Engineering werden nur noch durch Tests abgedeckt. Aufgrund des Umfangs des Moduls gibt es sehr viele Tests. Ich habe auch den Eindruck, dass im Abschlusstest breit geprüft wird.
     
    Mein Tutor war der gleiche wie in SWT1, SWT2, Mobile Computing und Web-Design. Die Rückmeldungen zu meinen Einsendeaufgaben kamen meist schon am nächsten Tag. Besonders interessant war es natürlich, wenn meine Lösung nicht gestimmt hatte. Durch die schnelle Antwortzeit, konnte ich gut Rückfragen stellen und meine eingereichten Lösungen zum Teil in mehreren Schritten verbessern. Das war wieder sehr hilfreich für die Klausurvorbereitung.
     
    Online- und Präsenzklausur
     
    Bei der Online-Klausur kamen Themen dran, mit denen ich nicht unbedingt gerechnet hätte. Aufgrund der Gewichtung der Einsendeaufgaben erschienen mir, Entwurfsmuster, Arten der Netzkommunikation und Persistenz als die Kernthemen des Moduls, die man gründlich vorbereiten sollte. Aber hier kamen auch Aufgaben zu kleineren Themen. Wer Bonuspunkte will, sollte also den gesamten Kurs ernst nehmen.
     
    In der Präsenzklausur kamen große Punktebringer dann schon aus den oben genannten Kernthemen. Es gab aber auch mehrere kleinere Aufgaben, die mit Wissensfragen Inhalte aus dem gesamten Modul abdeckten. Schon eine clever konstruierte Prüfung, wenn man checken will, ob die Studierenden wirklich alles bearbeitet und verstanden haben. Leider kamen auch die von mir nicht geliebten Verteilungsdiagramme wieder dran.
     
    Fazit und Ausblick
     
    Manche der vorgestellten Architektur-Muster waren recht komplex. Zum Teil habe ich bei diesem Modul gespürt, dass ich an die Grenzen meiner Abstraktionsfähigkeit komme. Man merkt deutlich, dass es ein Modul für fortgeschrittene Semester ist. Gut gefallen hat mir, dass hier die Umsetzung der Entwürfe in Code wieder eine größere Rolle spielt. SWT3 bildet eine gute Brücke zwischen den Modulen der Softwaretechnik und den Programmiermodulen. Ich finde insgesamt die Studienbereiche GdI und SWT gut aufeinander abgestimmt. Der Kurs hat mir wieder sehr viel Spaß gemacht, war aber für mich auch herausfordernd. Während ich bei anderen Modulen oft noch Wünsche formulieren konnte, was ich gerne noch alles gelernt hätte, war ich nach SWT3 endlich einmal "satt". Das kommt bei mir eher selten vor.
     
    Ein Klausurergebnis habe ich noch nicht, aber ich hoffe sehr, dass die Mühe sich gelohnt hat und ich diesen anstrengenden Teil meines Studiums nun auch wirklich hinter mir lassen kann. Den "dicken Brocken" Softwaretechnik habe ich damit aber noch nicht geschafft. Auf mich warten noch immer die Module "Software-Management 1" und "Software testen". Ich brauche nun aber tatsächlich einen Themenwechsel, um nicht ständig von der gleichen geistigen Ressource zu zehren. Darum möchte ich nun endlich einmal das bislang von mir vernachlässigte Thema BWL angehen, um das auch Studierende der Web- und Medieninformatik nicht herumkommen. In den nächsten Wochen wird mich also das interne und externe Rechnungswesen beschäftigen. Nicht gerade eine Entwicklungsaufgabe, auf die ich mich freue, aber nachdem ich in den letzten Wochen sehr viel vor dem Bildschirm gesessen habe, wird es zumindest eine Abwechslung sein.
  3. kurtchen
    Weiter ging es in meinem Online-Studium mit dem Modul "SQL und relationale Datenbanken". Dieses Modul war laut empfohlenem Studienplan für das zweite Semester vorgesehen. Bei den nötigen Grundlagen war allerdings nur "Grundlagen der Informatik 1" genannt. Grundkenntnisse der strukturierten und prozeduralen Programmierung sollten also reichen. Ich hatte schon "Grundlagen der Informatik 2" bestanden, war also der Meinung, gut gerüstet in den Kampf zu ziehen.
     
    In diesem Kurs gab es zwei Lehrbücher:
    - SQL: Der Einstieg in die deklarative Programmierung
    - Datenbank-Anwendungen entwerfen & programmieren
     
    Im SQL-Buch ging es zunächst um eine Einführung in diese Sprache. Wie bei der W3L üblich, gab es ein einführendes Kapitel, indem alle Themen des Buches knapp angerissen waren, so dass man ungefähr wusste, was im Laufe des Moduls auf einen zukommen würde. Das nächste Kapitel war dann detaillierter. Es ging um:
    - Anlegen von Tabellen, Schlüsselspalten, Primärschlüssel
    - Datentypen, Domains als selbst-definierte Wertebereiche
    - Werteeinschränkungen durch Regeln
     
    Hier fiel mir die erste Sache auf, an der ich mich im Kurs stören sollte: Zu Beginn des Kurses war erklärt worden, wie man auf seinem System MySQL und Firebird installiert. Ich war davon ausgegangen, das eine ODER das andere zu brauchen und MySQL bzw. MariaDB ist ja bei den meisten Linux-Systemen sowieso dabei. Der Kurs hat aber nicht den Anspruch, den Studierenden in ein bestimmtes Datenbanksystem einzuführen. Vielmehr geht es um SQL als Sprachstandard, der in verschiedenen Implementierungen mehr oder weniger konsequent und umfassend realisiert ist. MySQL und Firebird dienen als Beispiele für Implementierungen, die sich in verschiedenen Punkten unterscheiden. Viele Code-Beispiele aus dem Lehrbuch liefen unter MySQL nicht. Ich sah mich so gezwungen, zwischen MySQL und Firebird zu wechseln, Code in beiden Umgebungen auszuprobieren, meine eigenen Datenbanktabellen in beiden Systemen anzulegen, was Zeit kostete. Das kam mir anfangs sehr umständlich und didaktisch nicht gelungen vor. Im Laufe der Zeit wurde mir jedoch klar, um was es dem Kursautor ging. Ich sollte verstehen, was relationale Datenbanken sind und was SQL als allgemeiner Sprachstandard ist, unabhängig von einem bestimmten Produkt. Im Laufe des Kurses wurde ich flexibler und habe mir parallel auch noch PostgreSQL installiert, habe auch mit verschiedenen graphischen Tools experimentiert und dann wieder viel auf der Kommandozeile gearbeitet. Man bekommt ein Gefühl dafür, was den Kern von SQL ausmacht, der sich nicht so schnell ändert. Man erhält auch einen Eindruck davon, wie man arbeiten müsste, um eine Datenbank leichter auf eine andere Implementierung migrieren zu können. Am Ende des Moduls wusste ich, dass ich mich wenn nötig in jede Implementierung einarbeiten kann, weil einfach Grundlagen da sind, auf die ich mich verlassen kann. Es dauerte natürlich eine Weile, an diesem Punkt zu kommen, und so war ich in den ersten Kapiteln oft unzufrieden mit dem didaktischen Asatz, dessen Sinn ich noch nicht verstand.
     
    Weitere Themen waren:
    - Selektionen und Projektionen
    - Spaltenausdrücke
    - Suchen mit Mustern,
    - Verknüpfte Ausdrücke
    - Mengen als Vergleichswerte
    - Einfügen und Aktualisieren von Datensätzen
    - Restrukturieren von Tabellen
    - Änderungen an Tabellen mit Daten
    - Änderungen von Domänen
    - Löschen von Informationen
    - Spaltenfunktionen von Gruppierungen
     
    Bis hierhin hatte man in der Regel mit einzelnen Tabellen gearbeitet. Der Kurs war bis hier auch recht syntaxlastig. Das machte sich auch in den Online-Tests bemerkbar, die zum Teil etwas spitzfindig formuliert waren. So halbwegs begriffen zu haben, reichte nicht. Zum Teil schien es mir, als seien bewusst kleine Ungenauigkeiten in die Fragen eingebaut, um dem Lernenden eine kleine Falle zu stellen und zu checken, ob er wirklich genau aufgepasst hatte. Auch das ärgerte mich zunächst. Ich lernte aber so auch, genauer hinzuschauen. Im Laufe der Zeit habe ich diese Art der Tests zu schätzen gelernt.
     
    Auch die Einsendeaufgaben wurden auf diese Weise korrigiert. Ungefähr richtig reichte nicht. Mein Tutor erwartete Präzision. Die Rückmeldungen im Fehlerfall waren recht knapp, so dass ich gerade am Anfang oft nachhaken musste. Der Sinn blieb mir zunächst verborgen. Im Laufe der Zeit merkte ich, dass mir der Tutor immer nur einen kleinen Brocken hinwarf. Gerade genug, um selber einen Schritt weiter zu kommen. Ich habe gelernt, die Online-Dokumentationen intensiv zu nutzen und auch mit Sekundärliteratur zu arbeiten. Ein Stück weit meine Probleme selbstständig zu lösen, statt immer gleich um Hilfe zu bitten. Das Tolle war: Im Laufe der Zeit merkte ich, dass ich besser darin wurde, selbst nach Lösungen zu suchen.
     
    Im letzten Kapitel des ersten Buches ging es dann erstmals um das, was relationale Datenbanken ausmacht: Um die Verknüpfung von Tabellen über Fremdschlüsselbeziehungen und die damit verknüpften Probleme der Konsistenzhaltung. Ein kleiner Nebenschauplatz war die Einrichtung von dynamischen Wertebereichen über Fremdschlüsselbeziehungen.
     
    Nun kam das zweite Lehrbuch und das war deutlich anders als das erste. Ging es im ersten Lehrbuch relativ konkret darum, was man mit der Sprache SQL machen kann und wie man das konkret macht, kam hier erst mal viel Theorie:
    - Relationen und Operationen auf Relationen
    - relationsinterne und relationsübergreifende Abhängigkeiten
    Hier ging es zum Teil recht mathematisch zu. Der Vorteil: Mit dem eher praktischen Vorwissen aus dem ersten Lehrbuch war dieser Teil etwas leichter verdaulich. Gut wäre es hier gewesen, ich hätte schon das Modul Mathe1 beendet. Das war aber bei mir nicht der Fall, weshalb dieser Teil des Kurses für mich etwas zäher ablief.
     
    Es folgte ein recht umfangreicher Teil über Entwicklungsphasen einer Datenbank und darüber, wie man Sachverhalte und Beziehungen in Datenbanken modelliert. Insbesondere ging es darum, wie man Klassen, Vererbungsstrukturen und Assoziationen zwischen Klassen in Datenbanktabellen modelliert, also das, was man objekt-relationales Mapping nennt. Dieser Teil des Kurses war für mich sehr interessant, weil hier deutlich wurde, wie man objektorientierte Programmierung und Persistenz mit einem RDBMS zusammenbringen kann. Hier war ich heilfroh, "Grundlagen der Informatik 2" bereits bearbeitet zu haben, also die Einführung in die objektorientierte Programmierung. Ohne diese Grundlage wäre mir dieses Kapitel viel schwerer gefallen und ich finde, dass es für alle Studierenden sinnvoll wäre, diese Grundlage zu haben. Der Autor verwendete hier eine Erweiterung der UML, um Tabellenstrukturen zu modellieren und zu visualisieren. Dafür war auch ein graphisches Tool in Java mitgeliefert worden, dass auf meinem System allerdings gelegentlich "Zicken" machte und nicht immer stabil lief. Ich habe dann ein anderes Tools benutzt, um UML-Diagramme und Diagramme in erweiterter UML zu erstellen, was dann auch problemlos ging um vom Tutor ohne weiteres akzeptiert wurde.
     
    In nächsten Teil des Kurses ging es um Verbunde:
    - Theta-Verbunde
    - Auto-Join
    - Innere Verbunde
    - Verschachtelung von Verbunden
    - Äußere Verbunde
    Eine Rolle spielte hier auch immer wieder, was mathematisch gesehen passiert, wenn kartesische Produkte großer Tabellen gebildet werden und wie der User oder das RDBMS diesen Aufwand minimiert.
     
    Es folgten Kapitel über Unterabfragen, wobei insbesondere die korrelierten Unterabfragen schon etwas anspruchsvoller waren. Schließlich ging es noch um Mengenoperationen und den Umgang mit Views. Damit war der klausurrelevante Teil des Moduls abgedeckt.
     
    Das Modul war aber noch lange nicht vorbei. Es kamen Kapitel zu:
    - Datenschutz, Authentisierung, Gewährung von Privilegien, Entzug von Rechten, Rollen
    - Stored Procedures, Mengenverarbeitung von Datensätzen, Trigger, Transaktionen
     
    Gerade bei den letzten Themen gibt es große Unterschiede zwischen den Implementierungen. Hier begann ich auch, parallel zu Firebird mit PostgreSQL zu experimentieren.
     
    Es folgte eine kurze Einführung in JDBC. Der letzte Teil war dann ein Überblick über alternative bzw. konkurrierende Konzepte zur relationalen Datenbank. Hier wurde ein theoretischer Überblick gegeben. Und es gab ein paar praktische Übungen mit der CouchDB. Das war jedoch eher ein Reinschnuppern und vertiefte in erster Linie das Verständnis für die besonderen Eigenschaften und auch Nachteile relationaler Datenbanken.
     
    In diesem Kurs gab es zwei Abschlusstests und zwei Online-Klausuren, eine für jeden Kursteil. Die Bonuspunkte, die man so erwerben konnte, zählten darum nur jeweils zur Hälfte.
     
    Für die Präsenzklausur hatte ich mich nicht optimal vorbereitet. Ich hatte vor allem den Umgang mit den Sprachelementen von SQL geübt. Bei den Aufgaben ging aber viel Zeit für Modellierung und Normalisierung drauf. Es mussten UML-Diagramme bzw. Diagramme in erweiterter UML gezeichnet werden, was in der Klausur natürlich von Hand geschieht. Da muss man sich beim Zeichnen schon ein bisschen Gedanken machten, wie am Ende alles gut aufs Blatt passt. Hier habe ich ein bisschen Zeit vergeudet. Zwar hatte ich das Zeichnen von Hand geübt, aber ich hätte hier noch mehr Energie reinstecken können. Dann wäre der Rest der Klausur entspannter gelaufen. Es folgte nämlich ein Teil, bei dem es konkreter um dem Umgang mit der Sprache SQL ging. Gegeben war eine Tabellenstruktur und nun sollten Abfragen formuliert werden, die bestimmte Informationen aus den Tabellen extrahierten. Viele Abfragen! Hier musste ich in kurzer Zeit eine Abfrage nach der anderen "hinschmieren", ohne Zeit zu haben, irgendetwas noch einmal zu überprüfen oder lange über die Antwort nachzudenken. Insofern war ich nach der Klausur in großer Sorge, viele Punkte verschenkt zu haben.
     
    Diese Sorge war zum Glück unnötig. Ich hatte zu Hause geübt, solche Aufgaben auf Tempo zu lösen und hatte anscheinend viele Treffer, obwohl ich in der knappen Zeit nur "aus der Hüfte schießen" konnte. Trotzdem würde ich mich rückblickend betrachtet anders vorbereiten und vor allem den Themen "Modellierung" und "Normalisierung" mehr Aufmerksamkeit widmen.
     
    Der Kurs ist eine gute Grundlage für "Grundlagen der Informatik 3". Dort geht es zwar hauptsächlich um GUI-Programmierung, aber Persistenz und Schnittstellen zu Datenbanken ist ein weiterer großer Themenbereich. Zwar erhält man in GdI3 eine knappe Einführung in MySQL, aber ich war schon sehr froh, mit einem umfangreicheren Vorwissen zu arbeiten.
     
    Insgesamt habe ich aus dem Modul etwas anderes mitgenommen, als ich mir zu Beginn erwartet hatte: Ich wollte lernen, mit MySQL umzugehen. Gelernt habe ich etwas nützlicheres, nämlich was eine relationale Datenbank ist. Auch mit meinem Tutor war ich am Ende sehr zufrieden, der mich eben nicht "mit dem Löffel gefüttert" hat, sondern mir durch seine eher knappen Hilfestellungen immer gerade genug Material gegeben hat, um selber eine Lösung zu finden.
  4. kurtchen
    Bislang war ich von allen Mathematik-Modulen bei Springer Campus begeistert. An Mathe 1 "Mathematisch-logische Grundlagen der Informatik" habe ich vor allem die sehr intensive Betreuung durch meinen Tutor geschätzt. Das war gerade bei meinem ersten Mathe-Modul sehr hilfreich war. An Mathe 2 "Lineare Algebra" und "Analysis" und Mathe 3 "Angewandte Mathematik" gefielen mir die sehr guten PDF-Tools von Herrn Lenze, mit denen man sich selbst nach Bedarf Übungsaufgaben generieren konnte. Die Messlatte für das letzte Mathematik-Modul "Statistik" lag also schon ziemlich hoch. Nachdem ich diesen Kurs am letzten Freitag abgeschlossen habe, kann ich sagen: Das beste kommt zum Schluss.
     
    Auf das Modul Statistik war ich... sagen wir mal gespannt. Ich gehöre ja zu denen, die Mathematik zu Schulzeiten mochten. Aber mit Statistik habe ich mich tatsächlich in der Schule nie beschäftigt. Nicht mal mit Wahrscheinlichkeitsrechnung. In der Mittelstufe legte unser Lehrer das Thema immer ans Ende des Schuljahres, weil er es für unwichtig hielt. Und Jahr für Jahr kamen wir mit dem Stoff nicht schnell genug voran, so dass es am Ende wegfiel. In der Oberstufe war in meinem Bundesland Analysis für alle Abiturienten Pflicht. Außerdem konnte wahlweise Statistik oder Lineare Algebra mit analytischer Geometrie behandelt werden. An meiner Schule wurde nur lineare Algebra angeboten. Das war natürlich eine gute Grundlage für das Modul Mathe 2. Aber was Statistik angeht, hatte ich tatsächlich nur ganz geringe Vorkenntnisse.
     
    Dabei spräche vieles dafür, gerade dieses Gebiet der Mathematik im Schulunterricht zu betonen. Analysis und lineare Algebra sind wichtig in technischen und naturwissenschaftlichen Studiengängen. Statistik braucht man in Biologie und Medizin, in den Wirtschaftswissenschaften und in allen Sozialwissenschaften. Und wenn Geisteswissenschaftler überhaupt Mathematik brauchen, so ist es wohl Statistik. Wer Nachrichten schaut oder Zeitung liest, ist laufend mit Statistiken konfrontiert. Statistische Grundkenntnisse müssten eigentlich zur Allgemeinbildung gehören. Last but not least ist die Statistik der Teil der Mathematik, der sich mit dem Ungewissen und Unpräzisen beschäftigt, während die meisten anderen Gebiete der Schulmathematik den Eindruck erwecken, Mathematik handele allein vom Exakten. Ich war also sehr neugierig darauf, diese Lücke meiner Bildungsbiographie zu schließen.
     
    Das Lehrbuch "Basiswissen Statistik" von Michael Müller und Werner Poguntke ist Grundlage für diesen Kurs. Es hat an die 180 Seiten, was für ein Modul bei Springer Campus sehr wenig ist. Wie schon bei den anderen mathematischen Kursen ist die Informationsdichte sehr hoch. Die 180 Seiten erfordern durchaus vergleichbar viel Arbeit wie 500 Seiten Software-Engineering. Das Buch ist aber keine reine Formel- und Beweisorgie. Anwendungsbeispiele zu allen Themen machen dieses Buch besonders lebendig und praxisnah. Man merkt, dass Statistik ein Fach ist, dass man in vielen Wissens- und Lebensbereichen brauchen kann. Während in anderen Mathematik-Modulen die Anwendungsbeispiele gelegentlich ein bisschen konstruiert wirkten, konnte man hier immer gleich den Nutzen des ganzen erkennen.
     
    Wie schon beim Lehrbuch "IT-Sicherheit" hat Herr Poguntke auch hier viele Verweise innerhalb des Buches eingebaut. Er verweist auf künftige Kapitel, in denen ein aktuell behandeltes Thema noch einmal relevant werden wird. Und er verweist auf vorangegangene Kapitel, in denen man Grundlagen für den aktuellen Stoff noch einmal nachlesen kann. Das hat mir sehr geholfen, die Bezüge zwischen den Kursthemen zu erkennen und den Stoff im Zusammenhang zu denken. Darum bin ich der Meinung, "Basiswissen Statistik" ist das beste unter den guten Mathematik-Lehrbüchern im Studiengang.
     
    Lehrbuch, Online-Tests und Übungsaufgaben sind in diesem Modul besonders gut aufeinander abgestimmt. Es gibt Übungsaufgaben zu allen Themen des Kurses. PDF-Tools, mit denen man sich selbst neue Aufgaben generieren kann, gibt es in diesem Kurs leider nicht. Ich habe aber festgestellt, dass das Übungsmaterial genügt, um sich gut auf die Prüfung vorzubereiten.
     
    Der Kurs zerfällt im wesentlichen in zwei Teile:
    - deskriptive Statistik
    - induktive Statistik
     
    Der Unterschied ist folgender: In der deskriptiven Statistik habe ich eine vollständige Sammlung von Daten oder Werten, die ich verdichten möchte, um eine allgemeine Aussage zu treffen. Aus dem Alltag geläufig ist zum Beispiel der Durchschnitt, der in der deskriptiven Statistik Mittelwert heißt. Er fasst zum Beispiel alle Noten eines Studium in einem Wert zusammen.

    In der induktiven Statistik habe ich eine Stichprobe, von der ich auf eine Gesamtmenge schließen möchte. Es gibt Millionen Wahlberechtigte Bürger, aber befragt habe ich nur ein paar Tausend. Nun möchte ich eine Prognose abgeben, wie die Wahl ausfallen wird und ich möchte abschätzen können, mit welcher Wahrscheinlichkeit meine Prognose zutrifft. Kennzeichnend für die induktive Statistik ist also, dass...
    ... mir ein großer Teil der relevanten Daten unbekannt ist.
    ... ich wahrscheinlichkeitstheoretische Überlegungen anstellen muss.
     
    Themen in der deskriptiven Statistik sind:
    - Lage- und Streuungsmaße
    - Graphische Darstellungen von Häufigkeiten
    - Konzentration und Disparität
    - Lorenzkurve
    - Konzentrationskoeffizient nach Gini
    - Messzahlen und Indizes
    - Geometrisches Mittel
    - Zusammenhangsanalyse
    - Kreuztabellen
    - Unabhängigkeit und Kontingenzmaße
    - der Korrelationskoeffizient nach Pearson und nach Spearman
    - Lineare Regression
    - Zeitreihenanalyse
     
    Die Themen sind sehr lebensnah präsentiert. Mathematisch ist relativ leicht nachzuvollziehen, was hier geschieht. Dieser Teil des Kurses ist vergleichsweise einfacher. Wer sich mit Mathematik schwer tut, sollte sich auf diesen Teil konzentrieren, weil man hiermit in der Klausur einen guten Punktesockel aufbauen kann, so dass man zumindest nicht durchfällt.
     
    Die induktive Statistik ist ein bisschen schwieriger und mathematisch raffinierter. Im Grunde wird die Sache in drei Schritten aufgebaut:
    1. Die Kombinatorik handelt davon, auf wieviele Arten man aus Mengen etwas auswählen kann. Ein aus dem Alltag bekanntes Beispiel ist die Ziehung von 6 Lottozahlen aus 49.
    2. Die Wahrscheinlichkeitsrechnung weist auf dieser Grundlage bestimmten Ereignissen und Kombinationen von Ereignissen eine Zahl zwischen 0 und 1 zu, die man Wahrscheinlichkeit nennt. Was genau eine Wahrscheinlichkeit ist, bleibt letztlich eine philosophische Frage. (Psychologisch interessant ist, dass man beim Umgang mit Wahrscheinlichkeiten leicht in gewisse "kognitive Tunnel" rennt. Das sind Irrwege des Denkens, die einem zeigen, dass man leider gerade im praktisch relevanten Gebiet der Wahrscheinlichkeitsrechnung nicht gut beraten ist, auf Intuition zu setzen. Die Autoren präsentieren in diesem Zusammenhang ein paar interessante Paradoxien, z.B. das Simpson Paradox. Dieses wird im Lehrbuch anhand von zwei Gruppen präsentiert, in denen der Anteil der nichtrauchenden Männer höher ist als der der nichtrauchenden Frauen. Vereint man diese beiden Gruppen zu einer, so ist der Anteil nichtrauchender Frauen höher. Das überrascht und verwirrt, auch wenn man alles wiederholt nachrechnet.)
    3. Auf der Grundlage von Kombinatorik und Wahrscheinlichkeitsrechnung beschäftigt man sich nun mit verschiedenen Wahrscheinlichkeitsverteilungen, von denen die bekannteste die Standard-Normalverteilung ist. Sie ist auch als Glockenkurve bekannt. Normalverteilungen sind deshalb so nützlich, weil dort, wo sich viele zufällige Phänomene überlagern, regelmäßig eine Normalverteilung zu beobachten ist.
     
    Themen in der induktiven Statistik sind:
    - Kombinatorik
    - Rechnen mit Wahrscheinlichkeiten
    - Bedingte Wahrscheinlichkeiten
    - Kontingenztabellen und Wahrscheinlichkeitsbäume
    - die Bayes-Formel
    - Gemeinsame Wahrscheinlichkeiten
    - Zufallsvariablen
    - Bernoulli-Verteilung
    - Binomial-Verteilung
    - Hypergeometrische Verteilung
    - Poisson-Verteilung
    - Stetige Verteilungen
    - Exponential-Verteilung
    - Normalverteilung
    - t-Verteilung
    - zentraler Grenzwertsatz
    - Approximation mit der Normalverteilung
    - Schätzen und Testen
    - Schätzung unbekannter Parameter
    - Testverfahren
     
    Es folgt ein knappes Kapitel über Statistik mit Rechnern, das aber nicht klausurrelevant ist. In diesem Kurs lernt man, Statistik sozusagen mit Papier und Bleistift zu treiben. Dabei merkt man durchaus, dass viel mechanische Rechenarbeit anfällt. Aus diesem Grund darf in der Klausur ein nicht-programmierbarer Taschenrechner verwendet werden. Wer einmal erlebt hat, wie viel Mühe es macht, eine größere Menge von Messwerten zu verdichten, der kommt schnell auf die Idee, das man das mit Software automatisieren müsste. Das ist allerdings nicht mehr Thema dieses Moduls.
     
    Die Betreuung durch meinen Tutor war auch in diesem Mathematik-Modul hervorragend. Die Rückmeldungen kamen schnell. Spannend wurde es gerade dann, wenn ich nicht alles richtig hatte. Hier gab es dann Anregungen, wie man doch noch selbst auf die richtige Lösung kommen konnte. Einmal bin ich in einen der besagten kognitiven Tunnel getappt, so dass ich alles richtig gerechnet und am Ende doch die falschen Schlüsse gezogen habe. Das war ein recht witziger Austausch, bis bei mir endlich der Groschen fiel. (Kurz gesagt, bin ich auf eine Variante des bekannten "Ziegenproblems" reingefallen. Wer das nicht kennt, einfach mal googlen.)
     
    Der Online-Test und die Online-Klausur waren beide gut machbar, wenn man seine "Hausaufgaben" erledigt hatte. Hier konnte man sich noch mal ein kleines Bonuspunktepolster für die Klausur erarbeiten. Geschenkt bekommt man es aber nicht. Die Online-Klausur gibt einen realistischen Vorgeschmack auf das Niveau der Präsenzklausur. Schwierig für mich war: Mein gewohnter Taschenrechner ist programmierbar und funktioniert mit RPN-Logik. Für die Klausur musste ich mir den Taschenrechner meiner Tochter ausleihen. Es hat mich tatsächlich ausgebremst, ständig suchen zu müssen, wo welche Taste ist. Mal schauen, wie verheerend sich das ausgewirkt hat. Unterm Strich ist das aber eine faire Klausur, die die Themen des Kurses breit abdeckt. Man hat ein bisschen Zeitdruck, kann aber alles schaffen, wenn man ordentlich vorbereitet ist.
     
    Damit wäre nun der Studienbereich Mathematik abgeschlossen. Was mir jetzt noch gefallen würde, wäre ein aufbauendes Modul zur Statistik mit Rechnern. Ich denke zum Beispiel an Datenanalyse mit R oder Statistik-Programmierung mit Python. (Da gibt es ein tolles Buch von Allen B. Downey.) Auch ein Modul zur Datenvisualisierung fände ich für einen Studiengang Web- und Medieninformatik ziemlich cool. Gibt es leider bislang nicht, aber ein paar Wünsche dürfen ja noch offen bleiben.
  5. kurtchen
    Nach dem für mich nicht so befriedigenden Modul "Webprogrammierung" wollte ich zügig zum Modul "Webanwendungen 1" übergehen. Da ich schon einmal einen Blick ins Lehrbuch geworfen hatte, erwartete ich, hier die gründliche Einführung in HTML und CSS zu erhalten, die ich im Vorgängermodul vermisst hatte. Außerdem behandelt "Web-Anwendungen 1" HTML5 und nicht XHTML wie noch in "Webprogrammierung". Mein oberflächlicher Eindruck war, dass ich dieses Modul viel lieber als erstes belegt hätte. Und so kam es auch.
     
    Weil ich von meiner Tutorin wusste, dass die Rückmeldungen zu den Aufgaben in den nächsten Wochen nicht in gewohnter Geschwindigkeit kommen würden, hatte ich für die Bearbeitung dieses Moduls etwas mehr Zeit eingeplant. Genauer gesagt bearbeitete ich es parallel zu GdI4 "Algorithmen und Datenstrukturen". Auf diese Weise kam ich im Studium insgesamt zügig voran, obwohl das Tempo im Modul niedriger war. Normalerweise bearbeite ich die Themen lieber schön nacheinander, aber in diesem Fall erwies es sich als gute Strategie. Ich war auch froh, dass mir meine Tutorin realistisch mitgeteilt hatte, dass es etwas länger dauern könnte. So konnte ich mich auf die Situation einstellen und entsprechend planen. (Von vielen Modulen bei der W3L bin ich auch etwas verwöhnt. Aktuell bearbeite ich zum Beispiel "Softwaretechnik 1". Da bekomme ich meine Einsendeaufgaben oft einen Tag nach Einsendung korrigiert zurück. Das ist schon irre schnell, vor allem wenn man sich klarmacht, dass die Tutoren ihre Tätigkeit nur zusätzlich ausüben.)
     
    Das Lehrbuch zu "Web-Anwendungen 1" hat an die 480 Seiten und behandelt in erster Linie HTML5, CSS und ein bisschen Javascript. Deutlich weniger Themen als im Vorgängermodul "Webprogrammierung". So bleibt mehr Zeit, in die Tiefe zu gehen. Ebenfalls angenehm: Am Fallbeispiel eines (zugegebenermaßen sehr einfachen) Web-Anzeigenmarktes werden die verschiedenen Konzepte aus dem Kurs in einer Anwendungssituation gezeigt.Im Fallbeispiel geht es nicht allein um das zu erstellende Produkt Webanzeigenmarkt sondern auch um die fiktive Firma, die ihn im Auftrag eines Kunden entwickelt. Und um die verschiedenen Berufsrollen in diesem Entwicklungsprozess und wie sie miteinander kooperieren. Das trägt sehr zum Verständnis bei. Solche Fallbeispiele kenne ich auch aus anderen Kursen der W3L, aber gerade in diesem Modul fand ich es sehr gelungen umgesetzt.
     
    In diesem Modul geht es um statische Webseiten. Erst in "Web-Anwendungen 2" geht es wieder darum, HTML-Code dynamisch zu erzeugen. Das Buch beginnt mit dem für die W3L üblichen Schnelleinstieg. Hier geht es um den Aufbau eines HTML5-Dokumentes, um das Anlegen von Links, das Einfügen von Bildern, die Verwendung von Formularen und Tabellen und um erste Schritte mit CSS. Alle diese Themen werden später im Buch in eigenen Kapiteln vertieft.
     
    Es gibt ein kurzes Kapitel zum HTTP-Protokoll, aber das wird detaillierter im Modul "Computernetze" behandelt und soll hier nur Hintergrundinformationen für die eigentlichen Kursinhalte liefern.
     
    Nun kommen 60 Seiten Einführung in HTML5. Hier merkte ich sowohl beim Durcharbeiten des Lehrbuches als auch beim Bearbeiten der Einsendeaufgaben: Es bleibt viel mehr hängen. Die Aufgaben waren auch weniger technisch und boten Möglichkeiten, ein bisschen kreativ zu sein. Themen hier sind z.B.:
    - Strukturelemente
    - Zeichensätze
    - Block- und Inline-Elemente
    - Hyperlinks
    - Einführung in Webserver
     
    Besonders interessant fand ich die Ausführungen zur Modellierung von Webseiten mit UML und die Hinweise zur systematischen Programmierung.
     
    Weiter ging es mit einem Kapitel zum Einbinden von Multimedia-Elementen in Webseiten, also Bilder, Audio und Video. Hier geht es auch um Grafik-, Audio- und Videoformate und um Link-sensitive Bilder.
     
    Im nächsten Kapitel ging es um CSS:
    - Trennung von Struktur und Präsentation
    - Stilregeln
    - Textgestaltung und Schrift
    - Farbe und Hintergrund
    - Textformatierung
    - und das Boxmodell
     
    Speziell beim Boxmodell empfehle ich, aufmerksam zu arbeiten, denn das ist etwas, dass sich in einer Klausur in knapper Form abprüfen lässt, ohne dass man viel Code schreiben muss.
     
    Zwischen den Kapiteln kommt der Lehrtext immer wieder auf das Fallbeispiel Webanzeigenmarkt zurück, dass mit den neuen Techniken erweitert und verfeinert wird. So erlebt man den neuen Stoff im Zusammenspiel mit bekannten Inhalten. Das finde ich wirklich didaktisch gut gemacht.
     
    Nun folgen zwei Kapitel zu Tabellen und Formularen. Insbesondere Formulare sind ja für die Interaktion mit den Nutzern einer Seite sehr wichtig. Hier gibt es inhaltliche Überschneidungen mit dem Modul "Web-Design und Web-Ergonomie", wobei es in "Web-Design" um Aufbau und Gestaltung von Formularen geht und in diesem Modul um die technische Umsetzung. Die Module wirken an dieser Stelle gut aufeinander abgestimmt. Auch Tabellen und Formulare werden ins Fallbeispiel Webanzeigenmarkt integriert.
     
    Im nächsten Kapitel geht es um Javascript. Mit "Webprogrammierung" im Hintergrund kam ich diesmal ganz gut zurecht, wenngleich der Stoff auch hier recht komprimiert vermittelt wurde. Ca. 25 Seiten mussten genügen.
     
    Das nächste Kapitel war das einzige im Buch, dass ich nicht so gelungen fand. Hier ging es um neue Features in HTML5, z.B. zur Validierung von Formularen, für Drag&Drop, um das Canvas-Element, um die lokale Speicherung von Web-Ressourcen und um sematische Auszeichnung. Hier war man bemüht, aktuelle Inhalte zu vermitteln. Beim Ausprobieren der Fallbeispiele erlebte ich, dass die Browser neue Elemente zum Teil sehr unterschiedlich darstellen, so dass man sich gut überlegen muss, was man davon in der Praxis verwenden möchte. Oft schienen Codebeispiele erst nicht zu funktionieren, bis ich sie in einem anderen Browser testete. Am besten liefen die Sachen noch im Firefox. (Ich verwende meist Chrome.) Der Grund, weshalb ich von diesem Kapitel nicht so begeistert war: Es fehlte der rote Faden, der sich sonst durch das ganze Lehrbuch zog. Eher war es eine bunte Sammlung von Themen, die in einer recht beliebig scheinenden Reihenfolge präsentiert wurden und zwischen denen es wenig inhaltliche Zusammenhänge gab. Das erinnerte ein wenig an den eher technischen Charakter des Vorgängermoduls "Webprogrammierung". Entsprechend war der Stoff dieses Kapitels auch nicht mit dem Fallbeispiel verknüpft.
     
    Das folgende Kapitel zu CSS war wiederum sehr gelungen. Hier ging es um:
    - Selektoren
    - Pseudoelemente und Pseudoklassen
    - um medienspezifische Präsentation, also um Seiten die z.B. auf einem Smartphone anders aussehen als auf einem Bildschirm
    - um den Elementfluss
     
    Wenn man hier gut aufpasste, konnte das schon als erster Einstieg in responsive Web-Design dienen, auch wenn das nicht explizit Thema des Moduls ist. Meine Tutorin hat mir hier ein sehr gutes weiterführendes Buch empfohlen und ich habe auch einige Aufgaben aus dem Modul nach diesem Kapitel neu bearbeitet, um z.B. Formulare so umzugestalten, dass sie auch auf einem Handydisplay gut zu bedienen sind. An diesem Punkt hatte ich das Gefühl, dass nun alle Kursinhalte schön ineinander greifen und ich die Dinge im Zusammenhang sehe. Ein befriedigender Abschluss.
     
    Das letzte Kapitel handelte von barrierefreiem Webdesign. Es ist aber zu kurz, um danach wirklich Ahnung vom Thema zu haben. Trotzdem finde ich es gut, dass es im Modul enthalten ist. Behörden müssen sich mit dem Thema auseinandersetzen. Firmen machen es seltener. Ich finde das Thema wichtig. Das Internet ist längst im Alltag unverzichtbar, aber man vergisst gerne, dass es viele Menschen gibt, die aufgrund von Einschränkungen Webseiten nicht so nutzen und betrachten können wie die meisten von uns. Aber auch diese Menschen brauchen die Informationen und Dienste, die das Web bereitstellt. In "Web-Design und Web-Ergonomie" taucht dieses Thema noch einmal auf. Leider auch dort in recht kompakter Form. Klar wird allerdings: Barrierefreiheit per se gibt es nicht. Barrierefrei ist eine Seite immer im Hinblick auf die Fähigkeiten und Möglichkeiten ihres Nutzers. Ein blinder Mensch hat zum Beispiel andere Bedürfnisse als jemand mit motorischen Einschränkungen.
     
    Die Einsendeaufgaben haben mir in diesem Modul viel Spaß gemacht und bauten zum Teil auch aufeinander auf. Die Rückmeldung kam zum Teil recht langsam, dann oft schubweise für mehrere Aufgaben, aber das war mir ja so angekündigt worden und ich hatte entsprechend geplant. Auch die Korrektur der Präsenzklausur ließ ein Weilchen länger auf sich warten. Dies mag aber auch den Sommerferien geschuldet gewesen sein.
     
    Die Präsenzklausur fand ich leider nicht so einfach, obwohl viele meiner Kommilitonen der Ansicht waren, im Falle von "Web-Anwendungen 1" sei sie ja besonders leicht. Viele meiner Mitstudierenden arbeiten als Web-Entwickler und haben täglich mit den Inhalten dieses Moduls zu tun. Solche Routine ist natürlich mit Pauken nicht zu ersetzen. Mein Problem war denn auch in erster Linie die Zeit, die ich für die Aufgaben brauchte. Hier ist es mir leider nicht gelungen, alles zu bearbeiten. Ein weiteres Problem war das Arbeiten mit Stift und Papier, ohne zwischendurch einmal sehen zu können, wie das nun im Browser dargestellt wurde. Ich hatte zwar auch für diese Klausur einige Aufgaben noch einmal von Hand bearbeitet, aber dieser Aspekt blieb für mich schwierig.
     
    So befürchtete ich denn, bei diesem Modul schlechter abzuschneiden als bei "Webprogrammierung". Das hätte mich sehr geärgert, weil ich das Gefühl hatte, diesmal den Stoff viel besser verstanden zu haben. Zum Glück hatte ich beim Abschlusstest und der Online-Klausur ziemlich gut abgeschnitten, so dass mir die Bonuspunkte halfen, ein paar Schwächen in der Präsenzklausur auszugleichen. Insgesamt endete es nicht schlechter als in "Webprogrammierung", so dass ich nicht nur mit dem Modul sondern auch mit dem Ergebnis zufrieden war.
     
    Anderen Studierenden im Studiengang Web- und Medieninformatik würde ich empfehlen, sowohl in "Webprogrammierung" als auch in "Web-Anwendungen 1" reinzuschnuppern. Und sich dann zu überlegen, ob sie "Web-Anwendungen 1" nicht entgegen der Empfehlung der W3L zuerst belegen möchten.
  6. kurtchen
    Das Modul "Web-Anwendungen 2" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik" und zählt zum gleichnamigen Studienbereich. Springer Campus empfiehlt, dieses Modul im 4. Semester zu belegen, also im gleichen Semester wie "XML" und "Multimedia". Studierende im Studiengang "Wirtschaftsinformatik" müssen "Web-Anwendungen 2" nicht belegen, können es aber als Vertiefungsfach wählen. Allerdings sollten sie dabei die inhaltlichen Voraussetzungen beachten. Grundlagen der Informatik 1 und 2 sowie Web-Programmierung müssen ja auch die Wirtschaftsinformatiker als Pflichtmodule belegen. Aber auch "Web-Anwendungen 1" wird hier empfohlen. Es liefert eine solidere Grundlage in HMTL und CSS als das Modul Web-Programmierung. Insofern finde ich es hier sehr sinnvoll, der Empfehlung zu folgen. "Web-Anwendungen 2" ist auch Pflichtmodul für das Weiterbildungszertifikat "Web-Entwickler". Es ist darüber hinaus eine inhaltliche Voraussetzung für das Vertiefungsfach "Aktuelle Webtechniken", bei dem es um Java Server Faces (JSF) geht.
     
    Worum geht es im Kurs?
     
    Während es in "Web-Anwendungen 1" um statisches HTML geht, behandelt "Web-Anwendungen 2" die dynamische Erzeugung von HTML-Dokumenten mit einer serverseitigen Sprache. Bekanntestes Beispiel hierfür ist sicher PHP. In diesem Modul wird aber die serverseitige Programmierung mit Java Server Pages behandelt.
    Was ist nun eine Java Server Page? Eine JSP ist eine Datei, in der Regel mit der Endung ".jsp", die HTML-Schablonentext enthält, in den Java Code-Fragmente eingestreut sind. Diese Datei wird in eine Java-Klasse übersetzt, die wiederum in Bytecode übersetzt wird. Ein Web-Server, z.B. Apache Tomcat, erzeugt damit zu einem HTTP-Request eine sinnvolle HTTP-Response. Die Response ist der HTML-Schablonentext, in den Elemente eingefügt wurden, die dynamisch berechnet wurden und zur Anfrage passen.
     
    Aus Gesprächen mit Kommilitonen weiß ich, dass es für viele ein Ärgernis ist, dass in diesem Modul nicht PHP als Lehrsprache verwendet wird. Zum einen arbeiten viele von ihnen als Web-Entwickler und haben praktische Erfahrung mit PHP. Zum anderen argumentieren sie mit dem recht kleinen Marktanteil von JSP. Das ist natürlich ein Argument. Und doch meine ich, dass es durchaus gute Gründe gibt, die serverseitige Programmierung am Beispiel von JSP zu lehren.
     
    Springer Campus setzt ja in den einführenden Programmierkursen auf Java als Lehrsprache. Die Stärke von JSP ist, dass man Java-Klassen verwenden kann. Man kann die gesamte Fachlogik einer Web-Anwendung in Java programmieren und dabei auf alles zurückgreifen, was man bisher über Programmierung gelernt hat. Das hat didaktisch dann doch einige Vorzüge. JSP kann man Klebstoff zwischen Java und HTMl sehen.
     
    Praktisch wird man eine IDE wie Eclipse oder Netbeans mit JavaEE verwenden. Die nimmt einem eine Menge Arbeit ab, zum Beispiel das Anlegen einer sinnvollen Ordnerstruktur für den Server. Die IDE packt die erstellten Anwendungen auch automatisch in sogenannte war-Archive. Der Tutor erwartet Lösungen zu den Einsendeaufgaben in dieser Form.
     
    Das Lehrbuch
     
    "Java Server Pages" von Dieter Wißmann ist wahrscheinlich das beste deutschsprachige Lehrbuch zu diesem Thema. Es gibt nämlich nicht viel anderes dazu. Und das wenige, was es gibt, ist oft schon ganz schön alt. Wer mit diesem Lehrbuch nicht zurecht kommt und Sekundärliteratur sucht, wird es also nicht ganz leicht haben. Zum Glück schreibt der Autor sehr verständlich. Theorie und Anwendungsbeispiele wechseln sich ab und die Themen bauen gut aufeinander auf. Das Buch hat ca. 450 Seiten, was für Kurse bei Springer Campus üblich ist. Unter den Abbildungen sind besonders die UML-Diagramme relevant, die verwendet werden, um die Zusammenhänge zwischen verschiedenen Klassen zu klären, die man beim Arbeiten mit JSP kennen sollte.
     
    In vielen Modulen habe ich die Themen recht ausführlich beschrieben. In diesem Modul werde ich darauf verzichten, weil JSP ziemlich komplex ist und so ist auch die Vielfalt an Themen sehr groß. Ein einfacher, linearer Aufbau des Stoffes ist hier nicht möglich und sinnvoll, weil JSP eine Brücke zwischen vielen Technologien schlägt. Man arbeitet mit HTML und CSS, muss sich damit beschäftigen, was bei einem HTTP-Request zwischen Client und Server passiert, hat mit Apache Tomcat zu tun, aber auch mit der JVM und natürlich mit der Programmiersprache Java, die womöglich per JDBC auch noch an eine relationale Datenbank angebunden ist. Insofern muss der Kurstext immer wieder Theorie einführen oder wiederholen, um so Themen noch einmal ins Bewusstsein zu rufen, die dann per JSP verknüpft werden. Keine leichte Aufgabe für einen Autor, die meiner Meinung nach hier hervorragend gelöst wurde.
     
    Einen großen Teil des Buches - an die 100 Seiten - nimmt ein komplexes Fallbeispiel ein: Der Aufbau eines Web-Anzeigenmarktes mit JSP, wobei ein Überblick über den gesamten Entwicklungsprozess gegeben wird. Der komplette Code des Fallbeispiels liegt dem Kurs bei und kann praktisch ausprobiert werden.
    Besonders loben möchte ich hier, dass ein Kapitel zur Fehlersuche in JSPs enthalten ist. Die ist nämlich manchmal nicht ganz einfach, was mit dem zweistufigen Übersetzungsprozess zu hat: Von JSP zu Java und von Java zu Bytecode.
     
    Treten Fehler beim ersten Schritt auf, so kann man das noch gut nachvollziehen. Ab dem zweiten Schritt oder zur Laufzeit wird es schwieriger, denn die Fehlermeldung bezieht sich auf die aus der JSP generierte Java-Klasse, die man ja nicht selbst geschrieben und gesehen hat. Der Autor stellt hier einige Strategien zur Fehlersuche vor. Eine ist die Umleitung auf eine Fehlerseite, die im Browser detaillierte Meldungen zeigt. Das ist natürlich nichts für die ausgelieferte Web-Anwendung sondern etwas, was dem Entwickler nützt.
     
    Wegen des zweistufigen Übersetzungsprozesses ist es auch immer wieder nützlich, sich damit zu beschäftigen, wie die Umsetzung in eine Java-Klasse läuft und was dabei im Hintergrund passiert.
     
    Zur Komplexität des Themas trägt bei, dass sich bei JSP verschiedene Syntaxen entwickelt haben, oft mit dem Ziel, das Schreiben von JSPs für Web-Frontend-Entwickler ohne Java-Kenntnisse einfacher zu machen. Das ist historisch gewachsen aber für den Einsteiger unübersichtlich und verwirrend. Der Autor löst dieses Problem, indem er die verschiedenen Syntaxen nacheinander einführt und Hinweise gibt, welche wofür geeignet ist und welche man besser nicht in einer JSP mischen sollte.
     
    Einsendeaufgaben
     
    Die Einsendeaufgaben in diesem Kurs hatten eine gewisse "Künstlichkeit", weil sie erkennbar darauf hin konstruiert waren, dass der Lernende bestimmte Sprachfeatures kennen lernt, ausprobiert und auch typische Probleme kennen lernt, die damit verbunden sind. In anderen Programmierkursen von Springer Campus wirkten die Aufgaben oft ein bisschen näher an realen Anwendungsszenarien. Für den behandelten Stoff hat der Kursautor meiner Meinung nach genau das richtige getroffen. Der Kurs ist schon etwas anspruchsvoller und eine gewisse didaktische Zuspitzung scheint mir deswegen notwendig.
     
    Bei den Einsendeaufgaben geht es um das Abfangen von Fehlern, um Weiterleitungen von Seite zu Seite, um die Übergabe und Validierung von Parametern, um das Speichern und Weitergeben von Informationen vermittels Java-Beans, um die Verwaltung von Sitzungen, den Umgang mit Cookies, aber auch um die Konfiguration des Apache Tomcat Servers vermittels einer XML-Datei.
     
    Für die Aufgaben habe ich regelmäßig länger gebraucht als im Kurs angegeben. Mein Tutor empfahl, den compilierten Code nicht nur zu testen, sondern die erzeugten HTML-Seiten auch validieren zu lassen. Er machte relativ enge Vorgaben hinsichtlich der einzureichenden Lösungen, z.B. verbindliche Dateinamen und Ordnerstrukturen. Dafür waren seine Rückmeldungen besonders detailliert und treffsicher. Mein Tutor benannte nicht nur klar, was nicht gut war und wie man es hätte besser machen können. Er sagte ebenfalls, was gut war und so bleiben sollte.
     
    Auch kommunizierte er im Vorfeld recht genau, wann und in welchem Umfang er Einsendeaufgaben korrigiert, so dass ich mir die Arbeit am Kurs gut einteilen konnte und rechtzeitig zum Prüfungstermin fertig war.
     
    Prüfungen
     
    Die Online-Klausur war wie üblich eine gute Vorbereitung auf die Präsenzklausur, allerdings nicht, weil sie ähnlich war. In der Präsenzklausur hat man keine IDE zur Verfügung, bei der Online-Klausur schon. So war denn die Online-Klausur eine Gelegenheit, noch einmal mit Programmieraufgaben praktische Erfahrungen mit JSP zu sammeln, diesmal natürlich mit tickender Uhr im Hintergrund.
     
    Schreiben von Code spielte in der Präsenzklausur dann eine geringere Rolle. Das hängt wahrscheinlich damit zusammen, dass man so nur ganz kleine Teile des Kurses hätte abprüfen können. Es war also ein Mix aus Wissensfragen, Fehlersuche, Vorhersage von Ausgaben zu gegebenen Programmen, Konfiguration eines Servers per web.xml und einigen anderen Themen. Überrascht hatte mich, dass es viele kleinere Aufgaben waren.
     
    Der Vorzug ist natürlich: Wenn man irgendwo eine kleine Lücke im Wissen hat, ruiniert das nicht gleich die ganze Note. Ich glaube, dass die Klausur recht realistisch abbildet, wo man mit seinem Verständnis des Stoffes steht. Insofern bin ich gespannt auf mein Ergebnis.
     
    Fazit
     
    "Web-Anwendungen 2" war einer der schwierigeren Kurse im Studiengang. Wegen der vielen praktischen Programmieraufgaben hat er mir aber auch besonders viel Spaß gemacht. JSP ist eine vergleichsweise komplexe Angelegenheit. Eine gewisse Einarbeitungszeit muss man einplanen. Auch wird man gerade am Anfang Schwierigkeiten mit der doch recht komplexen und vielfältigen Syntax haben und dabei auch mit Frustration und Rückschlägen umgehen müssen. Aus meiner Sicht lohnt sich diese Mühe. Mehr als andere Kurse verbindet "Web-Anwendungen 2" den Stoff ganz vieler Module des Studienganges zu einem zusammenhängenden Wissensgebiet. Ich glaube, das bringt etwas, auch wenn man später serverseitig lieber mit PHP, Python, Ruby oder etwas ganz anderem programmiert.
     
    Für die Bearbeitung dieses Moduls würde ich etwas mehr Zeit einplanen und vielleicht zuschauen, dass man andere dicke Brocken vorher abgeräumt hat. Ich würde dieses Modul z.B. nicht zeitgleich mit "Software-Technik 1" oder mit "Nicht-sequentielle Programmierung" belegen wollen.
     
    Weil mir das Modul viel Spaß gemacht hat, würde ich gerne auch noch den weiterführenden Kurs "Aktuelle Webtechniken" belegen, der eine Einführung in Java Server Faces gibt. Dafür fehlen mir aber noch ein paar inhaltliche Voraussetzungen, so dass ich mich noch ein wenig gedulden muss.
  7. kurtchen
    Das Modul "Web-Design und Web-Ergonomie" ist für das 3. Semester vorgesehen. Die W3L hält es für wünschenswert, zuvor "Web-Programmierung" belegt zu haben. Formal nötig ist das aber nicht. Ich meine, man könnte dieses Modul auch gute als erstes im Fachbereich Web-Informatik belegen. Viele Kommilitonen halten es für vergleichsweise leicht zu bewältigen. Allerdings haben auch sehr viele Studierende beruflich mit Web-Technologien zu tun. Das relativiert diese Einschätzung natürlich.
     
    Basis ist ein Lehrbuch von Heide Balzert und Uwe Klug. Herr Klug hat auch die Lehrbücher zum Modul "SQL und realationale Datenbanken verfasst". Die fand ich didaktisch sehr gut aufgebaut und auch gut verständlich geschrieben, so dass ich mit der Erwartung in den Kurs ging, hier wieder gut durch den Stoff geführt zu werden. 
    Auch dieses Kursmodul entwickelt parallel zum Stoff ein Fallbeispiel: Die Gestaltung eines Web-Auftritts für einen Ökostromanbieter. Diesen Auftrag übernimmt die fiktive Firma Websoft, die mehrere Mitarbeiter hat, die sich in unterschiedlichen Berufsrollen an der Planung der Webseite beteiligen. Diesen Ansatz kannte ich schon aus anderen Modulen der W3L. Man bekommt so nicht nur  das Fachwissen vermittelt. Man entwickelt auch eine erste Vorstellung davon, wie es in einer Anwendungssituation genutzt wird. So wird deutlich, dass die Entwicklung einer Webseite in der Regel ein kollaborativer Prozess ist, in dem verschiedene Akteure in unterschiedlichen Rollen intensiv kommunizieren müssen, um ihr gemeinsames Ziel zu erreichen.
     
    Ich hatte mir vorgestellt, in diesem Modul in erster Linie etwas über Gestaltungsregeln zu erfahren. Was für Farben zusammenpassen, ein bisschen Typographie, wie man eine Seite aufteilt, so dass die Proportionen gefällig wirken. So etwas ist durchaus auch Thema dieses Moduls, aber eigentlich geht es um etwas anderes. Eine der hier vermittelten Thesen ist, dass man an der reinen Anmutung einer Seite nicht beurteilen kann, ob das Design etwas taugt. Man muss Webdesign im Hinblick auf die Ziele bewerten, die ein Kunde mit seinem Web-Auftritt verfolgt. An wen will er sich richten und wozu?
     
    Dementsprechend geht es in den ersten Kapiteln vor allem darum, sich Gedanken über die Nutzer einer Website oder eine Web-Anwendung zu machen. Was für Aufgaben haben die zu bewältigen und was für Vorkenntnisse und Erfahrungen bringen sie mit. Eine der ersten Aufgaben beinhaltet daher die Entwicklung einer "Persona", also eines fiktiven Charakters der einen typischen Nutzer oder eine Nutzergruppe der geplanten Web-Anwendung repräsentieren soll. Dieser Charakter soll so konkret beschrieben werden, dass ein Team, das eine Web-Anwendung plant, am Ende eine gemeinsame Vorstellung von diesem Menschen hat. Man entwickelt auch Kontextszenarien: Beschreibungen von Situationen, in denen die Persona eine Web-Anwendung nutzt, um ein bestimmtes Problem zu lösen. Und schließlich entwickelt man Nutzungsszenarien, kleinschrittigere Beschreibungen von Nutzungssituationen, bei denen einzelne Handlungsschritte des Nutzers beschrieben werden und wie das geplante System darauf reagiert.
     
    Auch wenn der Kurs "Web-Design und Web-Ergonomie" heißt, lassen sich meiner Meinung nach viele Konzepte z.B. auf Desktop-Anwendungen übertragen. Das Modul ist auch ein Kurs über Software-Ergonomie.
     
    Eine große Rolle spielen verschiedene Methoden, Entwürfe zu evaluieren oder Inhalte in einer Weise zu strukturieren und kategorisieren, wie sie für die Nutzer einer Web-Anwendung intuitiv und einleuchtend ist. Dabei kommt oft etwas anderes heraus als Fachleute, die Web-Anwendungen erstellen, für plausibel halten. 
    In diesem Kurs geht es also um mehr als den schönen Schein. Er hat mehr mit sozialen Prozessen zu tun, als ich im Vorfeld für möglich gehalten hätte. Auch mit den sozialen Prozessen in den Teams, die Web-Anwendungen entwickeln.
     
    Eine interessante Nebenwirkung des Moduls: Bei privater Internetnutzung merkte ich immer häufiger, dass mich bestimmte Aspekte des Designs einer Seite störten. Da war zuvor nur eine leichte Irritation. Oder vielleicht auch nur eine gewisse Unlust, eine Seite weiter zu nutzen. Oder auch ein spontaner Impuls, eine begonnene Aktion abzubrechen oder einen Tab zu schließen. Ich fing an, solche Reaktionen an mir wahrzunehmen. Oft habe ich mir dann gedacht: "Das hat mich schon länger gestört." Viel seltener aber immerhin immer häufiger dachte ich: "So wäre es wahrscheinlich besser gewesen." Natürlich kann man nicht erwarten, nach einem Modul von 5 ECTS ein Experte in UI-Design zu sein. Aber es trägt auf jeden Fall dazu bei, ein Problembewusstsein zu entwickeln und mit etwas anderen Augen auf Web- und Benutzeroberflächen zu schauen.
     
    Natürlich geht es auch um Layout, Navigation, um Farben und Typographie, um multimediale Elemente, um Formulargestaltung und ganz zum Schluss auch ein bisschen um barrierefreies Web-Design. Aber es gab auch Themen, die für mich überraschend waren, zum Beispiel über die Aufbereitung von Texten für das Lesen im Web. Und hier ist eben nicht die Schriftgestaltung oder das Layout gemeint. Es geht tatsächlich darum, dass es vorteilhaft ist, Texte für's Web anders zu formulieren und zu gliedern als für den Druck.
     
    Dies ist ein Modul über das WAS und nicht über das WIE einer Web-Anwendung. Dementsprechend habe ich für die Einsendeaufgaben vor allem Texte geschrieben und Entwürfe mit Papier und Bleistift gezeichnet. Die technische Umsetzung der Entwürfe z.B. mit HTML, CSS, client- und serverseitigen Sprachen ist nicht Thema dieses Kurses. Davon handeln andere Module.
     
    Insgesamt kam ich mit dem Modul gut zurecht und war auch mit meiner Note zufrieden. Die Rückmeldungen durch meinen Tutor kamen sehr zügig, was es mir erleichterte, schnell im Kurs voran zu kommen.
     
    "Web-Design und Web-Ergonomie" ist ein Modul für Web-Informatiker, nicht für Kommunikations-Designer. Es bleibt das einzige Modul im Studiengang, dass UI-Design so in den Mittelpunkt stellt. Gemessen an diesem Platz im Gesamtkonzept dieses Studiengangs finde ich es sehr gelungen. Leider befürchte ich, dass UI-Desing nicht meine Stärke werden wird. Ich finde es interessanter, was für eine Verarbeitungslogik im Hintergrund arbeitet. Insofern habe ich mich am Ende auch gefreut, mich wieder anderen Themen zuwenden zu können.
     
    Auf jeden Fall hat dieser Kurs meine Wertschätzung für das gesteigert, was ein guter Software-Ergonom leistet. Und es macht Spaß, wenn man im Alltag etwas wiedererkennt. Wenn man sich erinnert: "Hey, das kam doch im Modul Web-Design vor."
     
    Dieser Effekt des Moduls scheint nachhaltig zu sein.
  8. kurtchen
    Welche Rolle spielt das Modul im Studium?
     
    Das Modul "Web-Engineering" ist eines der möglichen Vertiefungsmodule im Studiengang "Web- und Medieninformatik". Es ist außerdem ein Pflichtmodul für die Weiterbildungszertifikate "Web-Frontend-Programmierer" und "Web-Entwickler". Laut Studienplan sollte es ab dem 5. Semester belegt werden. Das Modul "Web-Programmierung" gilt als inhaltliche Voraussetzung, weil man Grundkenntnisse in HTML, Javascript und am besten auch in XML benötigt. Überraschen könnte, dass auch Grundlagen der Informatik 1 und 2 als Voraussetzung genannt werden. Das liegt daran, dass die Programmierung mit serverseitigen Frameworks wie dem GWT oder dem ZK Framework eine große Rolle spielt, und dafür braucht man solide Java-Kenntnisse. Doch davon später mehr. Empfohlen wird auch, das Modul "Skripsprachen" vorher zu belegen. Dieses Modul bietet eine umfangreichere Einführung in Javascript als "Web-Programmierung". Leider wird es nicht mehr angeboten und laut Studienbüro ist auch kein Ersatz in Sicht. Ich finde das recht ärgerlich, denn beim Durcharbeiten von "Web-Engineering" habe ich oft gemerkt, dass vertiefte JavaScript-Kenntnisse nützlich gewesen wären.
     
    Die Streichung von "Skriptsprachen" wurde mir gegenüber damit begründet, dass viele Studierende sich beklagt hatten, das Modul sei veraltet gewesen. Mir liegt die letzte Auflage des verwendeten Lehrbuches vor. Mein Eindruck ist, dass ich dieses Modul immer noch sehr gerne belegt hätte, und dass es eine sehr gute Vorbereitung für "Web-Engineering" gewesen wäre. Schade, aber nicht zu ändern.
     
    Das Lehrbuch
     
    Der Kurs basiert auf dem Lehrbuch "Web 2.0-Anwendungen mit AJAX" von Jürgen Priemer. Herr Priemer ist auch einer der Autoren des Lehrbuches von "Grundlagen der Informatik 3", wo es unter anderem um GUI-Programmierung in Java am Beispiel von Swing geht. Ich meine, seinen Stil wiedererkannt zu haben. Mit GdI3 kam ich gut zurecht und auch dieses Lehrbuch hat mir wieder gut gefallen. Mit ca. 350 Seiten ist der Umfang leicht unterdurchschnittlich. Das heißt aber nicht, dass man dieses Modul überdurchschnittlich schnell durcharbeiten kann. Die Themenvielfalt ist groß und jeder Themenwechsel geht zu Lasten des Arbeitstempos.
     
    Worum geht es?
     
    Worum geht es nun inhaltlich? Springer hat ja ein verpflichtendes Modul "Web-Anwendungen 2", bei dem es um die Programmierung von Web-Anwendungen mit Java-Server-Pages (JSP) geht. Hier ist das GUI eine HTML-Seite, die von einem Servlet erzeugt wurde. Der Nutzer macht Eingaben in ein Formular und sendet es ab. Das Servlet empfängt einen HTTP-Request, dem Nutzereingaben als Parameter angehängt sind. Das Servlet verarbeitet diese Anfrage, interagiert zu diesem Zweck mit Fachkonzept-Klassen und eventuell auch einer Datenbank und baut eine neue HTML-Datei als Antwort auf die Nutzeranfrage. Diese empfängt der Browser des Nutzers und rendert daraus eine Darstellung, die der Nutzer dann sieht. So weit der klassische Ablauf. Eine grundlegende Beschränkung ist, dass die Serverantwort als neue Seite empfangen wird. Es wird also nach jeder Nutzeranfrage eine komplett neue Seite geladen und gerendert.
     
    Wenn man möchte, dass Web-Anwendungen reaktiver und interaktiver sind, hilft die Technik des XML-HTTP-Requests. Dazu braucht man Code, der clientseitig ausgeführt wird. Der kleinste gemeinsame Nenner auf der Clientseite ist Javascript, das in allen modernen Browsern zur Verfügung steht. Wir haben also clientseitig ein Event-Handling in Javascript, das bestimmte Nutzeraktionen registriert, z.B. dass der Nutzer gerade das Postleitzahlen-Eingabefeld verlassen hat. Der clientseitige Code schickt nun dem Server einen sogenannten XML-HTTP-Request, der z.B. die gerade eingegebene Postleitzahl enthält. Der Server verarbeitet diesen Request, z.B. in dem er bei einem Web-Service den zur Postleitzahl passenden Ort nachschlägt. Nun kommt der entscheidende Punkt: Der Server antwortet nicht mit einer neuen Seite sondern schickt eine Response im XML- oder JSON-Format. Diese Response wird von clientseitigem JavaScript-Code in einer Callback-Funktion ausgewertet. Diese Callback-Funktion verändert oder löscht Elemente der dargestellten Seite oder fügt ihr neue Elemente hinzu. Dies geschieht durch Manipulation des Document Object Models (DOM), dass der Browser auf Grundlage der zuvor empfangenen HTML-Datei erzeugt hat. Zum Beispiel kann die Callback-Funktion nun den Ortsnamen in das Eingabefeld Ort einfügen oder eine Fehlermeldung anzeigen, dass die eingegebene Postleitzahl nicht existiert und den Absenden-Knopf des Formulars deaktivieren, bis der Nutzer diesen Fehler behoben hat.
     
    Der oben beschriebene, grundlegende Prozess steht im Mittelpunkt des Moduls. Durch ihn können Web-Anwendungen reaktiver werden. Seiteninhalte können sich dynamisch ändern, ohne das eine Seite komplett neu geladen werden muss. Web-Anwendungen können mit GUIs ausgestattet werden, die denen von Desktop-Anwendungen ähneln. Sie können komplexere Funktionalität und ein insgesamt flüssigeres Nutzungserlebnis bieten.
     
    Der Preis dafür: Wir müssen nicht nur serverseitigen Code in einer serverseitigen Sprache programmieren (wie z.B. PHP oder Java), sondern auch clientseitigen Code in JavaScript. Wir müssen ein bisschen Hirnschmalz darauf verwenden, die Interaktion zwischen client- und serverseitigem Code hinzubekommen. Und das ganze wird eventuell noch dadurch verkompliziert, dass wir Inhalte von unterschiedlichen Servern oder Web-Services einbinden.
     
    Es gibt nun im wesentlichen drei Möglichkeiten, Web-Anwendungen dieser Art zu implementieren:
    1. Wir programmieren den clientseitigen Code von Hand in JavaScript aus. Dann müssen wir uns damit auseinander setzen, dass es Unterschiede zwischen den Browsern gibt. Wir müssen also bedingte Verzweigungen in unseren Code einbauen und Fallbacks schreiben.
    2. Wir verwenden ein clientseitiges JavaScript-Framework, dass uns die Arbeit vereinfacht. Bibliotheken verbergen die Unterschiede zwischen den Browsern hinter einheitlichen Funktionsaufrufen und vereinfachen den Umgang mit dem XML-HTTP-Request und der Response. Als Bonus bekommen wir in der Regel Funktionen zur einfachen DOM-Manipulation und fertige GUI-Elemente, zum Bau interaktiver Oberflächen. Im Kurs werden 2 derartige Frameworks vorgestellt: Prototype und das sehr verbreitete JQuery.
    3. Wir verwenden ein serverseitiges Framework, das uns erlaubt, den gesamten Code, auch für das was auf dem Client passieren soll, in EINER serverseitigen Sprache zu schreiben. Im Kurs behandelt wird zunächst das Google Web Toolkit (GWT). Hier übersetzt ein Compiler clientseitigen Code von Java nach JavaScript. Auch das ZK Framework wird vorgestellt. Dort programmiert man ebenfalls alles in Java. Der Java-Code wird aber nicht zu JavaScript übersetzt. Stattdessen gibt es zu GUI-Klassen in Java korrespondierende fertige Pendants in JavaScript, die automatisch clientseitig eingebunden werden und mit den serverseitigen Klassen per Remote Procedure Call kommunizieren. Der Vorteil für den Entwickler: Er kann eine (verteilte) Web-Anwendung rein in Java schreiben. Das fühlt sich dann fast an, als würde man eine Desktop-Anwendungen programmieren.
     
    Diese Inhalte bilden den Kern des Moduls. Die verschiedenen Ansätze werden immer wieder am Beispiel eines Heimwerker-Portals demonstriert, dass schrittweise um verschiedene Funktionalitäten erweitert wird. Im Kurs gibt es viele praktische Programmieraufgaben, was natürlich Spaß macht.
     
    Herausforderungen speziell bei diesem Modul
     
    Schwierig ist der häufige Wechsel der Frameworks. Man ist ständig mit neuer Syntax konfrontiert und wird nie richtig sicher im Umgang mit einem Framework. Eine weitere Schwierigkeit ist, dass sich Frameworks schnell weiterentwickeln. Ich hatte zum Teil Mühe, Codebeispiele aus dem Kurs zum Laufen zu bekommen. Oft war hier zusätzliche Zeit für Recherche nötig, um herauszufinden, wie bestimmte Dinge inzwischen gehandhabt werden. Und das, obwohl der Kurs noch gar nicht so alt ist. Das scheint der Preis dafür zu sein, wenn man aktuelle Themen in Module aufnimmt.
     
    Der Umgang mit dieser Schwierigkeit wurde mir erleichtert durch die guten Hilfestellungen und Tipps meines Tutors, der immer wieder Ideen beisteuerte, woran es liegen könnte, dass etwas nicht (mehr) läuft.
     
    Als - durchaus klausurrelevanten - Bonus gibt es noch Kapitel über neue Funktionen in HTML5, wie z.B. das Canvas-Element oder Local Storage. Außerdem gibt es Kapitel über Mashups, also Möglichkeiten, Inhalte aus Web-Diensten in eigene Seiten einzubinden, z.B. Kartendienste, RSS-Feeds, Photo-Dienste, Suchmaschinen und dergleichen. Den Abschluss bildet ein Kapitel über die Google-App-Engine.
     
    Mir hat das Modul viel Spaß gemacht, weil es sehr praktisch war und es viele Einsendeaufgaben gab, bei denen es um Problemlösen ging. Es war schwerpunktmäßig ein Programmiermodul.
     
    Die Präsenzklausur
     
    Was mir im Hinblick auf die Klausur Sorge gemacht hatte: In der Präsenzklausur darf man keinerlei Hilfsmittel verwenden. Ich stellte mir die Frage, wie ich mir die syntaktischen Feinheiten mehrer Frameworks einprägen sollte. Und wie ich vermeiden sollte, diese in der Klausur durcheinander zu bringen.
    Diese Sorge war aber unbegründet: Im Gegensatz zum Kurs selbst spielt in der Klausur das Schreiben von Code eine untergeordnete Rolle. Hier geht es vor allem darum, die grundlegenden Abläufe im Zusammenspiel von client- und serverseitigem Code zu verstehen. Auch geht es darum, die Architektur und die konzeptionellen Unterschiede zwischen den verschiedenen Frameworks zu begreifen.
     
    Die Klausur deckt Inhalte aus allen Teilen des Moduls ab. Das ist möglich, weil es auch kleinere Aufgaben mit Wissensfragen gibt, so dass man mit wenig Zeit abchecken kann, ob der Studierende wirklich alle Kapitel durchgearbeitet hat. Das wechselt sich dann wieder ab mit problemlösenden Aufgaben, bei denen man eine eigene intellektuelle Leistung erbringen muss. Eine gut gestellte Klausur, muss ich sagen.
     
    Das heißt leider nicht, dass ich da unbedingt gut abgeschnitten habe. Ein Ergebnis liegt mir noch nicht vor, aber ich weiß inzwischen, dass ich einige "Böcke geschossen" und auch ein paar Sachen verwechselt habe. Die nächsten Wochen werden zeigen, wie stark sich das auf meine Note auswirken wird. Falls sie nicht so gut ausfällt, muss ich mir das aber selbst zuschreiben. Fair gestellt war die Klausur in jedem Fall.
     
    Für wen ist es geeignet?
     
    Web-Engineering ist ein Modul, dass niemand belegen muss. Darum stellt sich am Ende die Frage, wem ich es empfehlen möchte:
    - Leute, die praktische Module mit Programmieraufgaben mögen.
    - Leute, die Spaß daran haben, in rascher Folge neue Frameworks auszuprobieren.
    - Leute, die damit zurechtkommen, auch mal selbst zu recherchieren, weil sich Inhalte schon wieder weiterentwickelt haben.
    - Leute, die es nicht darauf anlegen, den Wahlpflichtbereich mit möglichst wenig Arbeitsaufwand hinter sich zu bringen.
    - Leute, die auch eine schlechtere Note riskieren möchten, wenn dafür die Modul-Inhalte spannend sind.
  9. kurtchen
    Mein letztes Modul im ersten Semester sollte "Webprogrammierung" werden. Für Studierende im Studiengang "Web- und Medieninformatik" wird es als erstes Modul in diesem Fachgebiet empfohlen. Es ist zugleich Pflichtmodul im Studiengang "Wirtschaftsinformatik", wo es dem Fachgebiet Softwaretechnik zugeordnet ist. Für die Wirtschaftsinformatiker bleibt es das einzige Pflichtmodul, dass sich speziell mit Webtechnologien beschäftigt. (Sie belegen allerdings noch ein Modul zu Content Management Systemen.) Für die Webinformatiker ist es der Auftakt zu vertiefenden Modulen in HTML und CSS, in Multimedia, XML, Webdesign und serverseitiger Programmierung mit Java Server Pages. Der Wahlpflichtbereich bietet dann weitere Möglichkeiten, sich in diesem Bereich zu entwickeln, auch für die Wirtschaftsinformatiker.
     
    Doch zurück zum Modul "Webprogrammierung". Es handel von folgenden Themen:
    - XHTML
    - CSS
    - Javascript
    - XML
    - PHP
    - Java Server Pages
    - ASP.Net
    - und eine sehr knappe Einführung in Ajax
     
    Der Kurs beschäftigt sich also mit semantischem Markup, Styling und Layout, clientseitiger Programmierung und serverseitiger Programmierung.
     
    Das erste Kapitel behandelt XHTML. HTML5 war anscheinend bei der letzten Überarbeitung noch nicht so weit, auch wenn es im einführenden Kapitel kurz vorgestellt wird. Für die Bearbeitung der Aufgaben ist die XHTML-Syntax verbindlich, die in verschiedenen Punkten ein bisschen strenger ist.
    Inhalte hier sind z.B.:
    - Grundlegender Aufbau eines XHTML-Dokumentes
    - Links
    - Bilder
    - Bereiche
    - Tabellen
    - Formulare
     
    Im Grunde keine schlechte Einführung, die aber für meinen Geschmack ein wenig knapp ausgefallen ist. Möglicherweise ging man bei der Konzipierung des Moduls davon aus, dass viele Studierende in diesem Gebiet Vorkenntnisse haben. Dies trifft auch für viele meiner Kommilitonen zu, die z.B. als PHP-Entwickler arbeiten. Mit solch einem Hintergrund sollte das Kapitel zu XHTML tatsächlich recht leicht fallen. Ich ging mit wenig Vorkenntnissen in den Kurs, hatte keine Schwierigkeiten, die vorgestellten Konzepte zu verstehen, merkte aber bei den Übungen, dass ich in der Anwendung nicht richtig sicher wurde.
     
    Ein Besonderheit in diesem Kurs: Es gibt vergleichsweise wenige Einsendeaufgaben; in der Regel zu jedem Kapitel eine. Vor Bearbeitung jeder Einsendeaufgabe wird die Bearbeitung einiger Übungsaufgaben vorgeschlagen, zu denen man sich Musterlösungen runterladen kann. So kann man selbst vergleichen und schauen, ob die eigene Lösung sinnvoll und richtig war. Natürlich kann man so eine Menge lernen und ich fand die Übungen auch didaktisch gut gewählt und erkannte einen sinnvollen Aufbau. Ein wenig mehr Tutorinteraktion hätte mir aber besser gefallen, zumal das in anderen Modulen ja auch möglich ist. Die Einsendeaufgaben fassten aber meist ganz gut die einzelnen Fähigkeiten aus den vorangegangenen Übungen zu einer komplexeren Gesamtaufgabe zusammen.
     
    Im nächsten Kapitel ging es um CSS. Themen waren hier zum Beispiel:
    - Vererbung, Kaskadierung
    - Tabellengestaltung
    - Layoutgestaltung mit float
    - Absolutes Layout

    Responsive Webdesign spielte in diesem Modul keine Rolle.
     
    Weiter ging es mit Javascript als clientseitige Programmiersprache. Hier ging es ums DOM, um Event Handler und um die Validierung von Formularen. Auch dieses Kapitel war für meinen Geschmack recht knapp. Ich hatte keine Schwierigkeiten, den Stoff nachzuvollziehen, merkte aber bei den Übungen, dass es einfach zu schnell gegangen war, um eine gewisse Sicherheit im Umgang mit der Sprache zu entwickeln. Auch merkte ich, dass mir die solide Grundlage in HTML und CSS fehlte, so dass ich immer wieder im Lehrtext zurückgehen musste.
     
    Javascript sieht Java auf den ersten Blick ähnlich, hat aber ein anderes Sprachkonzept. Bei den Übungen hatte ich oft das Problem, die gewohnte Java-Syntax und die noch ungewohnte Javascript-Syntax zu mischen, was dazu führte, dass ich immer wieder viel Zeit für Fehlersuche aufbringen musste. Diese Verwirrung sollte sich um Laufe des Kurses noch steigern, wenn ähnliche Anwendungsbeispiele in verschieden Sprachen gezeigt wurden. So merkte man einerseits gut die Unterschiede zwischen den Sprachen, aber zugleich fiel es mir schwer, die Codebeispiele in meiner Erinnerung auseinander zu halten.
     
    Im folgenden Kapitel über XML ging es um:
    - den grundlegenden Aufbau einer XML-Datei
    - XML-Parser
    - die DTD
    - das XML-Schema
    - um XSL-Stylesheets

    Außerdem lernte man die Vorzüge eines XML-Editors kennen. Hier möchte ich erwähnen, dass die W3L ein eigenes Modul "XML" hat, dass wesentlich tiefer geht und das im Studiengang "Web- und Medieninformatik" Pflicht ist. Als Einführung ins Thema XML fand ich dieses Kapitel sehr gelungen.
     
    In den folgenden Kapiteln sollte es um serverseitige Sprachen gehen. Hier folgten im Schnelldurchgang:
    - PHP
    - Java Server Pages
    - ASP.Net
     
    Im PHP-Kapitel ging es natürlich um die Anbindung an MySQL, aber auch um einfache Dateiverarbeitung und die Realisierung eines Gästebuches.
     
    Eine Herausforderung im JSP-Kapitel ist, dass die Syntax häufig wechselt, denn auch EL, JSTL und JSF werden kurz angerissen. Das soll wohl einen Überblick über verfügbare Techniken vermitteln, stiftet aber aus meiner Sicht in dieser knappen Form eher Verwirrung. JSP hat nur einen geringen Marktanteil. Trotzdem lohnt es sich, dieses Kapitel gründlich zu bearbeiten, denn das Pflicht-Modul "Web-Anwendungen 2" behandelt ausführlich JSP. Auch im Wahlpflichtbereich kann man sich weiter mit Java als serverseitiger Sprache befassen, während es zum Beispiel zu PHP keine weiteren Module gibt.
     
    Sehr gelungen fand ich dafür das Kapitel zu ASP.Net. Hier ging es unter anderem um das Konzept der code behind Technik, die eine saubere Arbeitsteilung zwischen Front-End- und Back-End-Entwicklern ermöglichen soll. Hier habe ich gemerkt, dass die Einführung in C# aus dem Modul "Grundlagen der Informatik 2" doch recht knapp war. Mit meinen Java-Kenntnissen fand ich mich zwar schnell zurecht, aber an Details blieb ich doch oft hängen und verbrachte viel Zeit mit Fehlersuche. Gleichwohl hat mir besonders dieses Kapitel gut gefallen, weil ich dabei den Net-Framework als ein schönes Stück Technik schätzen gelernt habe. Schade, dass weder ASP noch C# im weiteren Curriculum der W3L eine Rolle spielen.
     
    Das letzte Kapitel stellte in sehr knapper Form die Möglichkeiten von Ajax vor. Hier habe ich definitiv nichts mehr mitnehmen können. Ich war einfach übersättigt von den rasch wechselnden Themen und hatte zu viel neue Syntax in zu kurzer Zeit verdauen müssen. Bei der Bearbeitung der Aufgaben merkte ich das daran, dass ich immer wieder die verschiedenen Sprachen mischte und verwechselte.
     
    Zusätzlich hatte ich in diesem Modul das Problem, dass meine Tutorin länger für die Korrektur meiner Aufgaben brauchte, als ich das bislang von der W3L gewohnt war. Wenn Feedback kam, war ich oft schon 2 Kapitel weiter, was es mir schwerer machte, die durchaus guten Tipps zu verwerten. Auch die Korrektur der Online-Klausur dauerte ein wenig länger, so dass ich beim Schreiben der Präsenzklausur noch nicht wusste, wieviele Bonuspunkte ich hatte.
     
    Für mich war es das erste Modul mit dem ich insgesamt unzufrieden war. Für meinen Geschmack wollte man hier zu viel auf einmal. Die Intention, einen Überblick über gängige Webtechnologien zu geben, die Themen semantisches Markup, Styling, client- und serverseitige Programmierung in einem Modul vorzustellen, war für mich nachvollziehbar. Aber nach der Bearbeitung hatte ich den Eindruck, dass weniger mehr gewesen wäre. Lieber hätte ich zunächst eine gründlichere Einführung in HTML und CSS erhalten. Diese Grundlage bringen natürlich viele Studierende schon mit, weshalb dieses Modul von vielen meiner Kommilitonen als eines der leichteren beschrieben wird.
     
    Für die Präsenzklausur hatte meine Tutorin mir den wertvollen Tipp gegeben, ein paar Aufgaben noch einmal mit Stift und Papier zu bearbeiten. Das hat mir tatsächlich geholfen, ein paar syntaktische Grundstrukturen "in die Finger" zu kriegen, wodurch ich in der Klausur etwas schneller war. Die Note war für mich zwar erfreulich, aber das gute Gefühl, sich den Stoff richtig angeeignet zu haben, blieb in diesem Modul für mich aus. Die Klausur deckte die Themen des Kurses recht breit ab, so dass ich anderen Studierenden empfehlen würde, alle Kapitel zu wiederholen. 
     
    Meine Tutorin hat mir übrigens am Ende erklärt, warum die Bearbeitung in meinem Fall etwas länger gedauert hat als üblich, und das war für mich auch gut nachvollziehbar. Da ich bald das Modul "Web-Anwendungen 1" belegen wollte, das ebenfalls von ihr betreut wurde, plante ich eine etwas längere Bearbeitungszeit ein und belegte parallel GdI3 "Anwendungsprogrammierung". Rückblickend muss ich sagen, dass es hilfreich war, das Thema der längeren Korrekturzeiten anzusprechen. Das Problem ließ sich dadurch zwar nicht sofort lösen, aber immerhin habe ich so einen guten Workaround finden können. Ich nehme daraus mit, dass es sich lohnt, sich mit den Tutoren über die eigenen Lernziele auszutauschen, auch und gerade was Klausurtermine und die angepeilte Bearbeitungszeit angeht. Wenn man rechtzeitig weiß, was einen erwartet - z.B. vorrübergehend etwas längere Korrekturzeiten - kann man einen Plan B machen.
     
    Rückblickend betrachtet, hätte ich lieber das Modul "Webanwendungen 1" als erstes bearbeitet. Hier erhält man die sehr gründliche Einführung in HTML5 und CSS, die ich mir von einem einführenden Modul in Webtechologien erhofft hätte. Dieser Kurs orientiert sich außerdem an Fallbeispielen, was für mich sehr zum Verständnis beigetragen hat. Aus meiner Sicht sollte "Web-Anwendungen 1" das erste Modul zu Webtechnologien sein. Doch darüber schreibe ich zu einem anderen Zeitpunkt mehr.
     
    Ich meine, das Modul leidet etwas unter seiner Doppelfunktion: Für die Wirtschaftsinformatiker ist es sozusagen die eierlegende Wollmilchsau. Es verschafft ihnen einen Überblick über verschiedene Webtechnologien, ohne allzu sehr in die Tiefe zu gehen. Für die Webinformatiker soll es zugleich eine Einführung sein, auf die umfangreiche Vertiefungsmodule folgen. Das erfordert ein paar didaktische Kompromisse.
     
    Als Sekundärliteratur für dieses Modul habe ich "HTML & CSS: Design and Build Websites" und "Javascript & JQuery: Interactive Front-End Web Development" verwendet. Beide Titel sind von Jon Ducket. Sie glänzen durch ein sehr aufgeräumtes Layout. Der Stoff wird in appetitlichen, kleinen Häppchen serviert und man hat eine schöne Gegenüberstellung von Code und grafischer Darstellung. Ich habe diese Bücher parallel zum Kurs gelesen und empfand die besonders ästhetische Form der Darstellung als ideale Ergänzung zum sachlichen und systematischen Stil des im Kurs verwendeten Lehrbuches.
  10. kurtchen
    Zur Rolle des Moduls "Aktuelle Webtechniken" im Studiengang WMI
     
    Das Modul "Aktuelle Webtechniken" ist ein Wahlpflicht-Modul und richtet sich an Studierende im Studiengang "Web- und Medieninformatik". Es ist außerdem Teil des Hochschulzertifikates "Web-Entwickler". Für Wirtschaftsinformatiker scheint es mir weniger geeignet. Das liegt daran, dass das Modul "Web-Anwendungen 2" als fachliche Grundlage sehr empfehlenswert ist. Dieses ist aber für Wirtschaftsinformatiker nicht Pflicht und müsste daher ebenfalls als Wahlpflichtmodul belegt werden.
    Als weitere fachliche Grundlage für dieses Modul wird "XML" genannt. Aufgrund der Voraussetzungen wird man "Aktuelle Webtechniken" wohl gegen Ende seines Studiums belegen, also im 5. oder 6. Fachsemester.  Inhaltlich geht es um die Entwicklung von Web-Anwendungen mit dem serverseitigen Framework JavaServer Faces.
     
    Das Lehrbuch
     
    Das Lehrbuch "JavaServer Faces" von Michael Goll und Marcel Urbanek hat einen Umfang von ca. 250 Seiten. Im Vergleich zu anderen Lehrbüchern bei Springer Campus klingt das wenig. Allerdings ist die Schrift kleiner und der Text recht eng gesetzt, so dass bei gleicher Seitenzahl mehr Inhalt drin steckt, als man zunächst vermuten würde. Der Text ist ziemlich dicht geschrieben. Das Tempo, in dem die Inhalte vermittelt werden, ist recht hoch. Möglich ist das, weil die meisten Studierenden ja Vorkenntnisse in JavaServer Pages und XML haben. Ohne diese Grundlage wäre es deutlich schwieriger, dem Text zu folgen. Die Inhalte ähneln denen des Moduls JSP. Allerdings geht es hier um ein aktuelleres serverseitiges Web-Framework auf Grundlage von Java.
     
    Während man in JSP HTML und Java-Code in einer Seite mischt, gibt es in JSF eine saubere Trennung. Funktionalität wird in Bean-Klassen implementiert. Das sind Java-Klassen mit öffentlichen Gettern und Settern für alle Attribute sowie einem parameterlosen Standardkonstruktor. Dies erlaubt dem Framework die Erzeugung und die Befüllung von Objekten dieser Klassen. Weil sie vom Framework gemanaged werden, nennt man sie auch Managed Beans.
     
    Damit das Framework weiß, welche Managed Beans zur Verfügung stehen, muss man sie ihm in einer XML-Datei bekannt machen. Die eigentlichen Seiten werden dann mit Tags des Frameworks aufgebaut. Hier stellt man Bindings zu Methoden oder Attributen der Managed Beans her. Das ist ein sauberer und übersichtlicher Ansatz, um Webanwendungen aufzubauen. Die Arbeitsweise erinnert mich an ASP.Net und die damit verbundene Code-behind-Technik.
     
    Weitere Themen sind:
    - Templating
    - Internationalisierung
    - Navigation
    - Konverter
    - Validierung
    - Listener
    - Erweiterte Komponenten
     
    Alle diese Themen werden durch Codebeispiele praxisnah behandelt. Es ist sehr empfehlenswert, diese Beispiele in einer geeigneten IDE auszuprobieren und sie abzuwandeln, um ein Gefühl dafür zu bekommen, wie JSF arbeitet. Empfohlen wird als IDE Eclipse. Ich bevorzuge Netbeans und habe das Modul damit bearbeitet. Das war so auch gut machbar.
     
    Nach den recht praktischen ersten zwei Dritteln des Moduls folgen im letzten Drittel vertiefende Themen, die theoretischer und auch anspruchsvoller sind. Hier geht es darum, wie das Framework arbeitet, was für Abläufe durch einen HTTP-Request ausgelöst werden und was für Objekte dabei in welcher Reihenfolge erzeugt werden. Nicht zuletzt geht es darum, wie man eigene JSF-Komponenten, eigene Renderer und eigene Tags implementiert.
     
    Ich finde, JSF ist ein schönes Framework. Gut gefallen haben mir z.B. die Konzepte für Navigation und für die Konvertierung und Validierung von Nutzereingaben.
     
    Tests und Einsendeaufgaben
     
    Die Tests und Aufgaben decken den Stoff gut ab. Für meinen Geschmack hätten es mehr Aufgaben sein dürfen. Sie waren aber ausreichend, um mit allen großen Themenblöcken praktische Erfahrungen zu machen. Eigene Initiative und eine gewisse Experimentierfreude beim Ausprobieren von Codebeispielen halte ich für empfehlenswert. Leider fand ich die Formulierung der Aufgaben oft unklar oder mehrdeutig. Das Nachdenken darüber, was der Autor der Aufgabe gemeint haben könnte, hat bei mir oft wesentlich länger gedauert als die eigentliche Lösung der Aufgabe. Das war für mich oft unbefriedigend.
     
    Die Rückmeldungen meines Tutors kamen zügig. Auf Fragen bekam ich rasche und zufriedenstellende Antworten. Auch die Online-Klausur wurde zügig korrigiert.
     
    Die Online-Klausur passte gut zu den Einsendeaufgaben und den im Kurs behandelten Themen. Sie war durchaus auch eine gute Vorbereitung auf die Präsenzklausur. So sollte es sein
     
    Präsenzklausur
     
    Ich hätte erwartet, dass die Präsenzklausur vor allem die ersten zwei Drittel des Moduls abdecken würde, also die eher praktischen Teile. Dort lag auch ein Schwerpunkt. Es wurden aber auch die theoretischeren Teile durch Wissensfragen abgeprüft. Bei der Arbeit mit JSF hat man mit unterschiedlichen Dateien in unterschiedlichen Sprachen und Formaten zu tun: XML-Dateien, Java-Quellcode, JSF-Seiten mit Tags. In der Klausur spielten alle eine Rolle. Der Schwierigkeitsgrad der Aufgaben war unterschiedlich. Es gab einfachere Punktebringer aber auch schwierigere und umfangreichere Aufgaben für diejenigen, die eine gute Note haben möchten. Leider hatte ich auch diesmal wieder ein Problem mit der Formulierung mancher Aufgaben.
     
    Zeit ist ein entscheidender Faktor in dieser Klausur. Man muss relativ viel schreiben. Auch wenn man im Grunde schon eine Lösung im Kopf hat, wird es knapp, diese auch aufs Papier zu bringen. Ich würde empfehlen, ein paar Einsendeaufgaben von Hand abzuschreiben, um im Schreiben von XML auf ein gewisses Tempo zu kommen. Ich habe es leider nicht geschafft, alle Aufgaben in der gegebenen Zeit zu bearbeiten. Das hatte natürlich Auswirkungen auf meine Note, die nicht so gut ausgefallen ist, wie ich mir im Vorfeld erhofft hatte.
     
    Fazit
     
    Nach dem Modul "Web-Anwendungen 2", welches serverseitige Web-Programmierung mit JSP abhandelt, wird in "Aktuelle Webtechniken" mit JSF ein weiteres serverseitiges und Java-basiertes Framework vorgestellt. JSF ähnelt ein wenig ASP.Net. Mir hat das Modul Spaß gemacht und ich finde, serverseitige Programmierung ist eine der Stärken des Studienganges "Web- und Medieninformatik". Das Modul ist etwas für Studierende, die auch Freude an JSP und XML hatten. Es ist außerdem eine Gelegenheit, noch mal einmal Zeit mit dem Schreiben von Code zu verbringen. Gegen Ende des Studiums gibt es ja viele Module, die recht theorielastig sind. Da ist JSF eine willkommene Abwechslung.
     
    Mein nicht ganz so tolles Abschneiden bei Klausur nehme ich nicht so schwer. Am diesem Punkt meines Studiums stehen einfach schon so viele Noten fest, dass mein Spielraum zu Beeinflussung meiner Abschlussnote ohnehin gering ist. Ich freue mich also einfach, dass ich hier noch einmal die Gelegenheit hatte, ein Modul zu bearbeiten, dass ich inhaltlich sehr genießen konnte.
  11. kurtchen
    Zur Rolle des Moduls im Studiengang

    Das Modul "Business Intelligence" ist ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort ist es auch dem Studienbereich "Wirtschaftsinformatik" zugeordnet. Studierende der "Web- und Medieninformatik" dürfen es im Vertiefungsbereich belegen. Den Wirtschaftsinformatikern wird empfohlen, dieses Modul zusammen mit "Human Resources" und einem weiteren Wahlpflichtmodul im 6. Fachsemester zu belegen. Es ist also vorgesehen, dieses Modul im gleichen Semester zu bearbeiten wie die Bachelorarbeit. Dies erklärt vielleicht den vergleichsweise niedrigeren Bearbeitungsaufwand.
     
    Formale Voraussetzungen gibt es keine, so dass das Modul theoretisch auch schon im ersten Fachsemester gebucht werden dürfte. Als inhaltliche Voraussetzungen werden "Data Warehouse & Data Mining" sowie "BWL2" genannt. Dies erscheint mir sinnvoll. Business Intelligence hat eine große inhaltliche Überlappung mit dem Modul Data Mining, nimmt aber noch stärker eine betriebswirtschaftliche Perspektive ein. Mehr noch als im Modul Data Mining liegt also der Fokus darauf, wie man Methoden der Business Intelligence für den Erfolg eines Unternehmens nutzen kann. Die Implementierung dieser Methoden in einer konkreten Programmiersprache ist nicht Thema des Moduls. Es betrachtet Business Intelligence aus Anwender- bzw. Nutzerperspektive. Das Modul Data Mining ist eine nützliche Vorbereitung, weil man dadurch schon viel über die Funktionsweise analytischer betrieblicher Informationssysteme (im Vergleich zu operativen Systemen) weiß. BWL2 ist nützlich, weil es viele inhaltliche Bezüge zwischen dem Lehrbuch zur Unternehmensführung aus BWL2 und den Methoden der Business Intelligence gibt.
     
    Zum Lehrbuch
     
    Das Lehrbuch "Basiswissen Business Intelligence" ist von Christoph Engels und lag mir in der 2. Auflage von 2015 vor. Es hat nur ca. 150 Seiten, gehört aber zu den Lehrbüchern mit kleinerer Schrift und engerem Druck, was die Seitenzahl etwas relativiert. Der Stoffumfang erscheint mir im Vergleich zu anderen Modulen geringer. Allerdings ist das Buch ziemlich dicht geschrieben und treibt sein Thema konsequent voran. Viel Redundanz gibt es hier nicht. Es ist in drei Teile gegliedert:
    Die betriebswirtschaftliche Sicht Die Methoden der Business Intelligence Die Werkzeuge der Business Intelligence  
    Teil 1 beginnt mit einem Kapitel zur "multidimensionalen Perspektive". Hier geht es im wesentlichen um den Unterschied zwischen operativen und analytischen Informationssystemen. Operative Systeme sind z.B. durch häufige Schreibzugriffe und eine starke Datensatzorientierung ausgezeichnet. Sie unterstüzten die alltäglichen Geschäftsprozesse des Unternehmens. Ein Beispiel für ein operatives Informationssystem wäre z.B. ein Bestellsystem. Analytische Informationssysteme verdichten Daten aus operativen Systemen (und anderen Quellen), um Führungskräfte bei unternehmerischen Entscheidungen zu unterstützen. Sie helfen also z.B. bei der Steuerung des Unternehmens und bei der Planung.
     
    Weitere Kapitel behandeln Kennzahlensystem, Performance Management, Planungskoordination, externes Rechnungswesen, Konzernkonsolidierung, Zielkostenrechnung und Kampagnen. Das Tempo in diesen Kapiteln ist hoch und der Stoff geht nicht in die Tiefe, behandelt also z.B. keine Spezialfälle. Die Intention scheint vielmehr zu sein, einem Überblick über mögliche Anwendungskontexte von Business Intelligence zu vermitteln. Um die allgemeinen Konzepte bildlicher und konkreter werden zu lassen, werden sie gelegentlich durch Beispiele aufgelockert. Diese stammen vor allem aus der Tourismusbranche. Solche Fallbeispiele werden in den folgenden Teilen des Lehrbuches häufiger und umfangreicher. Touristik bleibt dabei das gemeinsame Thema.
     
    Teil 2 behandelt Methoden der Business Intelligence. Hier geht es zunächst um klassisches Reporting und im Kontrast dazu OLAP (Online Analytical Processing). Für OLAP wird ein multidimensionaler Datenwürfel aufgebaut, der durch die grundlegenden Operationen Slicing, Dicing und Drill down unmittelbar erkundet und untersucht werden kann, um in den aggregierten Daten operativer Systeme unbekannte Zusammenhänge und Muster zu entdecken, die sich unternehmerisch nutzen lassen. Die verschiedenen Nutzungsszenarien stehen im Fokus dieses Kursteils. So wird beispielsweise vorgestellt, wie sich Lift Charts nutzen lassen, um bei Werbekampagnen einen effizienten Werbemitteleinsatz zu erzielen. Wichtig ist auch die Arbeit mit Szenarios. Hierbei unterscheidet man zwischen Predictive Analytics und Prescriptive Analytics. Während man mit Predictive Analytics künftige Situationen anhand bisheriger Entwicklungen vorhersagen möchte, zielt Prescriptive Analytics auf einen künftig wünschenswerten Zustand und wie dieser zu erreichen wäre. Die Fallbeispiele aus der Touristik werden nun umfangreicher und unterstüzten das Verständnis der Konzepte gut. Kapitel zur Visualisierung und zur Präsentation aggregierter Unternehmensinformation in Form von Geodaten runden diesen Kursteil ab. An diesem Punkt hat man eine Vorstellung davon, welche Methoden der Business Intelligence zu den einzelnen Anwendungskontexten des ersten Kursteils passen.
     
    Im Teil 3 geht es dann stärker um die technische Seite der vorgestellten Methoden. Interessant war zum Beispiel das Kapitel über In-Memory Computing in Verbindung mit Kompressionsverfahren, über hybride Datenhaltung (mit spaltenorientierten Datenbanken) und Parallelverarbeitung. Diese Techniken beschleunigen die Analyse aggregierter Unternehmensdaten enorm, so dass man Methoden der Business Intelligence zunehmed in Echtzeit anwenden kann. In den folgenden Kapiteln wird es formaler und theoretischer, denn nun geht es z.B. um multidimensionale Datenmodelle und ihre Realisierung mit verschiedenen Datenbanktypen. Hier spielt auch formale Notation eine große Rolle.
     
    In den letzten Kapiteln wird es wieder konkret. Hier wird die Arbeit mit einem OLAP-System im Text und durch Videos vorgestellt. Ein Fallbeispiel zum Data Warehouse der TUI rundet diesen Kursteil ab.
     
    Einsendeaufgaben
     
    Die Einsendeaufgaben erschienen mir oft recht knapp, konzentrierten sich aber das das wesentliche des vermittelten Stoffes. Man konnte mit ihnen also feststellen, ob man das jeweilige Kapitel verstanden hatte. Die Aufgabentypen waren so unterschiedlich wie der vermittelte Stoff: Konzepte erklären, unternehmerische Situationen einordnen, kleine Rechenaufgaben, Zeichnen von Diagrammen. Sie passten gut zu den Inhalten. Für meinen Geschmack hätte es aber etwas mehr sein dürfen. Interessant waren die letzten Aufgaben. Diese ergänzten die Videos zur Arbeit mit einem OLAP-System. Hier musste man Verständnisfragen beantworten. Dabei musste ich oft zurückspulen, um genauer zu sehen, was der User macht. Nicht selten habe ich bei der Bearbeitung feststellen müssen, dass ich beim ersten Zuschauen doch noch nicht ganz begriffen hatte, was dort ablief. Diese Aufgaben waren etwas umfangreicher und zwangen einen, genauer hinzuschauen. Mein Tutor äußerte in diesem Zusammenhang, dass mittlerweile auch brauchbare Open Source Werkzeuge verfügbar seien, so dass man künftig die Videos durch praktische Übungen an entsprechenden Systemen ersetzen könnte. Schade, dass das noch nicht so weit ist, denn die Idee finde ich gut.
     
    Die Korrekturen kamen schnell, was die zügige Bearbeitung des Moduls erleichterte. Die Rückmeldungen durch meinen Tutor hätten zum Teil ausführlicher ausfallen dürfen. Aber wenn ich einmal etwas nicht verstanden und konkret nachgefragt hatte, bekam ich stets Antworten.
     
    Präsenzklausur
     
    Die Klausur hatte 10 Aufgaben, die Stoff aus allen Kursteilen abdeckten. Die Aufgabentypen waren dabei recht unterschiedlich. Es gab reine Wissenfragen, Aufgaben, bei denen man etwas erklären sollte, Zuordnungsaufgaben, Aufgaben zur multidimensionalen Modellierung und kleinere Rechenaufgaben. (Bei der Klausur ist kein Taschenrechner erlaubt.) Insgesamt war es eine recht abwechslungsreiche Klausur, die gut zum Modul passte.
     
    Fazit
     
    Wirtschaftsinformatik ist ein Thema, mit dem ich nicht sofort warm geworden bin. Ursprünglich hatte ich das Modul Data Mining belegt. Dabei hatte ich mir erhofft, in erster Linie etwas über mathematische und statistische Grundlagen des Data Minings und ihre Implementierung in Code zu erfahren. Stattdessen nahm das Modul aber eine betriebswirtschaftliche Perspektive ein, was mir anfangs gar nicht gefiel. Im Laufe der Zeit merkte ich aber, dass die Wirtschaftsinformatik eine eigene fachliche Perspektive hat, die auch interessant ist. Darum war ich damals neugierig, auch noch das Modul Business Intelligence zu belegen, das noch einen Schritt weiter in diese Richtung geht.
     
    Meine Leidenschaft für Wirtschaftsinformatik habe ich noch nicht entdeckt, aber es war bereichernd, hier noch einmal einen Blick über meinen persönlichen Tellerrand werfen zu können. Gleichwohl vermute ich, dass angehende Web- und Medieninformatiker dieses Modul seltener wählen werden. Für die Wirtschaftsinformatiker ist es ja ohnehin Pflicht. Für die Zukunft wäre es wünschenswert, interaktive Übungen mit einem freien OLAP-System in das Modul aufzunehmen.
  12. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "Electronic Business" ist bei Springer Campus ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort wird es dem Studienbereich "BWL" zugeordnet. Empfohlen wird die Belegung im 5. Fachsemester. Als inhaltliche Voraussetzungen werden die Module BWL2, Geschäftsprozess-Management und Web-Programmierung empfohlen. Meiner Meinung nach lässt sich das Modul auch ohne dieses Vorwissen gut bearbeiten.
     
    Studierende im Studiengang "B.Sc. Web- und Medieninformatik" können das Modul im Wahlpflichtbereich belegen. Das habe ich getan, weil ich es für sinnvoll hielt, die durch das Studium vermittelten Kenntnisse in serverseitiger Programmierung auch mal in einen betriebswirtschaftlichen Rahmen einzuordnen. Denn am Ende wird eine Web-Anwendung programmiert, weil jemand Kosten senken, Prozesse optimieren und schlicht Erträge erzielen möchte.
     
    Manche Studierende belegen dieses Modul auch, weil es als nicht so umfangreich gilt. Von dieser Strategie würde ich abraten. Auch ein nicht so dickes Lehrbuch kann lang werden, wenn das inhaltliche Interesse fehlt. FH-Studiengänge sind traditionell stärker verschult. Es gibt vergleichsweise wenige Wahlmöglichkeiten. Ich würde daher empfehlen, hier nicht die Aufwandsminimierung in den Mittelpunkt zu stellen, sondern aus dem Angebot etwas zu wählen, dass man auch interessant findet.
     
    Das Lehrbuch
     
    Das Buch "Basiswissen E-Business" von Dr. Tilo Hildebrandt hat einen Umfang von ca. 250 Seiten. Die Schriftgröße ist relativ klein, so dass die Lektüre ein bisschen länger dauert, als man zunächst vermuten würde. Insgesamt würde ich den Stoffumfang des Moduls trotzdem mit unterdurchschnittlich beschreiben.
     
    Kapitel 1 - Rahmenbedingungen
     
    Kapitel 1 "Rahmenbedingungen des Web-Business" war für mich am interessantesten, weil der Autor hier viele Schritte zurück geht. Es gibt z.B. einen kleinen Ausflug in die Medientheorie, wenn betrachtet wird, wie mündliche Überlieferung, schriftliche Kommunikation und in Abgrenzung dazu elektronische Medien die Art der Informationsaufnahme und -Verarbeitung beeinflussen. Das geht in die Richtung von Marshall McLuhans "Das Medium ist die Botschaft". Schließlich wird die Entwicklung des E-Business auch wirtschaftshistorisch eingeordnet. Theoretischer Rahmen hierfür ist Kondratieffs Theorie der langen Wellen. Diese sind zyklische Schwankungen der Konjunktur mit deutlich längerer Periode als die bekannten Konjunkturzyklen. Sie werden laut Kondratieff angestoßen durch Basisinnovationen, die die Rahmenbedingungen des Wirtschaftens grundsätzlich verändern, zu großen Investitionstätigkeiten führen, aber auch bisherige Geschäftsmodelle ersetzen. Beispiele für solche Basisinnovationen sind Erfindungen wie die Dampfmaschine oder die Eisenbahn. Die These des Autors ist, dass das Internet eine solche Basisinnovation sein könnte, und somit der Beginn eines weiteren Kondratieffzyklus. Das passt zur allgemeinen Erwartung eines umfassenden gesellschaftlichen Wandels durch die Digitalisierung. Informationstechnologien senken dabei vor allem Transaktionskosten. Sie machen es z.B. schneller möglich, günstige Preise oder neue Lieferanten zu finden. Sie ermöglichen es auch, Produktionsprozesse noch stärker arbeitsteilig zu gestalten, weil der damit steigende Aufwand zur Koordination und Überwachung von Prozessen durch sie handhabbarer wird. Das führt z.B. zu einer immer stärkeren Spezialisierung.
     
    Dieses Kapitel hätte für mich sehr interessant sein können, denn eine allgemeine historische und gesellschaftliche Perspektive auf die Entwicklung meines Feldes hätte ich mir im Studium manchmal gewünscht. Auch in manchen BWL-Studiengängen wird ja inzwischen Wirtschaftsgeschichte oder Wirtschaftsethik gelehrt. Leider ist das Kapitel doch recht komprimiert geschrieben und könnte mir daher eher als Orientierung dienen, falls ich solche Themen durch eigene Lektüre einmal vertiefen wollte. Die folgenden Kapitel sind doch wieder aus einer betriebwirtschaftlichen Perspektive geschrieben. Aber immerhin schön, dass der Autor hier mal einen breiteren Rahmen skizziert hat.
     
    Kapitel 2 - Ertragsmodelle
     
    Im zweiten Kapitel "Ertragsmodell" geht es um direkte und indirekte Ertragsmodell im Web-Business. Sicher ist es sinnvoll, diese einmal explizit vorzustellen und die verschiedenen Geschäftsmodelle zu kategorisieren. Nun ist es so, dass seit vielen Jahren jedermann kostenlose und kostenpflichtige Dienste im Internet nutzt. Etwas bislang unbekanntes wird man hier also kaum erfahren. Immerhin kennt man die Beispiele für Ertragsmodelle so aus eigener Anschauung und ordnet sie in einen übergreifenden begrifflichen Rahmen ein.
     
    Kapitel 3 - Struktur des Web-Business
     
    Das dritte Kapitel "Struktur des Web-Business" stellt schließlich ein theoretisches Werkzeug oder Modell vor, mit dem sich verschiedene Aspekte des Web-Business untersuchen lassen: Die Web-Business Pyramide. 
    Diese ist für das Modul wichtig, denn sie bildet eine Art Klammer, die alle folgenden Kapitel zusammenhält. Immer wieder wird dort der Bezug zur Web-Business Pyramide hergestellt und sie stiftet auch einen Zusammenhang zwischen den Kapiteln.
     
    Die Pyramide hat vier Seiten, die in den folgenden Kapitel näher betrachtet werden. Die erste Seite ist dabei die Konversionsseite. Sie beschreibt die Rollenwechsel vom noch anonymen Besucher einer Web-Präsenz zum Stammkunden, der sich mit geringerem Aufwand ansprechen und motivieren lässt. Jede Rolle entspricht einer Stufe der Pyramide. Der Besucher wird zum Interessenten, indem er auf der Seite verweilt und sie erkundet. Er wird zum Kaufwilligen, indem er etwas in den Warenkorb legt und persönliche Informationen preisgibt. Er wird zum Käufer, indem er eine Bestellung ausführt. Und im besten Fall wird er zum Stammkunden, der die Seite künftig gezielt und mit Kaufabsicht aufsucht.
    Die Pyramidenform soll dabei verdeutlichen, dass jeweils nur ein kleiner Teil der Nutzer die nächste Stufe der Pyramide erreicht. Bildet man den Quotienten aus den Nutzerzahlen zweier aufeinanderfolgender Stufen, so erhält man eine Konversionsquote, eine Maßzahl dafür, wie gut der Übergang von einer Stufe zur anderen gelingt. Ziel des Betreibers einer Präsenz ist, Konversionsquoten zu steigern. Die folgenden Kapitel beschäftigen sich damit, wie dies geschehen kann. Eine gute Suchmaschinenoptimierung soll z.B. nicht einfach nur mehr Besucher auf die eigene Web-Präsenz lenken, sondern solche, für die das eigene Angebot relevant ist. Sonst verlassen die Besucher die Seite nach dem ersten Eindruck wieder. Interessieren sich die Besucher für die dargebotenen Inhalte, so wird die Usability der Seite wichtiger, damit sie auch dort bleiben.
     
    Die anderen Seiten der Web-Business Pyramide beschäftigen sich mit den Kostenarten, mit dem Marketing und mit den Prinzipien, die Entscheidungen des Webseiten-Betreibers leiten. Diese sind jeweils auf Stufen der Konversionsseite bezogen. Auf jeder Stufe gibt es also korrespondierende Kostenarten, Marketingschwerpunkte und leitende Prinzipien.
     
    Das Modell Web-Business Pyramide fand ich interessant. Leider ist das Buch ziemlich komprimiert geschrieben. Neben allgemein bekanntem Wissen stehen Formulierungen, die wohl eher für BWL-affine Leser verständlich sind.
     
    Kapitel 4 - Aufbau der Web-Präsenz
     
    Im Kapitel "Aufbau der Webpräsenz" werden Hinweise zur Gestaltung einer Web-Präsenz gegeben. Hier geht es nicht darum, wie so etwas technisch umgesetzt wird, sondern um Dinge wie Zielgruppenausrichtung, Corporate Identity, Arten der Führung durch die Seite und verschiedene Arten der inhaltlichen Ausrichtung. Die vermittelten Begrifflichkeiten fand ich zum Teil nützlich und interessant. Auch diese Kapitel waren aber für meinen Geschmack sehr dicht geschrieben. Von einem langsameren und expliziteren Vorgehen mit mehr Fallbeispielen hätte ich als Leser profitiert. Schlagworte dieses Kapitel sind z.B. der Primacy-Effekt oder der Halo-Effekt.
     
    Die restlichen Kapitel
     
    Die restlichen Kapitel "Verkauf im Web-Business", "Vertrieb im Web-Business", "Marketing im Web-Business" und "Potentiale im Web-Business" nehmen immer wieder Bezug auf das Modell Web-Business Pyramide. Das ist gut. Leider sind auch sie recht dicht geschrieben. Von Kapitel zu Kapitel werden oft ähnliche Konzepte wiederholt, wobei sich der Blickwinkel ändert. Das ist an sich kein schlechtes didaktisches Konzept. Leider wirkt die Umsetzung auf mich eher repetitiv und kann die gedrängte Darstellung innerhalb der Kapitel nicht ausgleichen.
     
    Insgesamt lässt mich das Lehrbuch unbefriedigt zurück. Viele Themen werden mir zu knapp vorgestellt. Natürlich wäre es empfehlenswert, eigenständig weitere Fachliteratur zu lesen, auf die im Lehrbuch auch verwiesen wird. Aber die Darstellung ist hier z.T. so knapp, dass es zumindest mir schwer fällt, zu erkennen, welche der angegebenen Quellen für mich lesenswert wären. Vielleicht macht sich hier bemerkbar, dass dies ein Lehrbuch für Studierende aus dem Studiengang Wirtschaftsinformatik ist, denen eine betriebswirtschaftliche Perspektive vertrauter ist.
     
    Sehr gut gefallen hat mir, dass im ersten Kapitel eine Einordnung in einen weiteren gesellschaftlichen und historischen Kontext versucht wurde. So etwas würde ich mir auch von anderen Autoren und in anderen Modulen wünschen.
     
    Tests und Aufgaben
     
    Die Tests waren für mich zum Teil hilfreich, mein Verständnis des Stoffes zu entwickeln. Leider waren die Lösungen spärlich kommentiert, so dass mir bei einem Fehler nicht immer klar war, warum ich falsch gelegen hatte. Mittlerweile halte ich kommentierte Testergebnisse für wünschenswert, auch wenn manche Autoren der Ansicht sind, unkommentierte Lösungen seien förderlicher für eigenständiges Denken. In einer Lehrveranstaltung würde ein Dozent zwischendurch Fragen stellen. Die Antworten würde er üblicherweise nicht nur mir "richtig" oder "falsch" bewerten, sondern inhaltlich darauf eingehen. Diese Art von Interaktion in einer Vorlesung fehlt im Fernstudium. Tests mit Verständnisfragen zum Stoff könnten die Nachfrage des Dozenten simulieren, gut kommentierte Lösungen seine Rückmeldungen.
     
    Die Aufgaben zielten mir zu sehr auf Reproduktion des Stoffes, z.B. durch Erklären von Konzepten und Begrifflichkeiten. Ein gewisser Transfer kam dadurch ins Spiel, dass man immer wieder konkrete Beispiele nennen sollte. Da konnte man dann auf bekannte Web-Präsenzen verweisen, auf denen dieses oder jenes Prinzip (hoffentlich gut) umgesetzt ist. Im Vergleich zu Modulen der Softwaretechnik oder Programmiermodulen kam mir aber hier das aktive Problemlösen zu kurz.
     
    Präsenzklausur
     
    Die Präsenzklausur war gutmütig gestellt, weil sich Art und Inhalte der Aufgaben z.T. recht eng an den Einsendeaufgaben orientierten. Wer alle Aufgaben macht und die erhaltenen Rückmeldungen verwertet, sollte gut vorbereitet sein.
     
    Fazit
     
    Dieses Modul wäre für meinen Studiengang nicht zwingend gewesen. Ich habe es belegt, um meine eher technische Sicht auf Web-Anwendungen um eine betriebswirtschaftliche Perspektive zu ergänzen. Das Modul ordnet viele Phänomene in einen begrifflichen Rahmen ein, die eigentlich jedem Nutzer des Webs bekannt sein sollten. Daher meine ich, man hätte an einigen Stellen tiefer schürfen dürfen. Nicht gut zurechtgekommen bin ich mit der sehr dichten Darstellung. Mehr Seiten hätte man z.B. nutzen können, um Aussagen durch mehr Fallbeispiele zu verdeutlichen. Interessant wäre z.B. gewesen, bei mehr Themen mehrere Web-Präsenzen gegenüber zu stellen und diese zu vergleichen. So etwas wäre auch eine schöne Einsendeaufgabe gewesen.
     
    Die Aufgaben hätten stärker den Aspekt Wissenstransfer und Problemlösung betonen dürfen. Statt bestimmte Prinzipien zu beschreiben und zu erklären, hätte man doch auch Konzepte für Web-Präsenzen entwickeln können, in denen sie umgesetzt werden. Aufgaben dieser Art gab es z.B. im Modul "Web-Design und -Ergonomie". Rückblickend betrachtet würde ich mich heute lieber für ein anderes Wahlpflichtmodul entscheiden, z.B. für das technischere Modul "ERP-Systeme".
     
    Gleichwohl bin ich nach diesem Modul nun "scheinfrei" und das ist natürlich ein schönes Gefühl. Weitere Module werde ich in diesem Blog nicht mehr vorstellen.
     
    Für diejenigen Leser, die sich für den Studiengang "Wirtschaftsinformatik" bei Springer Campus interessieren: Mein Blog deckt zwar recht viele Pflichtmodule dieses Studiengangs ab, aber es fehlen auch einige:
    - Grundlagen BWL
    - Strategisches Mangement und Controlling
    - Human Resources
    - Grundlagen Wirtschaftsinformatik
    - ERP-Systeme
     
    Vielleicht werden diese Lücken einmal von anderen Bloggern geschlossen.
     
    An diesem Punkt meines Studiums blicke ich nun zurück auf insgesamt 39 Präsenz-Klausuren und ähnlich viele Online-Abschlussklausuren und -Tests, auf hunderte Einsendeaufgaben und eine in jedem Fall vierstellige Zahl von Online-Tests. Ich bin nun froh, diesen Abschnitt meines Studiums hinter mir zu lassen. Ab nächste Woche werde ich mich auf meine Bachelorarbeit konzentrieren. Nun heißt es, "ohne Stützräder fahren" und "selbst die Balance halten", auch wenn im Hintergrund noch jemand steht, der meine Fahrversuche kritisch beobachtet und begleitet.
  13. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "IT-Projektmanagement" ist ein Pflichtmodul im Studiengang "B.Sc. Wirtschaftsinformatik" und wird dort auch dem Studienbereich Wirtschaftsinformatik zugerechnet. Vorgesehen ist es für das 4. Fachsemester. Formale Zugangsvoraussetzungen gibt es keine. Als inhaltliche Vorbereitung werden die Module "Geschäftsprozessmanagement" und "Software-Management 2" empfohlen. Ich meine, man könnte das Modul auch ohne diese Vorbereitung belegen. Web- und Medieninformatiker können dieses Modul im Wahlpflichtbereich belegen. Es gibt auch einen besonderen Anreiz, gerade dieses Modul zu wählen: Es ist Pflichtmodul für die Hochschulzertifikate "Requirements Engineer" und "Software-Manager".
     
    Persönliche Motivation
     
    Da ich Web- und Medieninformatik studiere, hätte ich dieses Modul nicht unbedingt belegen müssen. Nun war mir das Pflichtmodul "Software-Management 1" nicht leicht gefallen und auch die Klausur hätte besser laufen können. Darum hoffte ich, fachlich davon profitieren zu können, mich dem Thema Software-Management noch einmal aus einer anderen Perspektive zu nähern.
     
    Zum Lehrbuch
     
    Das Buch "Management von IT-Projekten" ist von Hans W. Wieczorrek und Peter Mertens. Es ist ein gebundenes Hardcover vom Springer Verlag aus der Serie Xpert.press. Im Modul verwendet wird die 4. Auflage von 2011. Sie hat einen Umfang von ca. 450 Seiten. Ich hatte das Glück, dass einer der Autoren mich als Tutor betreute.
     
    Das Buch behandelt sein Thema umfassend und aus vielen unterschiedlichen Perspektiven. In Kapitel 2 werden Grundbegriffe des Projektmanagements geklärt, Projektarten vorgestellt und Erfolgsfaktoren des Projektmanagements identifiziert. Kapitel 3 beschäftigt sich mit dem institutionellen Management von IT-Projekten. Hier geht es z.B. um Vor- und Nachteile verschiedener Projektorganisationsformen und auch um die Aufbauorganisation von Projekten. Schon nach diesen zwei Kapiteln wird deutlich, dass das Modul gegenüber dem Modul "Software-Management 1" eine stärker betriebswirtschaftliche Perspektive einnimmt. Ich finde, auch die Praxis bekommt ein etwas stärkeres Gewicht als im Lehrbuch von Herrn Balzert, dass dafür mehr Aufwand bei der scharfen Definition von Begriffen treibt.
     
    Kapitel 4 beschäftigt sich mit dem Vorgehen in IT-Projekten. Es geht um die Phasen der Projektinitialisierung und Projektdefinition. Dann geht es um mögliche Vorgehensmodelle, wobei auch agile Modelle eine Rolle spielen. Auch das Thema Prototyping wird behandelt. Insgesamt gibt es hier viel inhaltliche Überlappung mit dem Modul "Software-Management 1". Aber die Kapitel scheinen stärker aus der Perspektive der Praxis geschrieben zu sein. Mit dem Vorwissen aus dem Lehrbuch von Herrn Balzert war der präsentierte Stoff für mich gut lesbar. Ich hatte das Gefühl, hier viele Dinge noch einmal anders zu verstehen als beim ersten Anlauf. Insofern hatte ich schon hier den Eindruck, dass die Bearbeitung dieses Moduls sich für mich lohnte.
     
    Dem agilen Projektmanagement ist das Kapitel 5 gewidmet. Hier geht es unter anderem um das agile Manifest und Prinzipien agiler Entwicklung, aber auch um Voraussetzungen für den Einsatz agiler Modelle.
     
    Die Kapitel 6 und 7 beschäftigen sich mit der Planung von IT-Projekten und Techniken der Projektplanung. Projektmanagment wird als Regelkreis vorgestellt und Schritte und Phasen der Planung werden beschrieben. Neben der Listentechnik und den vielen bekannten Gantt-Diagrammen werden vor allem CPM-Netzpläne beschrieben, die auf der Graphentheorie basieren. Die Erstellung solcher Netzpläne sollte man für die Online-Klausur üben.
     
    Recht interessant war für mich das Kapitel zur Führung in IT-Projekten, wo es z.B. um soziologische Führungsmittel ging. Hier gab es z.T. sehr konkrete Hinweise, wie ein fairer Umgang mit Mitarbeitern aussehen müsste. Auch Themen wie Budgetierung, Steuerung und Controlling wurden behandelt.
     
    Für mich weniger zugänglich war das Kapitel 9 zur Aufwandsschätzung in IT-Projekten. Hier wurden verschiedene Methoden knapp vorgestellt. Es schafft somit einen Überblick. Leider wird nicht für alle Verfahren anschaulich gezeigt, wie sie im einzelnen funktionieren. Dass allerdings hätte den Umfang des Lehrbuches auch stark erhöht. Viele Schätzungen basieren auf dem Vergleich neuer Projekte (mit bislang unbekannten Kosten) mit abgeschlossenen Projekten (mit bekannten Kosten). Das setzt natürlich voraus, dass Projekte ordentlich dokumentiert und ausgewertet werden.
     
    Im Kapitel 10 geht es um die Wirtschaftlichkeit von IT-Projekten. Hier war mir das Tempo oft zu hoch. Es wird deutlich, dass die Autoren sich in einem betriebswirtschaftlichen Umfeld gut auskennen. Dabei setzen sie möglicherweise Begrifflichkeiten als allgemein bekannt voraus, die zumindest mir durchaus unklar waren. So habe ich zum Beispiel anhand der Ausführungen nicht begreifen können, was die Kapitalwertmethode ist. Allerdings war mein Tutor auf Nachfrage gerne bereit, mir dafür zusätzliches Übungsmaterial zur Verfügung zu stellen. Allgemein kann ich sehr empfehlen, Kontakt zu den Tutoren herzustellen und zu halten und sie als Ansprechpartner bei fachlichen Schwierigkeiten zu nutzen.
     
    Kapitel 11 gibt Tipps und Tricks für Leiter von IT-Projekten. Die folgenden Kapitel behandeln Subsysteme des Projektmanagements, Projektpolitik und stellen einen Rahmen für das Projektmanagement vor. Den Abschluss bildet, wie so oft bei Springer Campus, eine Fallstudie, die für meinen Geschmack noch ein bisschen mehr Raum hätte einnehmen dürfen.
     
    Insgesamt fand ich das Lehrbuch gut lesbar und praxisnah geschrieben. Obwohl ich bislang nicht im IT-Bereich arbeite, konnte ich einige Analogien zu Situationen in meinem beruflichen Alltag herstellen und so viele Ausführungen besser nachvollziehen. Die Materie an sich ist durchaus trocken, aber die Autoren behandeln den Stoff auf eine praxisorientierte Weise. Insgesamt habe ich von der Lektüre profitiert. Vieles, was ich beim Lesen des Lehrbuches von Herrn Balzert recht mühsam verstanden habe, fiel mir hier leichter. Das mag zum Teil an der inhaltlichen Überlappung liegen, aber ich glaube, dass Texthandwerk der Autoren leistet auch einen wichtigen Beitrag dazu.
     
    Tests und Einsendeaufgaben
     
    Die Tests habe ich selten auf Anhieb richtig lösen können. Gut gefallen hat mir, dass sie umfangreich kommentiert sind. So habe ich stets nachvollziehen können, warum meine erste Lösung falsch war. Oft habe ich gerade durch meine Fehler neue Einsichten in den Stoff gewonnen. Die Tests waren auf den Stoff der Kapitel bezogen und ergänzten ihn in sinnvoller Weise.
     
    Die Einsendeaufgaben zielten meist auf Reproduktion des Stoffes und waren somit relativ leicht lösbar. Hier hätte ich mir mehr Aufgaben gewünscht, die auf Anwendung abzielen und Transferleistungen beinhalten, denn das spielt in der Online-Klausur und in der Präsenzklausur natürlich eine Rolle.
     
    Die Rückmeldungen meines Tutors kamen zügig und waren konkret und hilfreich. Auf Nachfrage verwies mein Tutor auch auf zusätzliches Material, um z.B. das Erstellen von CPM-Netzplänen zu üben. Das erwies sich als sinnvoll und nützlich, denn erst in der Anwendung merkt man, ob man den Stoff verstanden hat. Allerdings hielte ich es deswegen für wünschenswert, wenn auch einige Einsendeaufgaben stärker auf Anwendung und Transfer abzielten.
     
    Online-Test und Online-Klausur
     
    Der Online-Test fiel mir recht leicht und passte gut zu den Aufgaben, die ich zuvor geübt hatte. Es war gut, dass ich zuvor mit zusätzlichem Material geübt hatte, auf das mich mein Tutor verwiesen hatte. Ich empfehle hier allen Studierenden, Kontakt mit dem Tutor zu suchen und auch konkret nachzufragen, wie und womit man üben kann. Es gibt im Netz viel Material, das frei zugänglich ist. Aber wenn man nicht im Dialog bleibt, entgeht einem womöglich die Chance, sich bestmöglich vorzubereiten. Leicht denkt man nach Lektüre der Kapitel, dass man alles verstanden hat und auch anwenden kann. Aber das kann trügerisch sein.
     
    Präsenzklausur
     
    Die Präsenzklausur lief für mich leider nicht gut. Die ersten Aufgaben fielen mir zwar leicht und ich konnte sie in weniger als der Hälfte der Zeit bearbeiten. Aber die letzte Aufgabe machte 40% der Punkte aus und war umfangreicher. Und ausgerechnet hier gelang es mir nicht, die Aufgabenstellung zu verstehen und die enthaltenen Hinweise zu verwerten. Am Ende war ich überzeugt, hier keinen einzigen Punkt erzielen zu können. So habe mich entschieden, alle bearbeiteten Aufgaben durchzustreichen, um mit null Punkten durchzufallen und einen neuen Anlauf nehmen zu können.
     
    Ursprung meiner Schwierigkeiten war ein Missverständnis. Ich hatte eine Auflistung von Werten falsch gelesen und so jeweils zwei durch ein Komma getrennte Werte als einen einzigen Wert mit Nachkommastellen aufgefasst, der dann völlig unrealistisch war. Leider waren diese Werte grundlegend für alle folgenden Arbeitsschritte. Offenbar war ich dann so aufgeregt, dass ich eine Art Tunnelblick entwickelt habe. Ich habe eine Stunde lang immer nervöser nach einer Möglichkeit gesucht, mit den unsinnigen Werten zu rechnen oder irgendeine sinnvolle Erklärung dafür zu finden. Ärgerlich daran ist, dass auch die letzte Aufgabe gut machbar gewesen wäre.
     
    An dieser Stelle zeigte sich wieder einmal der Wert einer guten tutoriellen Betreuung. Ich habe zu Hause umgehend meinen Tutor kontaktiert, weil ich zu diesem Zeitpunkt noch nicht verstanden hatte, was eigentlich schiefgelaufen war. Dementsprechend verunsichert war ich, auch im Hinblick auf eine Wiederholungsprüfung. Mein Tutor hat sehr umgehend reagiert und mit seiner Hilfe konnte ich verstehen und für mich reflektieren, was eigentlich passiert war. Für Außenstehende dürfte offensichtlich sein, dass ich dieses Mal die Nerven verloren hatte. Mir selbst war das zunächst gar nicht klar. Dies war meine 38. Klausur im Studiengang und bislang hatte ich unter Stress immer gut funktioniert und bis zum Schluss einer Klausur lösungsorientiert weiterarbeiten können. Möglicherweise habe ich mich wegen der stärker betriebswirtschaftlichen Perspektive des Moduls und dem Management-Fokus unsicher gefühlt.
     
    Jedenfalls habe ich mich nach der Klärung mit meinem Tutor wieder beruhigen und das Geschehene für mich einordnen können. Ich plane nun, einfach das nächste Modul zu bearbeiten und beim nächsten Klausurtermin die Wiederholungsklausur zu schreiben. Eigentlich sollte das klappen.
     
    Fazit
     
    Ursprüngliche Motivation für die Belegung dieses Moduls war, das Thema Software-Management noch einmal in den Blick zu nehmen. Und zwar nicht, weil ich mich für eine Tätigkeit mit diesem Schwerpunkt interessiere. Sondern eher, um die Perspektive eines Projektmanagers auf den Gesamtprozess besser verstehen zu können, auch wenn ich selbst lieber umsetzend als planend und führend tätig werden möchte. In meinem Arbeitsbereich habe ich die Erfahrung gemacht, dass ein wenigstens rudimentäres Verständnis für die Aufgaben des Managements die Kommunikation am Arbeitsplatz verbessert. In dieser Hinsicht hat sich das Modul für mich gelohnt. Das liegt in erster Linie am verständlich geschriebenen Lehrbuch und an der guten tutoriellen Betreuung.
     
    Obwohl das Projektmangement im Softwarebereich einige Besonderheiten hat, meine ich, dass ich einige Einsichten auch auf meinen gegenwärtigen Arbeitsbereich übertragen kann, der nichts mit IT zu tun hat. Möglichkeit zur Verbesserung sehe ich bei den Einsendeaufgaben. Diese könnte man um zwei bis drei komplexere Aufgaben ergänzen, die mehr Transfer und Anwendung erfordern.
     
    Um das Modul abschließen zu können, muss ich nun noch die Wiederholungsklausur bestehen. Ich werde hier im Blog berichten. Ich glaube, für meine persönliche Entwicklung ist es gar nicht schlecht, dass ich auch mal eine Klausur nicht bestanden habe. Mein Umgang damit war zunächst alles andere als gelassen. Für die Zukunft denke ich, dass ich an meiner Fähigkeit arbeiten muss, Rückschläge zu verdauen und mich bei eigenen Fehlern nicht gleich in Frage zu stellen. Das Phänomen, aus dem "kognitiven Tunnel" nicht mehr herauszufinden, ist auf jeden Fall Aufmerksamkeit und Reflexion wert. So etwas könnte ja auch in anderen Zusammenhängen passieren. Die nächste Chance, es besser zu machen, kommt Mitte März.
  14. kurtchen
    Das Modul IT-Recht ist bei Springer Campus ein Pflichtmodul in den beiden Studiengängen Web- und Medieninformatik sowie Wirtschaftsinformatik. Laut Studienplan ist es für das erste Fachsemester vorgesehen. IT-Recht ist außerdem ein Pflichtmodul der wissenschaftlichen Weiterbildung "Software-Manager".
     
    Ich bin im Studium schon recht weit fortgeschritten und habe das Modul im ersten Semester nicht belegt, weil ich erst einmal schauen wollte, ob ich mit Fächern wie Mathematik oder Programmierung zurecht kommen würde. Die Beschäftigung mit Recht kannte ich ein bisschen aus meiner Ausbildung. Dort ging es zwar um ganz andere Gebiete des Rechts, aber immerhin habe ich damals den Eindruck gewonnen, dass ich mich mit solchen Fragen auseinandersetzen kann, auch wenn es mich nicht unbedingt brennend interessiert. Insofern habe ich die Belegung dieses Modul anfangs vertagt und es später irgendwie aus den Augen verloren. Jetzt, im letzten Abschnitt meines Studiums, war mir aufgefallen: "Da fehlt doch noch ein Pflichtmodul!"
     
    Also war das Thema jetzt einfach "dran".
     
    Das Lehrbuch
     
    Das Buch "IT-Recht" von Axel Sodtalbers, Christian Volkmann und Andreas Heise liegt mir in einer Auflage von 2010 vor. Sein Umfang ist mit 315 Seiten für ein Lehrbuch bei Springer Campus etwas unterdurchschnittlich. Gegliedert ist das Buch in drei Teile. Zunächst geht es um Softwarerecht, dann E-Commerce-Recht und schließlich Datenschutzrecht. Gerade beim letzten Thema hat es ja mit der DSGVO viele Neuerungen gegeben. So viel sei vorweg genommen: Acht Jahre sind speziell bei diesem Thema eine lange Zeit. Dieser Teil des Lehrbuches müsste inhaltlich dringend überarbeitet werden.
     
    Teil 1 - Softwarerecht
     
    Dieser Teil beginnt mit dem Thema Urheberrecht. Es geht darum, wer überhaupt Urheber ist, wie man einer wird und wieso Software unter das Urheberrecht fällt (aber z.B. das Design einer Blumenvase im allgemeinen nicht). Auch die Themen Patentrecht und Halbleiterschutz werden angerissen. Bei Software sind gegenüber anderen geistigen Schöpfungen wie z.B. einem Roman ein paar Besonderheiten zu beachten. Zum einen wird Software von Entwicklern meist im Rahmen eines Dienst- oder Arbeitsverhältnisses erstellt. Die Entwickler sind dann zwar Urheber, aber das Recht zur wirtschaftlichen Verwertung ihrer Schöpfung hat ihr Arbeitgeber. Zum anderen wird Software heute überwiegend in Teams entwickelt. Das gilt schon für kleine Independent Games. Die Zeiten, in denen ein pfiffiger Programmierer im Alleingang einen großen Spielehit oder eine revolutionäre neue Office-Anwendung entwickeln konnte, liegen eine Weile zurück. Es gibt also meistens viele Miturheber.
     
    Software wird programmiert, weil man sie nutzen und verwerten möchte. Dazu werden Verträge geschlossen. Insofern spielt das Vertragsrecht eine wichtige Rolle. Interessant war für mich, dass auch bei Individualsoftware im allgemeinen ein Kaufvertrag und nicht etwa ein Werkvertrag zustande kommt. Wenn man etwas verkauft, so unterliegt man der Gewährleistung. Wenn man möchte, kann man durch einen zusätzlich geschlossenen Vertrag darüber hinaus gehende Garantien geben. Kaufverträge enthalten oft AGBs, die jedoch - wenn sie schlecht verfasst sind - unwirksam sein können. Es ist juristisch schwierig, insbesondere die Rechte von Verbrauchern durch ABGs wirksam einzuschränken.
     
    Alle diese Themen sind eigentlich allgemeines Recht. Verwiesen wird im Lehrbuch vor allem auf das BGB. Das ist allerdings ein Aspekt des Kurses, der mir gut gefallen hat. Vieles im IT-Recht ist zunächst einmal allgemeines Recht, das in einem speziellen Kontext angewendet wird. In manchen Fällen hat dieser Kontext starke Auswirkungen, in anderen nicht. Jedenfalls lernt man in diesem Lehrbuch durchaus ein paar Dinge, über die man als Bürger und Verbraucher ohnehin informiert sein sollte. (Aber leider oft nicht ist!) Insofern ist dies zwar ein Modul für Informatiker, es hat aber eine gewisse allgemeinbildende Komponente. So etwas schätze ich sehr.
     
    Die Fallbeispiele und Übungsaufgaben sind in der Regel in einem IT-Kontext angesiedelt. Meist zielen die Aufgaben darauf ab, zu zeigen, welches allgemeine Recht hier Anwendung findet. Neben der reinen Aufzählung wird dabei natürlich auch eine Begründung und eine Abwägung erwartet.
     
     
    Dieses Zitat wird dem US-Journalisten Dan Rather zugeschrieben. Software erledigt in der Regel routinemäßig anfallende Tätigkeiten automatisiert. Das hat eine unangenehme Folge. Arbeitet sie fehlerhaft, wird der Fehler oft tausendfach wiederholt, was den Schaden in die Höhe treibt. Software wird auch in sicherheitskritischen Bereichen eingesetzt. Zur Steuerung medizinischer Geräte oder zur Steuerung von Maschinen, von denen eine erhebliche Unfallgefahr ausgeht. Insofern ist der Bereich Haftung bei Softwarefehlern für die Hersteller sehr wichtig. Hier ist zu beachten, dass man insbesondere bei Schäden für Leib und Leben die Haftung nicht grundsätzlich durch einen Vertrag ausschließen kann. Und der Hersteller einer Software haftet nicht nur gegenüber seinen Kunden, mit denen er einen Vertrag hat, sondern um Umständen auch gegenüber Dritten, die durch einen Fehler seiner Software geschädigt wurden. Mit neuen Anwendungen wie dem autonomen Fahren wird dieses Thema sicher noch drängender werden. Das autonome Fahren ist übrigens bereits Teil einer Übungsaufgabe, wenn auch im Zusammenhang mit einer Straßenbahn und nicht mit einem Auto.
     
    Bleibt noch der für mich besonders spannende Bereich der Open Source Software. Hier geht es darum, verschiedene Arten von Open Source Lizenzen zu unterscheiden. Wer quelloffenen Code in einem eigenen Produkt verwendet muss je nach Lizenz unterschiedliche Dinge beachten. Gut, sich einmal mit so etwas zu beschäftigen.
     
    Dieser erste Teil des Moduls hat mir insgesamt gut gefallen. Ich konnte dem Text gut folgen, fand die Fallbeispiele nachvollziehbar und gut ausgewählt. Tests und Übungsaufgaben erschienen mir gut darauf abgestimmt.
     
    Teil 2 - E-Commerce-Recht
     
    In diesem Teil ging es zunächst noch einmal um das Vertragsrecht, diesmal im Zusammenhang mit E-Commerce. Der Gesetzgeber berücksichtigt, dass Kunden im Zusammenhang mit dem Online-Handel weniger Möglichkeiten haben, Ware vor Abschluss eines Vertrages zu prüfen und sich ein Bild vom Verkäufer einer Sache zu machen. Darum hat der Gesetzgeber mit dem Fernabsatzgesetz und dem Telemediengesetz dem Käufer zusätzliche Rechte verschafft und den Verkäufern und Anbietern umfangreiche Informationspflichten auferlegt. Da heute praktisch jeder Waren im Internet bestellt, dürfte dieses Kapitel für jeden relevant und interessant sein.
     
    Im nächsten Abschnitt geht es um Urheberrecht im Internet. Hier dreht es sich um Themen wie Schutz des Designs einer Webseite, Raubkopien geschützer Inhalte aber auch um das Recht auf Privatkopie. Neben dem Urheberrecht spielt bei Webinhalten auch das Markenrecht, das Domainrecht und das Wettbewerbsrecht eine Rolle. Hier landet man schnell bei einem ungeliebten aber wichtigen Thema: "Was gehört in ein Impressum?"
     
    Bei allem Ärger über den Abmahnirrsinn versteht man nach diesen Kapiteln immerhin etwas besser, was die grundlegende Idee hinter den einschlägigen und oft lästig erscheinenden Gesetzen ist.
     
    Recht spannend ist das Thema der Verantwortlichkeit im Internet, insbesondere wenn es um Inhalte geht, die Rechte verletzen. Das spielt ja auch hier im Forum eine Rolle. So ist zum Beispiel unser Forumsbetreiber Herr Jung als Access-Provider rechtlich nicht verpflichtet, jeden Post VOR seiner Veröffentlichung auf Rechtsverletzungen hin zu überprüfen. Das entbindet ihn aber nicht von seiner Pflicht, entsprechende Inhalte bei Bekanntwerden eines Rechtsverstoßes zu entfernen. Es gibt hier im Forum ja einige Regeln, die Teilnehmer zu beachten haben. Insbesondere gibt es auch Konsequenzen, wenn Regeln nicht eingehalten werden. Dies dient natürlich zum Teil auch dazu, eine gewisse "Forumskultur" zu erhalten. Fernstudium-Infos soll ja einerseits themenbezogen bleiben und andererseits sollen sich Nutzer auch wohl fühlen können. Aber ein Teil der Regeln und Konsequenzen dürfte eben auch damit zu tun haben, dass Herr Jung als Forumsbetreiber nicht für Rechtsverstöße seiner Nutzer haften möchte. Das entsprechende Kapitel im Lehrbuch schafft ein erstes Bewusstsein für diese Problematik.
    Kurz gestreift werden Fälle mit Berührung zum Ausland, was ja beim Anbieten von Waren, Leistungen und Inhalten im Netz häufig der Fall ist.
     
    Bis hierhin gefielen mir Lehrbuch, Tests und Aufgaben ausgesprochen gut. Stellenweise bemerkte ich bei meinen Recherchen zu Einsendeaufgaben, dass manche Gesetze und Verordnungen inzwischen durch neuere ersetzt waren. Das betrifft zum Beispiel weite Teile der BGB-InfoV, die inzwischen durch das EGBGB abgelöst wurde und eigentlich nur noch für Reiseverträge relevant ist. Das finde ich aber gar nicht schlimm. Recht ist ein menschliches Artefakt. Es entwickelt sich durch Gesetzgebung und Rechtsprechung. Schadet gar nicht, wenn man das als Studierender beim Bearbeiten eines Moduls in angemessener Dosierung zu schmecken bekommt.
     
    Teil 3 - Datenschutzrecht
     
    Leider finde ich die Dosierung im letzten Teil des Buches nicht mehr angemessen. In den letzten Wochen und Monaten hat vermutlich jeder Leser an seinem Mail-Eingang gemerkt: Die DSGVO ist in Kraft getreten und bringt z.B. neue Informationspflichten mit sich. Leider spielt sie im Lehrbuch keine Rolle. Ich versuche zunächst mal, diesem letzten Teil des Kurses etwas positives abzugewinnen, was durchaus gelingt.
     
    Geklärt werden zunächst einmal verschiedene Begrifflichkeiten im Zusammenhang mit Datenschutz, die als konzeptionelle Grundlage nicht verkehrt sind. Insbesondere begreift man bei Lektüre der Kapitel schnell: Nach bisherigem Datenschutzrecht sind eigentlich formulierte Ansprüche wie Auskunft über gespeicherte Daten, Löschung, Sperrung oder auch Berichtigung von falschen Daten für einen Betroffenen praktisch nur selten durchzusetzen. Das liegt daran, dass die bisherigen Datenschutzgesetze viele Ausnahmen formulierten. Tatsächlich fiel es mir beim Lesen der Gesetze oft schwer, unter den ganzen Ausnahmen auch noch meine Rechte zu entdecken. Insofern kann man sagen: Der bestehende Datenschutz ließ zu wünschen übrig. Und das, obwohl sich mit dem Internet die Möglichkeiten der missbräuchlichen Nutzung von Daten potenziert haben. Dafür schafft das Kapitel also ein Bewusstsein.
     
    Nun hätte ich gerne gewusst, ob das alles mit der DSGVO aus Betroffenensicht besser wird. Immerhin haben ja Firmen, Vereine und öffentliche Einrichtungen viel Arbeit damit, die neuen Regeln umzusetzen. Steht dem auch ein Nutzen für mich gegenüber? In diesem Modul erfährt man es leider nicht. Dafür ist es zu alt.
     
    Immerhin glaube ich, nach der Lektüre dieses Kursteils begrifflich besser gerüstet zu sein, Texte zur DSGVO zu lesen und zu verstehen. Das ist zwar auch ein Ergebnis, aber insgesamt finde ich das bei diesem Thema zu wenig. Insofern wäre es dringend Zeit, dass Lehrbuch in diesem Punkt auf einen aktuellen Stand zu bringen. Denkbar wäre auch, entsprechende Kapitel zumindest auf der Online-Plattform zügig nachzurüsten.
     
    Ob es entsprechende Pläne gibt, weiß ich nicht. Aber stünde ich noch am Anfang meines Studiums, würde ich mich vor Belegung des Modul einmal danach erkundigen. Um dann gegebenenfalls die Belegung noch zu verschieben.
     
    Tests, Einsendeaufgaben und Online-Klausur
     
    Über die tutorielle Betreuung kann ich mich nicht beschweren. Die Korrekturen kamen sehr zügig, auch bei der Online-Klausur. Die Tests haben für mich viele unklare Punkte noch einmal ausgeleuchtet. Die Einsendeaufgaben gefielen mir gut, auch und gerade im Hinblick auf die Präsenzklausur. Den Abschlusstest fand ich zu leicht bzw. nicht umfangreich genug. In der zur Verfügung stehenden Zeit hätte man durchaus etwas mehr verlangen dürfen, zumal diese Tests ja automatisch ausgewertet werden, also keinen Korrekturaufwand verursachen. Gut gefallen hat mir dagegen die Online-Klausur, weil die Aufgaben das gesamte Modul gut abdeckten und die Themen zum Teil auch vernetzten. Die Online-Klausur gibt auch in diesem Modul einen Vorgeschmack auf Art und Umfang der Aufgaben in der Präsenzklausur, ohne dieser vorzugreifen. So sollte es sein.
     
    Präsenzklausur
     
    Ob ich bei der Präsenzklausur auch geliefert habe, wird sich zeigen müssen. Im Vergleich zu den Einsendeaufgaben gab es nämlich einen großen Unterschied: Bei den Einsendeaufgaben konnte ich im Internet nach Gesetzen suchen und mir auch Kommentare oder Urteile durchlesen. Das half dabei, die Fallbeispiele zu beurteilen. Das ging in der Klausur natürlich nicht. Dort war ich auf das angewiesen, was mir auf Papier zur Verfügung stand. Interessant fand ich, dass das Thema Datenschutz keine große Rolle spielte. Vielleicht wird ja auf diese Weise berücksichtigt, dass die entsprechenden Kapitel im Lehrbuch nicht mehr aktuell sind. Ansonsten deckten die Aufgaben den Stoff sehr breit ab. Viele Aufgaben verbanden auch den Stoff verschiedener Kapitel im Lehrbuch. Es hat mir gut gefallen, dass so unterschiedliche Gesichtspunkte zu berücksichtigen waren. Insgesamt war es eine Klausur, die durchaus auch ein bisschen Spaß gemacht hat.
     
    Fazit
     
    Insgesamt bin ich nun aber froh, mein letztes Pflichtmodul einer schriftlichen Prüfung abgehakt zu haben. Es hat mir mit Sicherheit nicht geschadet, mich wieder einmal mit dem Thema Recht zu beschäftigen, aber Neigung und Interesse richten sich bei mir dann doch auf andere Dinge. Insbesondere sitzt mir das Thema Projektarbeit um Nacken. Hier muss ich nun rasche Fortschritte machen, um die gesetzte Abgabefrist auch einzuhalten. Habe ich einmal freie Zeit, so kreist mein Denken um mein Projekt und nicht so sehr um das Lehrbuch des nächsten Moduls.
     
    Darum habe ich auch ein wenig abgewogen, ob ich mir die Zeit für einen umfangreichen Modulbericht nehmen sollte. Zwei Punkte haben mich dazu bewogen:
    Bislang habe ich für jedes Modul, das ich belegt habe, auch einen Bericht geschrieben. Vor Aufnahme meines Studiums habe ich nach genau solchen Informationen gesucht und sie nicht gefunden. Das war für mich die wesentliche Motivation, diesen Blog anzufangen.
    Insofern habe mich entschieden, die Sache "durchzuziehen". Allzu viele Beiträge müssen es ja nun nicht mehr werden.
     
    Sollte ich IT-Recht bestanden haben, so bleiben mir tatsächlich nur noch 2 Pflichtmodule: Das Projekt und die Bachelorarbeit. Ich befinde mich nun also im letzten Abschnitt meines Studiums, wo es nicht mehr um Aneignung von Wissen geht, sondern darum, dieses anzuwenden und eigenständig neue Themen zu erkunden. Darauf fühle ich mich durch mein bisheriges Studium tatsächlich vorbereitet und ich freue mich auch darauf.
  15. kurtchen
    Einbettung in den Studiengang
     
    Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt.
     
    Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden.
     
    Das Lehrbuch
     
    Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste.
     
    Multimedia wird im Buch aus drei Blickwinkeln betrachtet:
    Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind.  
    Kapitel: Bild
     
    Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen.
     
    Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert.
     
    Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht.
     
    Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht.
     
    Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können.
     
    Kapitel: Audio
     
    Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht.
     
    Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können.
     
    Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden.
     
    Kapitel: Video
     
    Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton.
     
    Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen.
     
    Kapitel: 2D-Animation mit Flash
     
    Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten.
     
    Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann.
     
    Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden.
     
    Kapitel: 3D-Animation mit VRML
     
    Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte.
    Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein.
     
    Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt.
    Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt.
     
    Kapitel: Einsatz dynamischer Medien
     
    Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind.
     
    Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel.
     
    Die Einsendeaufgaben
     
    Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen.
     
    Die Präsenzklausur
     
    Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben..
     
    Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt.
     
    Fazit
     
    Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden. 
    Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen.
     
    Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.
  16. kurtchen
    Das Modul "Präsentieren & Moderieren" wird in den IT-Studiengängen von Springer Campus dem Wahlkatalog 1 "Basiskompetenz Beruf" zugeordnet. Es gehört damit zu den Soft Skill-Modulen dieser Studiengänge. Andere Module aus diesem Katalog sind "Selbst- und Zeitmanagement", "Kreativitätstechniken", "Rhetorik" und "Soziale Kompetenz". Auch das Modul "Wissenschaftliches Arbeiten" gehörte in diese Gruppe, es ist aber inzwischen ein Pflichtmodul. Angehende Web- und Medieninformatiker wählen ein Soft Skill-Modul, die Wirtschaftsinformatiker zwei. Zu den Modulen "Rhetorik" und "Präsentieren & Moderieren" gehört aus naheliegenden Gründen eine mündliche Prüfung. Die Klausur fällt dafür nur einstündig aus.
     
    Normalerweise wählt man diese Module ganz zu Beginn des Studiums. Ich war mir unsicher, was ich hier belegen sollte, weil ich viele Themen interessant fand. Lediglich das Modul zu den Kreativitätstechniken hätte ich nicht belegen wollen, weil ich hier - bedingt durch meine Ausbildung - schon relativ viel kannte. Für das Modul Präsentieren habe ich mich entschieden, weil ich annahm, es sei eine gute Vorbereitung für die Präsentation der Bachelorarbeit. Die Entscheidung fiel gegenüber Rhetorik sehr knapp aus. Den Ausschlag für Präsentieren gab dann das Thema Umgang mit Präsentationsmedien, das im Modul Präsentieren natürlich stärker ausgeprägt ist. Rhetorik konzentriert sich stärker auf den mündlichen Vortrag und die Argumentation.
     
    Wer das Hochschulzertifikat "Requirements-Engineer" oder "Software-Manager" erwerben will, muss Präsentieren belegen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Moderieren, Präsentieren, Faszinieren" ist von Petra Motte. Es hat an die 300 Seiten und enthält viele Abbildungen, insbesondere in den Kapiteln zum Umgang mit Präsentationsmedien. Der Schreibstil unterscheidet sich natürlich deutlich von einem Informatik-Lehrbuch. Aber auch im Vergleich zum Modul Wissenschaftliches Arbeiten merkt man hier, dass man im Bereich der Soft Skills ist. Präsentation und Moderation haben viel mit der Person des Moderators zu tun, mit seiner Haltung, seiner Persönlichkeit, seinem Auftreten. Im wissenschaftlichen Arbeiten geht es stärker um etablierte Konventionen und Regeln. Das wirkt im Vergleich "faktisch". Beim Präsentieren geht es stärker darum, seine Persönlichkeit einzubringen, mit eigenen Stärken und Schwächen zu arbeiten. Das Buch ist daher im Vergleich zu einem Informatik-Lehrbuch eher in einem Tonfall verfasst, der den Leser persönlicher anspricht. Es zeigt eher Wege und Möglichkeiten auf als eine Handlungsanweisung vorzulegen.
     
    Deutlich wird dies zum Beispiel im Kapitel 3, in dem es um die Person des Moderators geht. Anhand von Photos (oder auf der Lernplattform auch kleinen Videos), werden Aspekte wie Körpersprache, Mimik und Gestik behandelt. Das Thema Umgang mit Lampenfieber spielt eine Rolle. Im Vergleich dazu geht es im Modul Wissenschaftliches Arbeiten stärker um das fachliche und die sachgerechte Aufbereitung der Inhalte. Hier steht mehr im Mittelpunkt, dass die Inhalte durch die Person des Präsentierenden zur Geltung kommen. Darum ist es sinnvoll, sich auch mit sich selbst und seiner eigenen Wirkung zu befassen.
     
    Im Kapitel 4 geht es um die Vorbereitung und Gliederung einer Präsentation. Hier geht es vor allem um einen gelungenen Spannungsbogen, der das Publikum weder über- noch unterfordert. Auch Themen wie Zeitmanagement und Umgang mit Störungen spielen eine Rolle. Die Perspektive ist stärker didaktisch. Im Vergleich zum Modul Wissenschaftliches Arbeiten wird hier stärker dem Umstand Rechnung getragen, dass Zuhörer eine begrenzte Aufnahmekapazität und Aufmerksamkeit haben. Sie können aus einem Vortrag aussteigen, wenn sie sich langweilen, ermüden oder sich überfordert fühlen. Diese Aspekte waren im Modul Wissenschaftliches Arbeiten weniger präsent als hier.
     
    Das recht ausführliche Kapitel 5 widmet sich den verschiedenen Präsentationsmedien. Nicht überraschend beginnt es mit der Bildschirmpräsenation oder dem, was man einen Beamer-Vortrag nennt. Hier geht es freilich nicht um konkrete Software-Produkte oder dem Umgang damit, auch wenn der Name PowerPoint fällt. Vielmehr geht es darum, die Vorzüge und Nachteile verschiedener Medien zu kennen und gegeneinander abzuwägen, um für jede Situation das geeignete Medium wählen zu können.
     
    Auch der vermeindlich altmodische Overhead-Projektor kommt vor, z.B. wegen der Möglichkeit Folien während des Vortrages zu bearbeiten. So etwas ist zwar heute auch mit digitalen Hilfsmitteln möglich, aber die Arbeit mit den Folienstiften hat eine hohe Unmittelbarkeit und ermöglicht zum Beispiel auch, Teilnehmer einzubeziehen, die im Umgang mit digitalen Medien wenig versiert und gehemmt sind.
     
    Noch unmittelbarer ist die Moderation mit einer Flipchart. Auch sie ermöglicht eine direkte Einbeziehung und Interaktion mit Teilnehmern, eignet sich allerdings eher für kleinere Gruppen. Mit dem Medium Whiteboard ist im Kapitel noch nicht das sogenannte interaktive Whiteboard sondern tatsächlich die weiße Tafel gemeint, die ebenfalls mit Folienstiften bemalt und mit Zetteln beklebt werden kann. Sie ist eher als Nachfolger der klassischen Kreidetafel zu sehen. Schließlich geht es um die Pinwand-Moderation, die ebenfalls viele Möglichkeiten zum aktiven Mitmachen und zur Arbeit in Kleingruppen bietet.
     
    Im Verlauf des Kapitels wird auch langsam ein Bogen zu Arbeitsformen geschlagen, bei denen nicht mehr der Vortrag des Moderators sondern die Beiträge der Teilnehmer im Mittelpunkt stehen. Auch wenn die mündliche Prüfung in diesem Modul ein Vortrag ist, hat es mir gut gefallen, dass hier interaktive Arbeitsformen mit Gruppen betont wurden, denn schließlich halten Informatiker nicht nur Fachvorträge.
     
    Das Kapitel 5 betont interaktive Methoden in der Moderation. Hier geht es um den Einsatz von Mind Maps, um Methoden des Brainstormings und Brainwritings und die Moderationsformen Open Space, World Café und Zukunftswerkstatt. Open Space ermöglicht es zum Beispiel, mit sehr großen Gruppen in einer Weise zu arbeiten, die den Austausch untereinander und das Sammeln fachlicher Beiträge der Teilnehmer unterstützt. Hier geht es nicht mehr darum, dass der Moderator als Wissender seinem Publikum Informationen vermittelt. Er soll vielmehr einen Austausch in Gang bringen, in dem die Teilnehmer ihr eigenes Wissen teilen und miteinander in Kommunikation kommen. Die Teilnehmer werden also eher zu Teilgebern. Sie und nicht der Moderator präsentieren Ergebnisse ihrer Arbeit in Kleingruppen.
     
    Im Rahmen dieses Kapitels kommt dann auch das sogenannte interaktive Whiteboard zur Sprache, dass ja mit großem finanziellen Aufwand an immer mehr Schulen Einzug hält. Ichpersönlich störe mich ein wenig an dem Begriff, weil er mir zu implizieren scheint, das klassische Whiteboard sei nicht interaktiv gewesen. Ein hohes Maß an Publikumsbeteiligung erreicht man nicht allein durch ein bestimmtes Medium sondern in erster Linie durch die Arbeitsform. Hier bieten klassische analoge Medien noch immer viele Vorteile, weil sie unmittelbar zu benutzen sind. Gerade für Menschen, die mit digitalen Medien weniger Erfahrung haben, sind sie "niedrigschwellig".
     
    Das letzte Kapitel wagt einen Blick in die Zukunft der Moderation. Hier geht es auch um eine wahrgenommenen Veränderung in der Rolle des Moderators, der heute stärker die Selbstlernkräfte seiner Teilnehmer aktivieren soll. Um Raum für Beiträge der Teilnehmer zu schaffen, muss der Moderator sich selbst stärker zurücknehmen.
     
    Tests und Aufgaben
     
    Die Einsendeaufgaben fordern einen in diesem Modul natürlich anders als in anderen Modulen im Informatikstudium, wo vor allem abstraktes Denken und Logik gefragt sind. Hier geht es eher ums Abwägen oder darum, sich in Situationen einzufühlen, Möglichkeiten und Wege zu skizzieren. Für mich war das eine willkommene Abwechslung, vor allem im Kontrast zum Modul "Text Mining", welches das abstrakte Denken sehr forderte. Insofern kann ich empfehlen, so ein Soft Skill-Modul mit einem als sehr schwierig empfundenen Modul zu kombinieren. Man zehrt dann beim Lernen von unterschiedlichen Ressourcen. So kommt man gut voran.
     
    Die Rückmeldungen meiner Tutorin kamen schnell. In diesem Modul wurde ich auch mal telefonisch betreut, weil ich eine Frage hatte, die auf diesem Wege besser zu klären war. Betreut wurde ich von der Autorin des Buches, der man anmerkt, dass sie für ihr Thema und ihren Beruf brennt.
     
    Klausur und mündliche Prüfung
     
    Schrifliche Einsendeaufgaben eignen sich bei diesem Modul natürlich nur bedingt zur Kontrolle des eigenen Lernerfolges. Als entscheidenden Baustein empfand ich darum die mündliche Prüfung. Hier ist ein (Beamer-)Vortrag zu einem Thema auszuarbeiten, dass mit Informatik nichts zu tun haben muss. Ich hatte z.B. ein Thema, bei dem es um die deutsche Sprache ging. Aus Gesprächen mit Kommilitonen weiß ich, dass die Themen oft beinhalten, eine eher offene Fragestellung zu beantworten, eine eigene Position zu einem Thema zu finden und argumentativ zu vertreten.
     
    Im Gegensatz zum Modul Wissenschaftliches Arbeiten reicht man hier keine Vorschläge ein. Man bekommt das Thema zwei Wochen vor der Prüfung vom Studienbüro. Es ist also ein "Überraschungei". Ich war ganz zufrieden mit dem, was ich bekommen habe.
     
    Für mich war es schön, mal zu einem ganz anderen Thema zu recherchieren. Und mir zu überlegen, wie ich das in begrenzter Zeit rüberbringe. Im Gegensatz zum Modul Wissenschaftliches Arbeiten, bei dem formale Korrektheit eine große Rolle spielt, geht es hier stärker darum, die Sache ein bisschen interaktiv zu gestalten. Für mich war jedenfalls die mündliche Prüfung die Messlatte dafür, ob ich aus dem Modul etwas mitgenommen haben. Mir hat es großen Spaß gemacht.
     
    Die Klausur dauert in diesem Modul nur eine Stunde. Sie war absolut fair gestellt. Leider war mir neben der Vorbereitung der mündlichen Prüfung und dem Lernen für Text Mining kaum Zeit geblieben, den Stoff des Lehrbuches in diesem Modul zu wiederholen. Das habe ich ein bisschen zu spüren bekommen. Mal sehen, wie sich das auswirken wird.
     
    Klausur und mündliche Prüfung gehen gleichermaßen in die Endnote ein. Das Ergebnis der mündlichen Prüfung erfährt man unmittelbar danach. Das ist auch schön, Feedback einmal so unmittelbar zu bekommen. Ich habe daraus noch ein paar Anhaltspunkte für die Präsentation meiner Bachelorarbeit mitgenommen, die ja nächstes Jahr fällig wird.
     
    Die mündliche Prüfung in diesem Modul erfordert allerdings auch viel Vorbereitungszeit. Man muss ziemlich schnell ein Thema recherchieren, das mit dem Studium und dem Modul nicht viel zu tun hat. Auch die Vorbereitung der Folien kostet Zeit. Schließlich möchte man üben, ob man mit der Zeit auskommen wird. Ich hätte rückblickend betrachtet die Klausur zu diesem Modul vielleicht eher auf den nächsten Termin schieben sollen, um mich voll auf eine Sache konzentrieren zu können. Vielleicht wollte ich diesmal zu viel auf einmal.
     
    Zu den mündlichen Prüfungen ist noch zu sagen, dass sie nur in Dortmund stattfinden. Es gibt zu jedem Prüfungstermin drei Slots am Vormittag. Mündliche Prüfungen müssen etwas früher angemeldet werden als schriftliche, weil der organisatorische Aufwand höher ist. Die Details dazu stehen in jeder Einladung zum Prüfungstag, die man als Studierender per E-Mail bekommt.
     
    Fazit
     
    Ich glaube schon, dass das Modul Präsentieren mir für die Verteidigung der Bachelorarbeit im nächsten Jahr noch einmal etwas bringen wird. Das war für mich ein Grund, es zu belegen. Es bisschen wehmütig bin ich auch, denn Rhetorik hätte mich schon auch interessiert. Der Schwerpunkt lag hier stärker auf dem Umgang mit Medien und auf interaktiven Arbeitsformen mit Gruppen. Im Modul Rhetorik spielt das Argumentieren anscheinend eine größere Rolle. Auch interessant! Aber man kann nicht alles machen.
     
    Allmählich wird es übersichtlich. Im Januar möchte ich noch die Module "IT-Projektmanagement" und "Electronic Business" abschließen. Die Klausuren möchte ich voraussichtlich in Heidelberg schreiben. Dann steht die Bachelorarbeit an. Insgesamt muss ich also nur noch einmal nach Dortmund reisen. (Vielleicht ein zweites Mal, um den nächsten Präsenztag mitzunehmen.) Schade, dass Springer Campus keinen Master anbietet, der an diesen Bachelor anschließt, denn die Anbindung an die staatliche FH Dortmund gefällt mir sehr.
  17. kurtchen
    Die Projektarbeit
     
    Das Modul Projektarbeit ist für das 5. Fachsemester vorgesehen. Es ist ein Pflichtmodul sowohl für die angehenden Web- und Medieninformatiker als auch für die Wirtschaftsinformatiker. Wie bei fast allen Modulen wird der Workload mit 5 ECTS bewertet. Ich habe in der letzten Zeit über einzelne Module berichtet, bei denen ich fand, dass der Workload etwas zu großzügig bewertet war. In dieses Modul sind bei mir deutlich mehr als die angesetzten 150 Arbeitsstunden geflossen. Aus Gesprächen mit Kommilitonen weiß ich, dass es auch anderen so geht. Rückblickend würde ich also sagen: Manche Module machen etwas weniger Arbeit, andere mehr. Unterm Strich gleicht sich das aus. Ich würde allerdings vermuten, dass die Projektarbeit für ALLE Studierenden ein ordentliches Stück Arbeit wird. Insofern würde ich dazu raten, für dieses Modul deutlich mehr Zeit einzuplanen.
     
    Viele Studierende entwickeln ihre Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Dabei bleibt die Bachelorarbeit natürlich eine eigene wissenschaftliche Arbeit. Ich habe mich bislang dagegen entschieden, das so zu machen. Bachelorarbeit und Projektarbeit sollen in meinem Fall also nichts miteinander zu tun haben.
     
    Voraussetzungen
     
    Die inhaltlichen Voraussetzungen hängen bei diesem Modul stark davon ab, was für ein Thema man sich aussucht. Grundsätzlich soll die Projektarbeit in Zusammenhang mit belegten Modulen des eigenen Studienganges stehen. Ich möchte hier ein paar Module nennen, die für jede Projektarbeit wichtig sein sollten:
    wissenschaftliches Arbeiten Softwaretechnik 1-3  
    Das Modul "Wissenschaftliches Arbeiten" ist wichtig, weil die Projektarbeit formalen Kriterien genügen muss. Die Projektarbeit ist insofern schon eine Art Testlauf für die Bachelorarbeit.
     
    Die Module "Softwaretechnik 1-3" sind wichtig, weil die Projektarbeit in der Regel eine konstruktive Arbeit sein wird, d.h. man wird ein Problem durch Entwurf und Implementierung eines Software-Systems lösen. Dazu gehört natürlich eine Analyse der Problemdomäne und ein entsprechendes Requirements Engineering. Da objektorientierte Programmierung das derzeit vorherrschende Programmierparadigma ist, wird sich daran wahrscheinlich eine objektorientierte Analyse und ein objektorientierter Entwurf anschließen. Diese Dinge lernt man in den Modulen zur Softwaretechnik.
     
    Themenfindung
     
    Im Gegensatz zu anderen Modulen, bei denen die Inhalte durch Lehrbuch und Lernplattform vorgegeben sind, hat man im Modul "Projektarbeit" ein Vorschlagsrecht. Tatsächlich war ich etwas überrascht, nachdem ich das Modul gebucht hatte. Ich hätte erwartet, dass in der Lernplattform ein neuer Bereich freigeschaltet würde, wo noch einmal eine knappe Anweisung zur Themenfindung und weiteren Vorgehensweise gegeben wird. Das ist aber nicht der Fall. Stattdessen wird darauf gesetzt, dass die grundsätzliche Arbeitsweise durch das Modul "Wissenschaftliches Arbeiten" bekannt ist.
     
    Die genauere (auch zeitliche) Planung wird mit dem Betreuer vereinbart. Um einen Betreuer zu finden, braucht man aber zunächst ein Thema, denn das Studienbüro versucht, einen Betreuer zu vermitteln, der das gewählte Thema gut betreuen kann. Insofern muss man hier den ersten Schritt selber tun. Ein Blick auf die Homepage der FH Dortmund kann bei der Themenfindung helfen. Manche Professoren des Fachbereichs Informatik listen auf, was für Arbeiten in ihr Forschungs- und Lehrgebiet fallen. Leider betreuen nicht alle Professoren auch Studierende aus den Online-Studiengängen. Das liegt vermutlich daran, dass der Online-Studiengang "Web- und Medieninformatik" inhaltlich ein etwas anderes Profil hat als die Präsenzstudiengänge, wo man sich z.B. auch mit medizinischer Informatik oder technischer Informatik beschäftigen kann.
     
    Die Themenfindung hatte mir im Vorfeld viele Sorgen gemacht, denn im Gegensatz zu den meisten meiner Kommilitonen arbeite ich nicht im IT-Bereich. Mein Arbeitsbereich hat sogar besonders wenig Berührungspunkte damit. Die Chancen, dass mir am Arbeitsplatz ein gutes Thema über den Weg läuft, standen also schlecht Ich musste aktiv nach einem Anwendungskontext für mein Projekt suchen. Den fand ich an der örtlichen Universität.
     
    Dort findet Grundlagenforschung zur sogenannten biologischen Uhr statt. Dafür werden Organismen in einer Umgebung gehalten, in der sie einem künstlichen Tag-Nacht-Rhythmus ausgesetzt sind. Beispielsweise wird der Tag-Nacht-Rhythmus beschleunigt oder verlangsamt oder stundenweise verschoben. Bislang wird das durch Mikrocontroller gesteuert. Diese arbeiten Skripte ab, die in einem Texteditor erstellt werden. Schneller und komfortabler ginge es mit einem graphischen Editor. Ein bisschen komplexer als eine einfache Zeitschaltuhr ist das ganze schon. Verschiedene Farben sollten unabhängig voneinander geschaltet werden können. Man möchte verschiedene Übergangsfunktionen definieren können. Insbesondere der Umgang mit dem Thema Zeit kann verwirrend sein. Man muss Tage beschleunigt oder verlangsamt ablaufen lassen können. Für manche Experimente ist aber auch wünschenswert, Tage in mehr oder weniger als 24 Stunden zu unterteilen. Tage haben also eine virtuelle Dauer, die sich auf ihre interne Einteilung in Stunden bezieht, und eine reale Dauer, die sich auf die Zeit bezieht, in der sie abgefahren werden.
     
    Das Problem lösen könnte eine Kombination aus einem graphischen Editor auf dem Desktop und einer Steuersoftware auf einem Raspberry Pi. Da biologische Uhren eine gewisse Zeit brauchen, um sich an äußeren Rhythmen zu synchronisieren, können die Experimente 8-10 Wochen dauern. Eine hohe Zuverlässigkeit der Steuersoftware ist also nötig.
     
    Das Projektthema gefiel mir aus zwei Gründen:
    Den Anwendungskontext biologische Grundlagenforschung fand ich spannend. Da die Steuersoftware auf einem Raspberry Pi läuft, an den PWM-Treiber und Sensoren angeschlossen werden, hat das Projekt auch den Aspekt physical computing. Das spielte im Studiengang keine Rolle, war aber ein Thema, auf das ich neugierig war.  
    Im Mittelpunkt des Projektes stand aber die Entwicklung eines grafischen Editors für Lichtskripte. Dabei spielten GUI-Programmierung und Grafik eine Rolle. Daraus ergaben sich erste Bezüge zu Modulen des Studienganges. Und siehe da:  Auch das bei vielen Studierenden ungeliebte Modul "Mathe 2" konnte ich gebrauchen, weil ich mich an verschiedenen Stellen mit Koordinaten-Transformationen beschäftigen musste, die durch Zoomen, Scrollen oder Änderung der Fenstergröße entstehen. Lineare Algebra kann also durchaus nützlich sein.
     
    Finden eines Betreuers
     
    Hier habe ich zunächst auf eigene Faust einen möglichen Betreuer angeschrieben und ihm mein Thema vorgestellt. Dann wollte ich die Projektarbeit beim Studienbüro anmelden. Dort war man von meiner Vorgehensweise wenig begeistert. Das Studienbüro übernimmt nämlich üblicherweise eine Lotsenfunktion und hilft den Studierenden so, einen Betreuer zu finden, der zum Projektthema passt. Das überraschte mich, weil unsere Studiengangskoordinatorin keine Informatikerin ist. Mir war also anfangs nicht ganz klar, wie sie mir bei der Vermittlung helfen sollte.
     
    Nach einigem Überlegen war ich dann aber gewillt, die vorgeschlagene Beratung und Vermittlung zu nutzen. So kam es zu einem längerem Telefonat zwischen mir und unserer Studiengangskoordinatorin, bei dem ich meine Projektidee vorstellte. Es zeigte sich, dass ich völlig falsch eingeschätzt hatte, worauf es bei so einer Vermittlung ankommt. Die Studiengangskoordinatorin kennt die Professoren. Sie hat einen Überblick, wer von wem mit welchem Thema betreut wurde und wie das ganze ausgegangen ist. Sie weiß auch, wer aktuell Zeit hat, noch weitere Studierende aufzunehmen. Und sie kann gut einschätzen, wer zu wem passt. Beim Finden eines Betreuers spielen also neben "harten" fachlichen Kriterien auch "weiche" soziale und organisatorische Kriterien eine große Rolle. Und genau dabei kann die Studiengangskoordinatorin helfen. Für Fernstudierende ist das sogar besonders wichtig.
     
    Nach nach einigen E-Mails habe ich ein persönliches Beratungsgespräch mit meinem Betreuer vereinbart. Ich würde empfehlen, für solch ein Gespräch nach Dortmund zu reisen, weil man so in kurzer Zeit viel klären kann, was online langwierig und missverständlich ist. Es zeigt sich doch deutlich, dass Mimik, Gestik, Artikulation, Stimmungen und andere Faktoren sehr viel zu einer gelingenden Kommunikation beitragen. Jedenfalls hatte ich nach dem Gespräch eine klare Vorgehensweise im Kopf und konnte damit beginnen, einen Zeitplan für mein Projekt zu erarbeiten.
     
    Formale Anmeldung des Projektes
     
    Die folgende Kommunikation mit meinem Betreuer lief per E-Mail. Hier schrieb ich zunächst eine Vorstellung meines Projektes, entwarf eine Vorgehensweise, eine Gliederung der Arbeit und stellte einen Zeitplan auf. Nachdem das Form angenommen hatte, meldete ich die Arbeit formal an. Ab jetzt tickte die Uhr. Ab Anmeldung stehen 3 Monate zur Verfügung. Es ist daher günstig, vorher einen möglichst konkreten Plan zu formulieren und diesem mit seinem Betreuer abzustimmen.
     
    Als grobe Richtlinie für den Umfang wurden mir an die 50 Seiten genannt. Bei mir wurden es deutlich mehr, aber das war dem Thema geschuldet.
     
    Zum Ablauf des Projektes
     
    Hier möchte ich nicht allzu sehr ins Detail gehen, weil die Einzelheiten stark vom Projektthema abhängen, also nicht unbedingt auf andere Studierende übertragbar sind. Folgende Artefakte entstanden in etwa dieser Reihenfolge:
    Analyse der Problemdomäne Analyse der Nutzergruppe Glossar Lastenheft handschriftliche Skizzen des UIs Mock-up des UIs UML-Klassendiagramme des Datenmodells UML-Klassendiagramme im Rahmen des objektorientierten Entwurfs UML-Paketdiagramm Modellierung als Zustandsautomat eine XML-Schema-Definition Java-Quellcode JavaDoc  
    Schön wäre gewesen, dem Thema Tests noch Raum zu geben. Allerdings passte das zeitlich nicht mehr in den Rahmen und die Arbeit war ja auch schon recht umfangreich.
     
    In den ersten Wochen schickte ich meinem Betreuer einzelne Textbausteine und erhielt dazu auch Feedback. Wie in der Vorbesprechung angekündigt, zog er seine Unterstützung allmählich zurück, um mich dann etwa ab der Hälfte des Projektes möglichst selbstständig arbeiten zu lassen. Ab diesem Zeitpunkt hätte ich weiter Hilfestellung bekommen können, wenn ich ausdrücklich darum gebeten hätte. Aber hier ging es darum, zu zeigen, wie ich alleine zurecht komme. Diese Vorgehensweise erschien mir didaktisch sinnvoll.
     
    Die Rückmeldungen durch meinen Betreuer kamen sehr zügig. Neben dem fachlichen Aspekt spielten die Konventionen wissenschaftlichen Arbeitens eine große Rolle. Gerade hier waren seine Rückmeldungen hilfreich.
    Die Erstellung der Artefakte und das Schreiben der eigentlichen Projektarbeit wechselten sich ab. Die Arbeit entstand also abschnittsweise und war so auch eine Dokumentation des Projektverlaufes. Eine große Rolle spielte es, getroffene Entscheidungen zu reflektieren, zu begründen und gegen andere mögliche Entscheidungen abzuwägen. Dabei war es auch immer wieder nötig, Kompromisse einzugehen, um das Projekt in der vorgegebenen Zeit zu einem Abschluss führen zu können. Andererseits war es mir stellenweise auch möglich, Themen zu erkunden, die mich besonders interessiert haben.
     
    Stand am Ende des Projektes
     
    Am Ende des Projektes gab es einen lauffähigen Prototypen des grafischen Editors mit den wesentlichsten Funktionen. Außerdem gab es einen Prototypen der Steuersoftware auf dem Raspberry Pi, der zunächst als Kommandozeilenanwendung funktionierte, die per SSH aufgerufen wurde. Mit dieser Kombination ist es nun möglich, Lichtskripte zu erstellen und Tests mit dem Raspberry Pi durchzuführen. Das ist für die Nutzer wichtig, weil diese sehen wollen, dass der Raspberry Pi Lichtprogramme zuverlässig über 8-10 Wochen ausführen kann. Sollte das der Fall sein, wäre die nächste Entwicklungsstufe ein grafischer Client, um Lichtskripte auf entfernte Raspberry Pi Steuerrechner zu laden und deren Ausführung zu überwachen. Die Steuersoftware müsste dafür zum Server einer verteilten Anwendung ausgebaut werden.
     
    Der Aspekt physical computing spielte im Projekt eine geringere Rolle als erhofft, weil ich den größeren Teil der Entwicklungszeit für den graphischen Editor verwenden musste. Würde ich das Projekt für meine Bachelorarbeit fortführen, würden die nächsten Projektschritte mehr mit dem Raspberry Pi, mit Sensoren und mit Netzkommunikation zu tun haben. Aber für die Bachelorarbeit möchte ich ja etwas anderes machen.
     
    Wissenschaftliches Arbeiten
     
    Wissenschaftliches Schreiben spielt für eine Projektarbeit eine große Rolle. Hilfreich war für mich, dass ich mir schon im Modul "Wissenschaftliches Arbeiten" eine Dokumentenvorlage erstellt hatte. Das war damals keine formale Anforderung, um das Modul gut abzuschließen, aber diese investierte Zeit lohnte sich für mich. Ich konnte meine Vorlage leicht für die Erfordernisse der Projektarbeit erweitern und glaube, sie auch für die Bachelorarbeit gut weiterverwenden zu können.
     
    Benutzt habe ich LibreOffice. Gelegentlich höre ich die Meinung, dass Informatiker ihre Arbeiten per se mit LaTex schreiben. Und dass Office-Software für längere Dokumente per se ungeeignet sei. Ich bin mit LibreOffice gut zurecht gekommen und plane bislang, das auch für meine Bachelorarbeit einzusetzen. Allerdings enthielt meine Projektarbeit auch relativ wenige mathematische Formeln, sonst wäre LaTex wahrscheinlich geeigneter gewesen. Wichtig war, sich gute Vorlagen zu erstellen, um dann Verzeichnisse für Abbildungen, Codebeispiele und Tabellen auch automatisch erzeugen zu lassen.
     
    Häufig gehört habe ich auch, man solle eine eigene Software zur Literaturverwaltung einsetzen, z.B. Zotero. Ich habe für die Projektarbeit an die 20 Quellen referenziert. Bei diesem Umfang sehe ich noch nicht, dass sich der Zeitaufwand für die Einarbeitung in solch eine Software rentiert. Das würde bei einer Arbeit mit deutlich mehr Quellen natürlich anders aussehen.
     
    Gegen Ende des Projektes sollte man in jedem Fall einen Puffer von einer Woche einplanen, z.B. für Korrekturen. Auch das Drucken und Binden der Arbeit braucht seine Zeit. Ich habe im CopyShop gemerkt, dass viele Studierende auf den letzten Drücker kommen und am liebsten noch am selben Tag ihre gebundene Arbeit mit nach Hause nehmen wollen. In Uni-Städten kann das aber zu bestimmten Zeiten problematisch werden, z.B. kurz vor Beginn eines neuen Semesters. Wenn man sich unnötigen Stress ersparen will, ist es daher gut, ein paar Tage Spielraum zu haben.
     
    Einreichen der Arbeit
     
    Die Arbeit wird zwei Mal ausgedruckt und ringgebunden. Sie muss zusätzlich als PDF auf CD oder DVD gebrannt und hinten eingeklebt werden. Wenn man die Arbeit per Post noch Dortmund schickt, gilt das Datum auf dem Einlieferungsbeleg als Abgabedatum. Das Studienbüro bestätigt den fristgerechten Eingang per Mail. Wenn nach ein paar Tagen keine Bestätigung kommt, sollte man also stutzig werden.
     
    Das Ergebnis kam in meinem Fall nach weniger als 3 Wochen. Ich bin zufrieden damit. Gut fand ich, dass die Rückmeldungen zu Beginn meines Schreibprozesses und die abschließende Bewertung zueinander passten. Ich finde also, dass mir die Kriterien, die an eine Projektarbeit angelegt werden, transparent vermittelt wurden. Und zwar nicht nur im Vorfeld durch das Modul "Wissenschaftliches Arbeiten" sondern auch in der Betreuung.
     
    Fazit
     
    Die Projektarbeit hat viel Spaß gemacht, weil ich Themen aus verschiedenen Modulen verbinden konnte, länger selbstständig an einem Thema arbeiten konnte und weil eigene Ideen gefragt waren. Gut gefallen hat mir auch die Betreuung durch meinen Professor, die anfangs noch recht intensiv war und dann in didaktisch sinnvoller Weise zurückgefahren wurde, so dass ich auch mal "ohne Stützräder" fahren musste. Interessant und bereichernd war auch die Interaktion mit den Wissenschaftlern, die Editor und Steuersoftware einmal nutzen sollen.
     
    Auch das wissenschaftliche Schreiben als solches hat mir Spaß gemacht. Die Erfahrungen damit werden mir sicher noch nützlich sein. Ich glaube, nun eine realistischere Vorstellung davon zu haben, was mich in der Bachelorarbeit erwartet. Darauf freue ich mich, aber ich habe auch ganz schönen Respekt davor. Wenn ich mein Studium erfolgreich abschließen will, werde ich mir meine Zeit sehr gut einteilen müssen.
     
    Leider hat die Projektarbeit viel mehr Zeit verschlungen, als ich erwartet hätte. Ich hatte gehofft, nebenbei noch ein bis zwei Module abschließen zu können, musste aber einsehen, dass das nicht realistisch war.
     
    10 Tipps zur Projektarbeit
     
    Wählt ein Thema, auf das ihr Lust habt. Die Projektarbeit kostet ungewöhnlich viel Zeit. Wenn man nur darauf aus ist, die nächsten 5 ECTS abzuhaken, kann das demotivierend wirken. Darum ist es wichtig, auch eine intrinsische Motivation aus der Arbeit selbst zu ziehen. Fangt rechtzeitig mit der Suche nach dem Thema an. Ein Semster Vorlauf schadet nicht. Wenn man mit suchendem Auge durch die Welt geht, sieht man auch Gelegenheiten, die man vorher nicht wahrgenommen hätte. Allerdings laufen einem gute Gelegenheiten nicht unbedingt sofort über den Weg. Schaltet man das suchende Auge rechtzeitig ein, so gibt man dem Zufall eine Chance. Nehmt die Beratung durch das Studienbüro in Anspruch. Man betreut dort viele Studierende und hat daher einen besonderen Blickwinkel, den ihr nicht haben könnt. Trefft euren Betreuer. Von Angesicht zu Angesicht kann man in kurzer Zeit viel klären. Grenzt euer Thema gut ein. Es wird in der Projektarbeit nicht möglich sein, ein Thema erschöpfend zu behandeln. Was für ein Ziel kann man also in 12 Wochen realistisch erreichen? Macht einen Plan. Erstellt eine Gliederung und überlegt euch, wann ihr wie weit gekommen sein wollt. Behaltet euren Plan im Blick. Belegt "Wissenschaftliches Arbeiten" nicht ganz zu Beginn eures Studiums sondern im 4. Fachsemester, wenn die Projektarbeit in Sicht kommt. Nehmt das Modul ernst. Es ist nicht nur ein Pflichtmodul, das 5 ECTS bringt. Haltet Kontakt zu eurem Betreuer. Schickt Bausteine der Projektarbeit und nutzt das Feedback, das ihr bekommt. Macht euch vorher eine gute Dokumentenvorlage. Plant am Ende ein paar Tage Puffer für Korrekturen und Druck ein.
  18. kurtchen
    Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager".
     
    Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde.
     
    Lehrbuch
     
    Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge.
     
    Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben.
     
    Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt.
     
    Inhalte & Themen
     
    Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab.
     
    Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat.
     
    Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2".
     
    Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden.
     
    Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt.
     
    Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen:
    sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten  
    Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren.
     
    Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen.
     
    Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt.
     
    Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie.
     
    Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl.
     
    Klausur
     
    In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht.
     
    Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben.
     
    Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK.
     
    Fazit
     
    "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen.
     
    Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.
  19. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "Software-Testen" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es wird dort dem Studienbereich "Softwaretechnik" zugerechnet. Formal darf das Modul jederzeit belegt werden, aber als fachliche Grundlage werden viele andere Module empfohlen: 
    Grundlagen der Informatik 1 Grundlagen der Informatik 2 Grundlagen der Informatik 3 Softwaretechnik 1 Softwaremanagement 1  
    Diese Empfehlung finde ich im Großen und Ganzen plausibel, auch wenn ich selbst das Modul "Softwaremanagement" nocht nicht belegt hatte. Aufgrund der vielfältigen Voraussetzungen wundert es nicht, dass die Belegung erst für das 5. Fachsemester empfohlen wird. Es ist also eines der letzten Pflichtmodule.
     
    Für den Studiengang "Wirtschaftsinformatik" ist das Modul nicht vorgesehen, nicht einmal im Wahlpflichtbereich. Es ist aber ein Baustein des Hochschulzertifikates "Software-Manager".
     
    Das Lehrbuch
     
    Das Buch "Basiswissen Testen von Software" von Torsten Cleff hat knapp 300 Seiten. Der Umfang ist für ein Modul bei Springer Campus also unterdurchschnittlich. Ziel des Lehrbuches ist, Grundwissen zu Testtechniken aber auch zu Prüftechniken zu vermitteln, so dass Fehler möglichst früh entdeckt und behoben werden. Die Erfahrung zeigt, dass die Kosten für die Behebung von Fehlern umso niedriger ausfallen, je früher ein Fehler entdeckt wird. Gemeint sind hier nicht nur Fehler im Quellcode, an die ich zu Beginn des Moduls als erstes gedacht habe. Fehler können auf allen Ebenen der Software-Entwicklung passieren, z.B. auch beim Erfassen von Anforderungen, bei der objektorientierten Analyse oder beim Entwurf, also bevor auch nur die erste Zeile Code geschrieben ist.
     
    Grundlagen
     
    Im ersten Teil des Buches werden vor allem Begriffe geklärt. Interessant war für mich z.B. die Unterscheidung von Teststufen, die jeweils mit Entwicklungsstufen eines Softwaresystems korrespondieren. Zu den vertraglichen Anforderungen an ein Software-Produkt gehört ein Abnahmetest, zur Produktdefinition ein Systemtest, zum Produktentwurf ein Integrationstest und zum Komponentenentwurf ein Komponententest.
     
    Nun ist klar, dass der Komponententest der erste Test ist, den man machen kann, wenn Quellcode vorliegt. Erst kann man die Integration von Komponenten testen und so fort. Die Teststufen folgen also in entgegensetzter Reihenfolge wie die Entwicklungsstufen. Visualisiert man diesen Ablauf, steigt man vom Anforderungsdokument Stufe um Stufe hinab bis zur Implementierung und arbeitet sich dann mit den Tests Stufe im Stufe wieder hinauf bis zu den Anforderungen. Der visualisierte Ablauf hat die Form des Buchstabens V, weshalb man auch vom V-Modell spricht.
     
    Interessant sind auch die verschiedenen Integrationsstrategien. Bei der Bottom-up Integration, baut und testet man zunächst Komponenten, die keine Dienste untergeordneter Komponenten in Anspruch nehmen. Dann baut und testet man die Komponenten, die auf diesen aufsetzen. So arbeitet man sich Stufe für Stufe nach oben. Ein Vorteil dieser Strategie ist, dass man keine Platzhalter programmieren muss. Der Nachteil ist, dass man das Zusammenspiel der Komponenten im Großen erst spät testen kann. Darum gibt es auch eine Top-down Integrationsstrategie. Hier werden möglichst bald Komponenten höherer Ordnung getestet. Da diese untergeordnete Komponenten brauchen, die noch nicht vorliegen, muss man viele Platzhalter programmieren. Dafür bekommt man früh einen Eindruck des Gesamtsystems aus Benutzersicht.
     
    Interessant waren auch die verschiedenen nicht-funktionalen Testverfahren. So werden z.B. bei einem Stresstest die definierten Leistungsgrenzen eines Systems bewusst überschritten, etwa um zu testen, ob das System nach einer Überlastung wieder in den Normalzustand zurückkehren kann.
     
    Testfälle entwickeln
     
    Diesen Kursabschnitt betrachte ich als den inhaltlichen Kern des Moduls. Der größte Anteil der Einsendeaufgaben aber auch der Aufgaben in der Online- und Präsenzklausur bezieht sich hierauf.
     
    Black-Box-Tests
     
    Zunächst geht es um spezifikationsorientierte Testtechniken. Komponenten sollen zu bestimmten Kombinationen von Eingabewerten eine Ausgabe entsprechend der Spezifikation liefern. Diese Tests werden auch als Black-Box-Tests bezeichnet, weil hier nicht interessiert, wie eine Komponente intern arbeitet. Es geht allein darum, ob sie zu gegebenen Eingaben die erwarteten Ausgaben liefert.
     
    Die erste derartige Testtechnik ist die funktionale Äquivalenzklassenbildung. Hier fasst man gleichwertige Eingabewerte zu einer Klasse zusammen, aus der man einen Repräsentanten auswählt. Getestet wird nur mit dem Repräsentanten, was den Testaufwand beträchtlich reduziert. Da die Erfahrung zeigt, dass Fehler vor allem an Klassen- und Intervallgrenzen auftreten, gibt es die Grenzwertanalyse. Hier wählt man als Repräsentanten Werte an den Grenzen eines Intervalls. Bei beiden Testtechniken ist wichtig, dass man gültige und ungültige Repräsentanten testet. Ungültige Repräsentanten sollten dann z.B. dazu führen, dass eine Exception geworfen wird.
     
    Der Entscheidungstabellentest eignet sich, wenn eine natürlich-sprachliche Testbasis vorliegt. Er ermöglicht, die verschiedenen Kombinationen von Eingangsbedingungen übersichtlich darzustellen. Oft ist es dann möglich, Fälle zusammen zu fassen und die Tabelle auf diese Weise stark zu vereinfachen. Auch dies kann den Testaufwand erheblich reduzieren.
     
    Bei der Ursache-Wirkungsanalyse visualisiert man die Beziehungen zwischen Ursachen und Wirkungen als Graph, dessen Kanten logische Verknüpfungen sind. Solche Graphen lassen sich in Entscheidungstabellen überführen.
     
    Beim zustandsbezogenen Test modelliert man ein System als Zustandsautomaten. So kann man die Historie des Systems in den Test einbeziehen. Das Zustandsdiagramm lässt sich in eine Zustandstabelle und in eine Zustandsmatrix überführen. Daraus lassen sich wiederum Testfälle ableiten. Interessant ist diese Testart z.B. für Systeme aus der Automatisierungstechnik.
     
    Auf höheren Teststufen gibt es den anwendungsfallbasierten Test. Ein konkreter Anwendungsfall wird als Use-Case-Diagramm modelliert. Auch hieraus lassen sich Testfälle ableiten.
     
    White-Box-Tests
     
    Während bei den spezifikationsorientierten Testtechniken nicht relevant ist, wie eine Komponente ihre Leistung erbringt (Black-Box-Test), muss man für die kontrollfluss-orientierten Testtechniken den Quellcode eines Programmes kennen. Darum werden diese auch als White-Box-Tests bezeichnet. Bei diesen Testtechniken visualisiert man den Kontrollfluss durch den Quelltext als Graph.
     
    Beim Anweisungsüberdeckungstest möchte man durch geschickte Auswahl möglichst weniger Testfälle sicherstellen, dass alle Anweisungen des Quellcodes ausgeführt werden. Beim Zweigüberdeckungstest sollen die Testfälle nicht nur alle Anweisungen (Knoten) des Graphen abdecken. Auch alle Zweige (Kanten) sollen mindestens ein Mal durchlaufen werden. Dieser Test ist also umfassender als der Anweisungsüberdeckungstest. Noch weiter geht der Bedingungsüberdeckungstest. Er beschäftigt sich mit der Kombination von Bedingungen, die erfüllt sein müssen, damit ein Zweig durchlaufen werden kann. Diese lassen sich z.B. wie eine Digitalschaltung visualisieren. Beim Pfadüberdeckungstest müssen nicht nur alle Kanten durchlaufen werden, sondern jeder mögliche Pfad vom Startpunkt bis zum Endpunkt eines Programmes. Die Zahl möglicher Pfade wächst oft sehr schnell. Entsprechend wächst auch die Zahl nötiger Testfälle.
     
    Erfahrungsbasiertes Testen
     
    Freies Testen ist ein erfahrungsbasiertes Verfahren. Die Testfälle basieren auf Testhypothesen eines erfahrenden Testers. Da hier die Intuition eine große Rolle spielt, sind solche Verfahren schlecht formalisierbar und nicht leicht in den Entwicklungsprozess zu integrieren. Sie werden daher meist nur ergänzend eingesetzt.
     
    Fehlerhypothesen lassen sich methodischer ableiten, wenn man auf der Grundlage bisher entdeckter Fehler Fehlerklassen bildet. Das sind Gruppierungen typischer Schwachstellen, die in vergangenen Tests an ähnlichen Systemen aufgefallen sind. Ein Beispiel für so eine Fehlerklasse wären etwa Fehler bei Klassen oder Datentypen. Konkrete Ausprägungen dieser Fehlerklasse wären dann z.B. Fehler bei Mehrfachvererbung, Typtransformationen oder fehlerhafte Deklarationen von Attributen oder Methoden. 
     
    Exploratives Testen ergänzt das erfahrungsbasierte Testen um ein Element der Analyse und Reflexion. Die dadurch gewonnenen Einsichten werden für die Entwicklung der nächsten Fehlerhypothesen genutzt. Auch dies ist ein Versuch, erfahrungsbasiertes Testen methodischer zu machen.
     
    Testen vs. prüfen
     
    Ein weiterer thematischer Schwerpunkt des Moduls sind Prüftechniken. Während bei Tests vorausgesetzt ist, dass man ein Testobjekt ausführen kann, wird bei einer Prüfung ein Artefakt der Softwareentwicklung nicht ausgeführt sondern inhaltlich nach formalen Kriterien kontrolliert. Dies hat verschiedene Vorteile:
    Nicht nur Quellcode kann geprüft werden, sondern auch Spezifikationen, Modelle, Dokumentationen oder andere Artefakte des Entwicklungsprozesses. Man benötigt keine Testumgebung, Testdaten oder Testtreiber Testen kann man erst, wenn Code vorliegt. Prüfen kann man dagegen in jeder Phase.  
    Entscheidend ist, dass man durch Prüfverfahren Fehler viel früher entdecken kann als durch Tests. Dadurch lassen sich Kosten vermeiden. Allerdings lassen sich durch Prüfungen nicht alle Arten von Fehlern entdecken. Zum Beispiel lassen sich Leistungskennzahlen auf diesem Weg nicht ermitteln, denn dazu müsste Code ausgeführt werden. Im Kurs behandelte manuelle Prüftechniken sind die Inspektion, das technische Review, der Walkthrough und das informelle Review.
     
    Softwaremaße
     
    Es gibt aber auch automatisierte Prüftechniken. So lassen sich z.B. mit geeigneten Werkzeugen sogenannte Softwaremaße bestimmen. Ein gängiges Maß ist sind zum Beispiel die Lines of Code (LOC), mit denen der Umfang eines Quellcodes angegeben wird. Dieses Maß ist nicht so selbstverständlich, wie es auf den ersten Blick scheint. LOCs können stark schwanken, je nachdem welche Formatierungskonventionen angewendet wurden. Dennoch werden LOCs häufig für grobe Umfangsschätzungen verwendet.
     
    Ein genaueres Umfangsmaß ist das Halstead-Maß. Dazu muss man zunächst alle Operanden und Operatoren eines Quellcodes auszählen. Die Anzahl unterschiedlicher Operatoren bezeichnet man mit N1, die der unterschiedlichen Operanden als N2. Operatoren sind z.B. Schlüsselwörter einer Programiersprache, Klammern aber auch Modifier, die die Sichtbarkeit einer Variable festlegen. Operanden sind z.B. Variablen oder auch boolesche Werte wie true oder false. Halstead bezeichnet nun die Summe N1+N2 als Vokabular eines Programmes. Als Volumen bezeichnet er die Summe N1+N2+log(N1+N2). Man kann sich vorstellen, dass das manuelle Auszählen von Operatoren und Operanden für Menschen eine mühselige Arbeit ist. So etwas kann automatisch von Werkzeugen erledigt werden, weshalb man in diesem Zusammenhang von automatisierten Prüftechniken spricht.
     
    Das McCabe Maß wird auch als zyklomatische Komplexität beschrieben. Um das McCabe-Maß berechnen zu können, muss man die Knoten und Kanten eines Kontrollflussgraphen auszählen und die Anzahl verbundener Kontrollflussgraphen bestimmen. McCabe liefert die maximale Zahl linear unabhängiger Programmpfade. Damit kann man abschätzen, wieviele Testfälle man für einen Zweigüberdeckungstest braucht.
     
    Es gibt auch Maße für Bindung und Kopplung von Komponenten.
     
    Problemmuster
     
    Problemmuster sind Anomalien im Quelltext, die erfahrungsgemäß die technische Qualität eines Programms senken. Sie lassen sich durch geeignete Werkzeuge aufspüren, damit sie überarbeitet werden können. Ein bekanntes Beispiel ist die Codedopplung. Wenn an verschiedenen Stellen des Programmes identischer Quellcode steht, muss man bei Änderungen alle entsprechenden Stellen finden. So etwas wird von einem Wartungsprogrammierer leicht übersehen. Meist ist es dann besser, solchen Code in einer eigene Komponente oder Methode zusammenzufassen. Das vermeidet Probleme bei künftiger Wartung. Im Kurs werden viele weitere Problemmuster vorgestellt, etwa mangelnder Polymorphismus, die Verletzung des Geheimnisprinzips, die Verwendung einfacher Typen, die zu Datenklumpen führt oder auch problematisch zusammengesetzte Datentypen.
     
    In den letzten Kapiteln geht es um das Management von Softwaretests sowie die Automatisierung von Tests. In diesem Zusammenhang werden auch ein paar Testwerkzeuge knapp vorgestellt.
     
    Online-Tests und Einsende-Aufgaben
     
    Die Tests decken die Inhalte des Moduls gut ab. Die Einsendeaufgaben konzentrieren sich vor allem auf die Kapitel zur Entwicklung von Testfällen. Aber auch das Entdecken von Problemmustern in Quellcode und die Bestimmung von Softwaremaßen spielt eine Rolle. Man vereinfacht Entscheidungstabellen, zeichnet Kontrollflussgraphen zum Quelltext, verbessert Anomalien in Quellcode, visualisiert komplexe Bedingungen als Digitalschaltung, zeichnet Zustandsautomaten, findet Testklassen, Repräsentanten und Testfälle. Die Aufgaben sind also recht vielfältig. Bei einigen Aufgabentypen hätte ein wenig mehr Übungsmaterial nicht geschadet. Die Aufgaben sind aber didaktisch geschickt gewählt, so dass sie zum Verständnis der vermittelten Konzepte beitragen. Insbesondere geben die Aufgaben einen guten Vorgeschmack auf das, was einen in der Online- und in der Präsenzklausur erwartet.
     
    Die Rückmeldungen meines Tutors kamen auch in diesem Modul sehr zügig. Sein Stil war manchmal etwas knapp, so dass ich gelegentlich noch einmal nachfragen musste. Das hat sich aber dann auch gelohnt und kleinere Unsicherheiten behoben. Ich hatte übrigens den gleichen Tutor wie im Modul "Grundlagen der Informatik 2" zu Beginn meines Studiums. Bei ihm habe ich objektorientiertes Programmieren gelernt. Ich habe mich sehr gefreut, gegen Ende meines Studiums noch einmal von ihm betreut zu werden.
     
    Präsenzklausur
     
    Die Aufgabentypen der Klausur ähnelten den Einsendeaufgaben, so dass man eigentlich gut vorbereitet sein sollte, wenn man alle Aufgaben bearbeitet und die Rückmeldungen seines Tutors genutzt hat. Wissensfragen zu den Prüftechniken spielten auch eine gewisse Rolle. Ich empfand das Arbeitspensum als angemessen für die Dauer der Klausur.
     
    Bei den Aufgaben zur Äquivalenzklassenbildung und Grenzwertanalyse wollte man den Studierenden anscheinend etwas Zeit ersparen, indem man Tabellen zur Verfügung gestellt hat, in die man z.B. Testfälle eintragen konnte. Das Layout dieser Tabellen war für mich allerdings ungewohnt und überraschend. Ich selber hätte meine Tabellen anders aufgebaut, so dass ich gelegentlich Lösungen in falsche Felder eingetragen habe, was ich dann wieder korrigieren musste. Das hat Zeit und Nerven gekostet. Nach der Klausur sprach ich mit einem Kommilitonen, dem es ähnlich ergangen war wie mir. Der hatte die zur Verfügung gestellten Tabellen gar nicht erst genutzt sondern sich lieber selbst welche gezeichnet. Diese Freiheit hätte ich mir auch nehmen sollen. Die dafür nötige Zeit hätte ich bestimmt mit Zinsen zurück bekommen. Wegen dieser Schwierigkeiten rechnete ich damit, ein paar Flüchtigkeitsfehler gemacht zu haben.
     
    Diese Sorge war anscheinend unbegründet. Das Klausurergebnis war erfreulich und spiegelte auch meinen subjektiven Eindruck wieder, den Stoff des Moduls im wesentlichen verstanden zu haben.
     
    Fazit
     
    Grundsätzlich finde ich es sehr sinnvoll, dass das Curriculum ein eigenes Modul zum Thema Testen enthält. Gut gefallen haben mir vor allem die Kapitel zur Entwicklung von Testfällen, weil ich hier die Einsendeaufgaben didaktisch klug gewählt und auch interessant und abwechslungsreich fand. Auch das Thema Problemmuster war für mich spannend. Es hat Spaß gemacht, in fremdem Quellcode nach problematischen Stellen zu suchen und sich bessere Lösungen zu überlegen. Weniger interessant waren für mich die Kapitel zu Prüftechniken und zum Management von Testfällen. Diese empfand ich als theoretischer und trockener, was sich bei diesem Stoff wohl auch nicht vermeiden lässt. Wegen dieser für mich etwas zäheren Abschnitte zählt Softwaretesten zwar nicht zu meinen Favoriten im Studienbereich Softwaretechnik, aber ich ziehe hier ein positives Fazit.
  20. kurtchen
    Das Modul "Text Minining" kann in den Studiengängen von Springer Campus im Vertiefungsbereich (also als Wahlpflichtfach) belegt werden. Es ist auch Teil des Hochschulzertifikates "Junior-Data-Analyst". Um dieses Zertifkat zu erlangen, muss man allerdings auch eine Projektarbeit mit dem inhaltlichen Schwerpunkt Datenanalyse schreiben.
     
    Ich hatte mich für dieses Modul entschieden, weil ich auch Data Mining belegt hatte. Der Schwerpunkt dieses Moduls lag stark auf der Anwendung von Data Mining Techniken in einem betrieblichen Kontext. Es war also eher aus der Perspektive der Wirtschaftsinformatik geschrieben. Mich hätte mehr interessiert, wie die verschiedenen Techniken zur Wissensextraktion mathematisch und algorithmisch funktionieren. Das spielte eine vergleichsweise geringe Rolle. Die Beschreibung des Moduls "Text Mining" ließ erwarten, dass der Schwerpunkt hier anders gelegt sein würde; nämlich auf Mathematik, Statistik und Algorithmen. Insofern hoffte ich, in diesem Modul das zu finden, was ich eigentlich im Modul "Data Mining" gesucht hatte. Ich wurde nicht enttäuscht.
     
    Wer dieses Modul im Wahlpflichtbereich belegen möchte, sollte wissen, dass es inhaltlich zu den anspruchsvollsten Modulen im Studiengang gehört. Das Modul "Statistik" wird als fachliche Voraussetzung genannt. Das finde ich nachvollziehbar. In diesem Modul spielen auch einige Inhalte aus dem ersten Mathematik-Modul eine Rolle: Mengen, Relationen und Graphen. Das Modul ist recht mathematisch. Wer nach seiner letzten Mathe-Klausur froh war, keine Formeln mehr lesen zu müssen, sollte um dieses Modul eher einen Bogen machen. In der Beschreibung heißt es, das Modul "Data Mining" erlaube es, Querbezüge herzustellen. Das trifft es recht gut. Wer die hier beschriebenen Verfahren begriffen hat, kann sich gut vorstellen, wie man vergleichbares mit den strukturierten und halbstrukturierten Daten in Datenbanken machen kann. Für mich hat daher das Modul "Text Mining" einige der Inhalte aus Data Mining noch einmal neu "zum Leben erweckt".
     
    Beim Thema Text Mining berühren sich Informatik, Mathematik, Statistik und die Geisteswissenschaften. Gerade letzteres könnte für manchen Informatik-Studenten herausfordernd sein. So lässt es sich beispielsweise nicht vermeiden, ein wenig linguistische Terminologie zu lernen. Begriffe wie Phonem, Graphem, Morphem, Flexiv, Derivativ oder Allomorphe muss man sich erschließen, wenn sie aus Schulzeiten nicht mehr geläufig sein sollten. Beim Thema Text Mining muss der Informatiker den Geisteswissenschaften ein Stück weit entgegenkommen. Es ist sehr interessant, wie Informatik und Sprachwissenschaft sich gegenseitig fachlich bereichern können. In diesem Bereich tut sich gerade einiges. So bezeichnet der Begriff "digital humanities" die Nutzung computergestützter Verfahren und digitaler Wissensressourcen in den Geisteswissenschaften. Solche digitalen Ressourcen sind zum Beispiel die großen Mengen natürlichsprachlicher Texte im Internet.
     
    Das Lehrbuch
     
    Das Lehrbuch "Text Mining: Wissensrohstoff Text" von Gerhard Heyer, Uwe Qualsthoff und Thomas Wittig hat an die 350 Seiten. Mir liegt der 3. Nachdruck vom Mai 2016 vor. Ursprünglich erschienen ist es 2006. Nun könnte man meinen, das sei für ein Lehrbuch im Bereich Informatik ein stattliches Alter. Man muss sich aber klarmachen, dass es hier nicht um konkrete Implementierungen und Technologien geht, die schnell wieder aus der Mode kommen. Das Buch beschäftigt sich mit Konzepten, Methoden und Algorithmen. Solches Wissen hat eine deutlich höhere Halbwertszeit. Insofern bin ich bei diesem Modul nicht der Meinung, eine inhaltliche Aktualisierung sei nötig. In der Lernplattform und bei den Einsendeaufgaben wird allerdings manchmal auf Online-Ressourcen verwiesen, die in dieser Form nicht mehr existieren. Eine Bearbeitung der Aufgaben ist trotzdem möglich, aber hier wäre eine Aktualisierung sicher benutzerfreundlicher.
     
    Das Thema Text Mining ist komplex. Man braucht viele Konzepte, Begriffe und Verfahren, die wechselseitig stark voneinander abhängen. Daraus ergibt sich die Schwierigkeit, in welcher Reihenfolge man die Inhalte präsentiert. Es lässt sich bei diesem Thema nicht vermeiden, manche Themen mehrfach anzusprechen, weil man ein erstes Verständnis braucht, um sich weitere Konzepte zu erschließen, die dann erst ein vertieftes Verständnis der ersten Themen ermöglichen. So ist es auch in diesem Buch. Immer wieder tauchen Themen aus früheren Kapiteln auf und erscheinen nun in neuem Licht. Diese didaktischen Schleifen sind nötig, weil man den Stoff nicht im ersten Anlauf begreifen kann.
     
    Das Einführende Kapitel "Wissen und Text" gibt auch einen kleinen historischen Rückblick über die automatische Wissensverarbeitung. Hier geht es u.a. um den Ansatz der Expertensysteme, der auf Logik, Fakten und Regeln basierte (Klassische KI). Dieser Ansatz erwies sich als nicht so fruchtbar, wie ursprünglich erhofft. Expertensysteme blieben Insellösungen, die über eine gewisse Komplexität nicht hinaus kamen. Außerdem war ein hoher Aufwand zur Wissenserschließung nötig. Text Mining beschäftigt sich mit der (halb-)automatischen Erschließung von Wissen aus unstrukturiertem Text und bietet somit neue Lösungsansätze.
     
    Im Kapitel "Grundlagen der Bedeutungsanalyse" berühren sich Linguistik und Statistik. Es geht um drei sehr grundlegende Begriffe, die für das Verständnis des gesamten Moduls essentiell sind:
    syntagmatische Relationen paradigmatische Relationen semantische Relationen  
    Vereinfacht gesagt, bezeichnet die syntagmatische Relation das gemeinsame Auftreten zweier Wortformen in einem Satz. Im vorhergehenden Satz stehen also die Wortformen "Satz" und "Auftreten" in syntagmatischer Relation. Das alleine hilft aber nicht weiter. Interessanter ist die statistisch-signifikante syntagmatische Relation. Hierzu betrachtet man die relativen Häufigkeiten einzelner Wortformen im Korpus. Auf dieser Grundlage bestimmt man die Wahrscheinlichkeit dafür, dass zwei Wortformen in einem zufällig zusammengestellten Satz vorkommen. Interessant sind nun Paare von Wortformen, die im Korpus wesentlich häufiger in syntagmatischer Relation stehen, als dies statistisch zu erwarten gewesen wäre. Der Grund ist oft, dass es einen Bedeutungszusammenhang zwischen den Wortformen gibt. So werden zum Beispiel die Wörter Butter und Brot häufiger gemeinsam auftreten als etwa Butter und Schraube.
     
    Der betrachtete Ausschnitt muss nicht immer ein Satz sein. Für viele Anwendungen ist es interessant, benachbarte Wörter zu betrachten. Wörter die statistisch häufig gemeinsam auftreten, bezeichnet man als Kookkurrenzen. Das Finden von Kookkurrenzen ist die Grundlage der Bedeutungsanalyse.
     
    Die paradigmatische Relation hat einen höheren Abstraktionsgrad. Hierfür betrachtet man den globalen Kontext einer Wortform. Das ist einfach die Menge ihrer signifikanten Kookkurrenzen. So könnte z.B. ein Wort wie Brot Kookkurrenzen wie Butter, Marmelade, Bäcker, Wurst und Honig haben. Das Wort Semmel könnte ähnliche oder die gleichen Kookkurrenzen haben. Die Kookkurrenzen sind also Mengen von Wörtern. Man vergleicht nun für Paare von Wörtern diese Wortmengen mittels eines Ähnlichkeitsmaßes. Sind die Kookkurrenzen ähnlich, so sagt man, die Wörter stehen in paradigmatischer Relation. Dies dürfte bei Brot und Semmel der Fall sein. Man sucht also Wörter, die in ähnlichen Kontexten verwendet werden. Dies ist für die Bedeutungsanalyse sehr fruchtbar.
     
    Semantische Relationen findet man, indem man die globalen Kontexte vor Bestimmung der Ähnlichkeit nach verschiedenen Kriterien filtert. Auf diese Weise findet man Zusammenhänge wie Kategorie, Funktion, Maßeinheit, Qualifizierung oder Ersetzungsklassen von Wörtern. Logische Relationen sind besonders trennscharf. Sie erlauben das Ziehen von Schlüssen. Dazu gehören z.B. Ober- und Unterbegriffe oder Gegensatzpaare.
     
    Interessant ist hierbei, dass Logik aus der Perspektive der Bedeutungsanalyse nicht als grundlegend erscheint. Grundlegend sind die statistisch-signifikanten syntagmatischen Relationen, also das auffällig häufige gemeinsame Auftreten von Wortformen. Logische Relationen erscheinen erst auf relativ hohen Abstraktionsstufen (sozusagen als emergente Eigenschaft). Dies ist ein wichtiger Unterschied zu den klassischen Expertensystemen, bei denen die Logik grundlegend war. Mit der Bedeutungsanalyse lassen sich logische Beziehungen zwischen Begriffen durch statistische Verfahren extrahieren.
     
    Im Kapitel "Textdatenbanken" geht es um Datenstrukturen, die sich für die Verarbeitung sehr großer Mengen natürlich-sprachlicher Texte eignen. Diese sollen einerseits platzsparend sein, andererseits einen sehr schnellen Zugriff erlauben. So soll es beispielsweise möglich sein, bei einem Korpus aus hunderten Millionen Wörtern schnell zu überprüfen, ob ein bestimmtes Wort enthalten ist. Eine Datenstruktur, die sich dafür gut eignet, sind sogenannte Tries. Sie sind letztlich Baumstrukturen, wobei jeder Knoten für einen Buchstaben eines Wortes steht. Das interessante an einem Trie ist, dass die Zugriffszeit nicht von der Anzahl der enthaltenen Wortformen sondern allein von der Länge des gesuchten Wortes abhängt.
     
    Auch die Herausforderungen der Segmentierung von Texten sind ein Thema dieses Kapitels. So könnte man meinen, das Ende eines Satzes lasse sich leicht finden, weil deutsche Sätze auf einen Punkt enden. Denkt man einen Moment darüber nach, merkt man, dass die Sache wesentlich komplizierter ist. Nicht jeder Satz endet mit einem Punkt. Nicht jeder Punkt markiert das Ende eines Satzes. Zum Beispiel kann ein Algorithmus leicht eine Abkürzung mit einem Satzende verwechseln. Auch die Identifikation einzelner Wortformen kann durch zahlreiche Sonderfälle erheblich verkompliziert werden.
     
    Im Kapitel "Sprachstatistik" geht es zunächst um die Zipfschen Gesetze. Diese erlauben z.B., die Anzahl der verschiedenen Wortformen eines Textes relativ gut zu schätzen, wenn seine Länge und seine Sprache bekannt sind. Sehr wichtig für das Verständnis der folgenden Kapitel ist der Abschnitt zur Differenzanalyse. Diese beruht auf dem Vergleich einer Textsammlung allgemeinsprachlicher Texte (dem Referenzkorpus) mit einer Sammlung bestimmter Texte (Analysekorpus). Die bestimmten Texte könnten zum Beispiel Zeitungsartikel eines bestimmten Themenbereiches sein. Die Differenzanalyse sucht mit statistischen Methoden nach Wortformen im Analysekorpus, die wesentlich häufiger auftreten als im Referenzkorpus. Dies ist ein Hinweis darauf, dass diese Wortformen für den Text oder die Textgattung in besonderer Weise bedeutungstragend sind. Dies ist zum Beispiel eine Grundlage für die automatische Beschlagwortung von Texten.
     
    Relativ anspruchsvoll sind die Abschnitte zum probabilistischen Sprachmodell. Hier geht es um Hidden-Markov-Modelle. Sie sind endliche Automaten, deren Zustandsübergänge mit Wahrscheinlichkeiten versehen sind. Hidden-Markov-Modelle (HMMs) kann man vielfältig einsetzen, zum Beispiel in der Spracherkennung. HMMs können nämlich mehrdeutige Fälle durch Auswertung des Kontextes auflösen. Sie können z.B. entscheiden, welches von mehreren gleich oder ähnlich klingenden Wörtern gemeint ist.
     
    Spannend sind die Verfahren zur Visualisierung von Kookkurrenzen mit Graphen. Um Begriffe herum erscheinen Wortwolken mit Begriffen, die in einem inhaltlichen Zusammenhang stehen. Bei manchen Begriffen sind diese Wortwolken zusammenhängend. Bei anderen zerfallen sie in Cluster. Das sind dann oft mehrdeutige Begriffe. Ein Beispiel wäre der Begriff Maus. Er ist umgeben von einem Cluster aus Wortformen, die mit der Bedeutung Nagetier zusammenhängen. Ein weiterer Cluster steht für die Bedeutung Eingabegerät.
     
    Im Kapitel "Clustering" geht es um die entsprechenden Algorithmen. Gerade hier kann man vieles auf die Inhalte des Moduls "Data Mining" übertragen. Im Text Mining verwendet man Clustering-Algorithmen, um z.B. Dokumente mit ähnlichem Inhalt zu gruppieren. Es ist faszinierend, dass so etwas allein auf der Grundlage von Kokkurrenzen und Differenzanalyse möglich ist.
     
    Im Kapitel "Musteranalyse" geht es reguläre Ausdrücke, die ja jedem Informatiker geläufig sind. Diese eignen sich gut, um aus Texten bestimmte Informationen mit vergleichsweise geringem Aufwand zu extrahieren. Die Suche nach Morphem-Mustern eignet sich dagegen zur automatischen Extraktion von Fachbegriffen eines Fachgebietes.
     
    Die letzten beiden Kapitel beschäftigen sich mit "Hybriden Verfahren" und "Beispielanwendungen". Insbesondere im letzten Kapitel werden viele Inhalte aus den vorangegangenen Kapiteln im Anwendungskontext noch einmal präsentiert. Nicht zu vernachlässigen sind in diesem Modul die Anhänge, die z.B. linguistische Begriffe klären oder Stoff aus dem Modul Statistik wiederholen.
     
    Tests und Aufgaben
     
    Dass die Inhalte anspruchsvoll sind, merkte ich bei diesem Modul auch bei den Tests und Einsendeaufgaben. Selten gelang es mir, die Tests auf Anhieb richtig zu lösen. Gut war, dass die meisten relativ umfangreiche Kommentare enthielten, so dass man erklärt bekam, warum etwas falsch war. Das half ungemein. Es empfiehlt sich, die gleichen Tests nach ein paar Tagen zu wiederholen, um zu schauen, ob man den Stoff verinnerlicht hat.
     
    Bei allen Aufgaben dieses Moduls habe ich deutlich länger für die Bearbeitung gebraucht als angegeben. In vielen Aufgaben geht es darum, zu erklären, wie bestimmte Verfahren und Anwendungen des Text Minings funktionieren. Es geht um Methoden und Algorithmen. Ich musste die Kapitel schon sehr gründlich durcharbeiten, um den Stoff gut genug zu verstehen.
    Die Implementierung der Verfahren in einer konkreten Programmiersprache spielte im Modul dagegen keine Rolle. Das ist kein Kurs für Leute, die mal wieder etwas programmieren wollen. Es geht allerdings durchaus darum, bestimmte Algorithmen so gut zu verstehen, dass man sie implementieren könnte. Ich habe jetzt z.B. eine ganz gute Vorstellung davon, wie Clustering funktioniert. Das schöne daran ist: Wenn man das verstanden hat, könnte man alles mögliche clustern, nicht bloß Texte oder Wortformen. Das Modul hat für mich so ein paar Wünsche erfüllt, die mir im Modul zu Algorithmen und Datenstrukturen offen geblieben sind.
     
    Klausur
     
    Bei der Online-Klausur habe ich leider gemerkt, dass ich die Aufgaben zwar prinzipiell hätte lösen können, allerdings nicht in der zur Verfügung stehenden Zeit. Dazu hätte man die Konzepte und Methoden schon sehr verinnerlichen müssen, um Lösungen praktisch ohne Nachdenken hinschreiben zu können. Das lief bei mir eher mittelprächtig, weswegen ich der Präsenzklausur mit Sorge entgegen sah.
     
    Die Präsenzklausur war dann einfacher als gedacht. Aber das ist kein Modul, das man nebenbei macht. Es ist nötig, alle Einsendeaufgaben gründlich zu bearbeiten. Und man sollte das Feedback seines Tutors nutzen, um fachliche Lücken zu schließen.
     
    Die Rückmeldungen meines Tutors waren in diesem Modul z.T. recht umfangreich, was mir bei diesem Thema auch sehr geholfen hat. Nachdem mir in der Online-Klausur die Zeit davongelaufen war, bekam ich auch ein paar Hinweise, wie ich schneller werden könnte. Ich habe versucht, dass in der Präsenzklausur zu beherzigen und hoffe, dass ich etwas davon umsetzen konnte. Auf das Ergebnis warte ich noch.
     
    Fazit
     
    Dieses Modul hat mich leider sehr lange beschäftigt. Gebucht hatte ich es schon Anfang 2017. Ich hatte angenommen, das irgendwann "zwischendrin" zu bearbeiten. Aber es war zu anspruchsvoll, um es nebenbei zu schaffen. Ich habe dann zunächst geschaut, dass ich Pflichtmodule abarbeite. Dann hielt mich meine Projektarbeit auf Trab. Nach dem Sommer war ich ein bisschen genervt, dass ich Text Mining noch immer nicht abgeschlossen hatte. Ich hatte das Lehrbuch schon zwei Mal zu zwei Dritteln gelesen, hatte es aber immer wieder abbrechen müssen. Um das Modul fertig zu kriegen, musste ich nun abermals von vorne anfangen. Hilfreich war dabei, dass ich Text Mining mit dem Modul "Präsentieren" kombiniert habe, dass mich auf eine ganz andere Weise forderte. Noch mehr abstraktes Denken hätte ich parallel zu Text Mining nicht geschafft.
     
    Man kann also sagen, dass Text Mining für mich ein anstrengendes Modul war. Es war allerdings auch ein Modul, dass ich inhaltlich unheimlich interessant fand. Gerade weil es fachlich zwischen Informatik, Statistik und Sprachwissenschaft angesiedelt ist, was die Sache natürlich auch schwierig macht. Im Wahlpflichtbereich gibt es leichtere Optionen. Andererseits meine ich, dass die Module "Data Mining" und "Business Intelligence" erst mit diesem Modul "komplett" sind, weil eben hier die mathematische und algorithmische Perspektive betont wird. Das Modul ist klar für Studierende, die sich im Wahlpflichtbereich ein bisschen fordern wollen.
     
    Aktuell warten nur noch zwei gebuchte Module auf mich - IT-Projektmanagement und Electronic Business. In beide habe ich schon reingeschnuppert. Ich hoffe, diese beiden Module im Januar abschließen zu können. Danach sollte nur noch die Bachelorarbeit vor mir liegen.
  21. kurtchen
    Das Modul "Wissenschaftliches Arbeiten" gehört zum Studienbereich "Basiskompetenz Beruf", in dem man verschiedene "Soft Skill" Module belegen kann. Die anderen Module dieses Bereichs sind "Soziale Kompetenz", "Selbst- und Zeitmanagement", "Rhetorik", "Präsentieren" und "Kreativitätstechniken". "Wissenschaftliches Arbeiten" nimmt unter diesen Modulen eine besondere Stellung ein. Es kann als einziges auch als Wahlpflichtmodul belegt werden. Wer also zu Beginn seines Studiums lieber "Rhetorik" belegen möchte, kann "Wissenschaftliches Arbeiten" noch kurz vor der Projekt- und Bachelorarbeit nachholen. Wichtiger ist allerdings, dass dieses Modul auf die Anfertigung der Bachelorarbeit vorbereitet.
     
    Früher war die Belegung freiwillig aber dringend empfohlen. Soweit ich informiert bin, ist das Modul inzwischen Pflicht für neu eingeschriebene Studenten, weil es in Einzelfällen Probleme bei der Anfertigung der Bachelorarbeiten gab. Das ist fatal, weil bei einer nicht bestandenen Bachelorarbeit ja schon die komplette Studienzeit investiert wurde. Auch eine schlechte Note ist hier besonders ärgerlich. Zum einen, weil die Bachelorarbeit stärker in die Endnote eingeht als andere Module, zum anderen, weil die Bachelorarbeit als eigenständige Leistung in einem (oft) selbstgewählten Themengebiet auch in der Außenwahrnehmung durch Arbeitgeber eine höhere Bedeutung hat als andere Module.
    Anscheinend hat sich an der FH Dortmund gezeigt, dass Studierende, die eine Einführung ins wissenschaftliche Arbeiten belegt haben, die formalen Anforderungen einer Bachelorarbeit besser bewältigen. Und das ist ja auch nicht überraschend. Die Methoden wissenschaftlichen Arbeitens kann und muss man lernen.
     
    Lehrbuch und Themen
     
    Professor Balzert ist einer der Autoren des Lehrbuches "Wissenschaftliches Arbeiten". Ich meine, den Stil und den sauberen Aufbau seiner Lehrbücher zur Softwaretechnik auch in diesem Buch wiederzuerkennen. Weitere Autoren sind Marion Schröder und Christian Schäfer. Frau Schröder kennen manche Studierende auch als Autorin des Lehrbuches "Heureka, ich hab's gefunden! Kreativitätstechniken, Problemlösung & Ideenfindung".
     
    Der reine Textteil hat über 400 Seiten. Ich kenne andere Einführungen ins wissenschaftliche Arbeiten und finde diese klar formuliert und gründlich. Wie schon in anderen Büchern von Herrn Balzert, klärt er zu Beginn wichtige Begriffe. Insbesondere behandelt er Qualitätskriterien wissenschaftlichen Arbeitens: Ehrlichkeit, Objektivität, Überprüfbarkeit, Reliabilität, Validität, Verständlichkeit, Relevanz, Logische Argumentation, Orginalität, Nachvollziehbarkeit, Fairness und Verantwortung. Diese Begriffe werden analysiert und durch konkrete Beispiele lebendig und verständlich gemacht. Diese Kapitel haben mir besonders gefallen. Eine so trennscharfe Analyse der Begriffe kenne ich eher aus geisteswissenschaftlichen Texten. Allein deswegen hat mir dieses Modul viel Freude gemacht.
     
    Im weitern Verlauf geht es dann um Techniken und Konventionen wissenschaftlichen Arbeitens. Zunächst geht es um den inhaltlichen Aufbau verschiedener Arten von wissenschaftlichen Arbeiten. Eine empirische Arbeit hat zwar im Prinzip einen ähnlichen Aufbau wie eine konstruktive Arbeit, aber Umfang und Gewichtung der verschiedenen Abschnitte unterscheiden sich deutlich. Darum ist es wichtig, sich darüber klar zu werden, was für eine Art wissenschaftlicher Arbeit man schreiben möchte. Unterschieden werden hier:
    Literaturarbeit empirische Arbeit konstruktive Arbeit theoretische Arbeit  
    Insbesondere die konstruktive Arbeit ist für Informatiker relevant. Hier geht es darum, durch systematisches Vorgehen ein technisches Erzeugnis zu erstellen, also z.B. ein Software-System. Die Projektarbeit im Studiengang Web- und Medieninformatik ist eine konstruktive Arbeit. Soweit ich informiert bin, kann die Bachelorarbeit auch einen anderen Charakter haben.
     
    In verschiedenen Studienabschnitten sind unterschiedliche Arten wissenschaftlicher Arbeiten zu erstellen. Es ist ein Unterschied, ob man eine Hausarbeit, eine Bachelorarbeit, eine Masterarbeit, einen wissenschaftlichen Artikel oder eine Dissertation schreibt. Mich haben natürlich zunächst einmal die Anforderungen an eine Bachelorarbeit interessiert, aber es ist schon interessant zu wissen, auf welche Höhen das Niveau noch steigen kann. Ich habe zwar momentan keine konkreten Pläne für einen Master, aber das könnte ja irgendwann noch einmal Thema werden.
     
    Schließlich geht es um den formalen Aufbau wissenschaftlicher Arbeiten, also um Dinge wie Satzspiegel, Textgestaltung, Seitennummerierung, Fußnoten, Anhänge und insbesondere Verzeichnisse. Hier erhält man viele wertvolle Tipps, wie man sich eine geeignete Dokumentenvorlage erstellt, um dann auch zügig arbeiten zu können. Im Modul sind Dokumentvorlagen für Word, LibreOffice und LaTEX enthalten, die man sich herunterladen kann. Ich habe ein wenig mit der LaTEX-Vorlage experimentiert. Leider hätte ich hier noch einige Anpassungen an die deutsche Sprache vornehmen müssen, weil insbesondere das Erstellen von Verzeichnissen noch unbefriedigend funktionierte. Für meinen mündlichen Vortrag habe ich aus Zeitdruck mit der LibreOffice-Vorlage gearbeitet, die ich für meine Zwecke etwas angepasst habe.
     
    Das Thema Formatierung ist nicht aufregend, aber für solche formalen Dinge kann später viel Zeit draufgehen. Die kann sich sparen, wenn man sich vorher die Mühe macht, eine gescheite Vorlage zu bauen. Literaturverzeichnissysteme können einem die Arbeit erleichtern, erfordern aber natürlich auch eine gewisse Einarbeitung. Darum ist es gut, sich schon vor Anmeldung einer Bachelorarbeit mit so etwas zu beschäftigen. LaTEX möchte ich mir noch einmal genauer anschauen. Ich habe den Eindruck, dass man damit viel Zeit sparen kann, wenn man die anfänglichen Hürden nimmt.
     
    Eine wichtige Rolle nimmt im Modul natürlich das korrekte Zitieren von Quellen ein. Hier geht es zunächst einmal darum, zu verstehen, was für Quellen zitierfähig und zitierwürdig sind. Dann geht es darum, sich in Absprache mit der Hochschule bzw. dem Betreuer für eine der verschiedenen Zitierweisen zu entscheiden und diese auch konsequent durchzuhalten. Dabei hilft wieder eine gute Dokumentenvorlage. Unterschiedliche Arten von Veröffentlichungen müssen im Literaturverzeichnis auch unterschiedlich behandelt werden. Insbesondere Quellen aus dem Internet sind nicht einfach zu referenzieren, weil eine Quelle unter einem Link nicht unbedingt dauerhaft zu finden ist. Es gibt verschiedene Möglichkeiten, damit umzugehen, die im Modul thematisiert werden.
     
    Es folgt ein Kapitel über wissenschaftlichen Schreibstil, verständliches Schreiben und die Visualisierung von Inhalten.
     
    Ein weiteres Kapitel behandelt unterschiedliche Forschungsmethoden mit ihren Stärken und Schwächen. Unterschieden werden hier:
    schriftliche Befragung Fragebögen und Interview-Leitfäden Experiment Interview Gruppendiskussion Beobachtung Inhaltsanalyse  
    Je nach Gegenstand und Forschungsschwerpunkt sind unterschiedliche Methoden angemessen. Auch dieses Kapitel hat eine erkenntnistheoretische Komponente.
    Ein wichtiger Teil des Kurses beschäftigt sich damit, wie man sich seine Arbeitszeit gut einteilt, um seine Arbeit auch rechtzeitig abschließen zu können. Hier fällt der Begriff Projektmanagement, den ich etwas übertrieben finde, weil für mich dazu gehört, dass zumindest ein kleines Team koordiniert wird. Selbst- und Zeitmanagement hielte ich für die passendere Bezeichnung. Gleichwohl erhält man hier wertvolle Tipps, wie man die Arbeit an einer Bachelorarbeit in überschaubare Teilschritte gliedern und Meilensteine definieren kann. Gezeigt wird auch die Arbeit mit Software-Tools zum Projektmanagement. Ich habe die Arbeit damit ausprobiert, hatte aber den Eindruck, dass hier das Verhältnis zwischen Einarbeitungsaufwand und Nutzen nicht stimmt. Wenn man ein Projekt mit vielen Beteiligten zu managen hat, mag das freilich ganz anders aussehen. In diesem Abschnitt wird auch behandelt, wann und wie oft man sich mit seinem Betreuer austauschen sollte.
     
    Der letzte Kursabschnitt handelt von der Präsenation der Ergebnisse in einem mündlichen Vortrag, denn eine Bachelorarbeit muss ja in den meisten Fällen auch verteidigt werden. Die Inhalte dieses Abschnittes überlappen sich zum Teil mit dem Modul "Präsentieren".
     
    Einsendeaufgaben
     
    Die Einsendeaufgaben sind zahlreich und vielfältig und beziehen sich auf alle Kursteile. Spaß gemacht haben mir zum Beispiel die Aufgaben zur Stilverbesserung. Am besten gefallen haben die Aufgaben zu den Qualitätskriterien wissenschaftlichen Arbeitens, weil sie oft eine kreative Komponente hatten. Die Korrekturen durch meine Tutoren kamen sehr zügig. Gut gefallen hat mir, dass sie Informatikerin ist und das Thema "Wissenschaftliches Arbeiten" aus dieser Perspektive betreut. Auch die Tests waren zahlreich und deckten den Stoff engmaschig ab.
     
    Prüfung
     
    Eine Besonderheit dieses Moduls ist, dass die Klausur nur eine Stunde dauert, dafür aber eine mündliche Prüfung zum Modul gehört. Diese muss ein bisschen früher anmeldet werden als eine Klausurteilnahme, weil der organisatorische Aufwand höher ist. Mündliche Prüfungen finden nur in Dortmund statt, üblicherweise am Freitag Vormittag.
    Die mündliche Prüfung besteht aus einem Vortrag von 20 Minuten. Anschließend beantwortet man noch Fragen zum Thema. Man reicht drei Themenvorschläge ein:
    ein allgemeines Informatikthema ein spezielles Informatikthema ein allgemeines Thema (das also nichts mit Informatik zu tun hat)  
    Ich hätte am liebsten ein Thema aus der Entwicklungspsychologie vorgetragen, aber ausgewählt wurde mein Vorschlag "Grundlegende Merkmale und Muster funktionaler Programmierung". Dieses Thema war auch gut, weil es schon einen gewissen Bezug zu dem hat, was ich in meiner Bachelorarbeit gerne machen würde. Insofern war die mündliche Prüfung auch eine Gelegenheit, sich hier schon mal ein bisschen einzulesen.
     
    Welches Thema ausgewählt wurde, erfährt man übrigens erst zwei Wochen vor dem Prüfungstag. Es geht nun darum, die im Modul gelernten Techniken im kleineren Maßstab anzuwenden. Erwartet wird z.B. die Recherche und Auswahl relevanter Literatur. Die Art des Vortrages ist nicht genau vorgegeben, aber Beamervorträge sind heute üblich. Ein Handout ist nicht zwingend, es kostet aber Punkte, wenn es fehlt. Außerdem ist das Handout eine Möglichkeit, das Verfassen einer schriftlichen Arbeit zu üben und auch Feedback dazu zu erhalten. Darum meine ich, es lohnt sich, hier zumindest etwas in der Art einer Hausarbeit abzuliefern. Zwei Wochen sind durchaus wenig Zeit für eine saubere Arbeitsweise im Sinne der vermittelten Techniken und Qualitätskriterien. Es macht viel Spaß, ein selbst gewähltes Thema zu recherchieren und zu bearbeiten, aber es ist auch viel Arbeit, insbesondere, wenn man eigentlich erst nach seinem Job Zeit hat, sich mit seinem Thema zu befassen. Die mündliche Prüfung erhöht den Bearbeitungsaufwand des Moduls erheblich. Ich vermute, dass das auch für andere Module mit mündlicher Prüfung gilt.
     
    Ein kritischer Punkt bei meinem Vortrag war die Einhaltung der Redezeit, was auch zu Punktabzug geführt hat. Auch beim Punkt Einbeziehung des Publikums habe ich noch einiges zu lernen. Fachlich war es zu meiner Überraschung in Ordnung. Ich war nämlich die ganze Zeit der Ansicht, viel zu wenig Stoff behandelt zu haben, und habe mir den Kopf zerbrochen, wie ich noch mehr Themen in die 20 Minuten quetschen kann. Für das nächste Mal werde ich lernen müssen, stärker Wesentliches vom Unwesentlichen zu trennen.
     
    In den Klausuraufgaben geht es unter anderem um Qualitätskriterien wissenschaftlichen Arbeitens. Es werden etwa Vorgehensweisen, Aussagen oder Schlussfolgerungen präsentiert und man soll dann erklären, warum das keine saubere wissenschaftliche Arbeitsweise ist und was man besser machen müsste. Für die Endnote werden die Punkte aus mündlicher und schriftlicher Prüfung addiert.
     
    Mit meinem Prüfungsergebnis war ich zufrieden, auch wenn die mündliche Prüfung gezeigt hat, dass es noch Punkte gibt, an denen ich arbeiten muss.
     
    Fazit
     
    Ich hätte erwartet, dass dieses Modul zwar nützlich für die Bachelorarbeit aber nicht besonders spannend ist. Zu meiner Überraschung hat die Bearbeitung mir unheimlich viel Spaß gemacht.
     
    Thematisch war es eine echte Abwechslung. Es hat eben nicht nur und nicht mal schwerpunktmäßig mit Informatik zu tun. Tatsächlich ist das Lehrbuch eine allgemeine Einführung ins wissenschaftliche Arbeiten. Die Beispiele stammen darum nicht nur aus der Informatik sondern z.B. auch den Sozialwissenschaften oder ganz anderen Disziplinen. Das Modul ist im Gegensatz zu den meisten anderen Modulen meines fachbezogenen Studiums allgemeinbildend. Was hier vermittelt wird, entwickelt auch die Fähigkeit zu kritischem Denken. Bei den Einsendeaufgaben und auch bei den Themenvorschlägen für die mündliche Prüfung hat man größere Entscheidungsspielräume als bei anderen Aufgaben im Informatik-Studium. Rückblickend betrachte ich das Modul "Wissenschaftliches Arbeiten" als eines der schönsten in meinem Studium.
  22. kurtchen
    Welche Bedeutung hat das Modul XML im Studiengang?
     
    Das Modul XML ist Pflicht für Studierende im Studiengang Web- und Medieninformatik. Es ist zugleich Baustein für die Hochschulzertifikate "Web-Entwickler" und "Software-Architekt" und wird als sinnvolle Vorbereitung für das Modul "Aktuelle Webtechniken" genannt, bei dem es um Java Server Faces geht. Die inhaltlichen Voraussetzungen für XML sind überschaubar; lediglich "Grundlagen der Informatik 1" sollte man belegt haben. Im Prinzip könnte man XML also schon im ersten Semester belegen.
     
    Für Studierende der Wirtschaftsinformatik ist dieses Modul nicht vorgesehen. Sie erwerben Grundkenntnisse in XML im Pflichtmodul "Web-Programmierung". Dort ist XML aber nur ein Thema unter vielen.
     
    Grundlage für das Modul ist das Lehrbuch "XML - DTD, XML-Schema, XPath, XQuery, XSLT, XSL-FO, SAX, DOM" von Margit Becher. Die Autorin war zugleich auch meine Tutorin, was bei Fragen zum Lehrtext immer praktisch ist. Das Lehrbuch hat an die 300 Seiten; der Umfang ist also für Springer Campus leicht unterdurchschnittlich. Die Stofffülle ist dennoch nicht zu unterschätzen.
     
    Was ist XML?
     
    Worum geht es nun? XML ist eine Auszeichnungssprache, d.h. Text oder andere Inhalte werden mit sogenannten Tags eingeschlossen. Die Tags spezifizieren z.B., um was für eine Art Inhalt es sich handelt, etwa einen Namen, ein Datum oder auch einen komplexen, zusammengesetzten Inhalt wie eine Adresse oder eine komplette Bestellung. Die Auszeichnung erleichtert es Maschinen, die Inhalte zu verarbeiten.
     
    Im Gegensatz zu HTML sind in XML die Tags nicht vordefiniert. Der Autor eines XML-Dokumentes kann selbst nach Bedarf Tags definieren und verwenden. XML ist also erweiterbar - engl. extensible - und das Kürzel XML steht für Extensible Markup Language. Zu beachten ist lediglich, dass geöffnete Tags wieder geschlossen werden und dass Tags sich nicht überlappen dürfen. Sie können lediglich ineinander geschachtelt werden. Dies nennt man Wohlgeformtheit. Tags können auch Attribute aufweisen. Man kann sich vorstellen, dass dem Element Eigenschaften hinzugefügt werden.
     
    Ein XML-Dokument kann man als Baumstruktur visualisieren. XML-Dateien sind maschinenlesbar und zugleich menschenlesbar. Aus diesem Grund eignen sie sich z.B. gut für Konfigurationsdateien. Man kann XML aber auch gut verwenden, um strukturierte Daten systemübergreifend oder über das Internet auszutauschen. 
    XML-Dateien können mit CSS-Stylesheets verknüpft werden. Die Tags stehen dann für die Struktur der Daten, innerhalb der Tags stehen die eigentlichen Daten und das Stylesheet gibt an, wie die Daten darzustellen oder zu präsentieren sind.
     
    Mit DTD oder XML-Schema definiert man die Struktur einer XML-Datei
     
    Interessant ist zunächst die Möglichkeit, die Struktur der Daten in einer XML-Datei in allgemeiner Form zu beschreiben. Man kann z.B. festlegen, dass eine Adresskartei aus Adressen besteht, die wiederum aus Name, Straße, Hausnummer, Postleitzahl und Ort in genau dieser Reihenfolge bestehen müssen. Ein XML-Dokument ist dann eine Instanz oder eine konkrete Ausprägung dieser allgemeinen Struktur. XML-Dateien können gegen eine solche Strukturdefinition gecheckt werden, d.h. ein Algorithmus prüft, ob die Datei der festgelegten Struktur entspricht. Ist dies der Fall, sagt man, die Datei sei valide. Das ist nützlich für Software, die Daten in XML-Form automatisiert verarbeiten soll. Man kann so Fehler in der Verarbeitung der Datei vermeiden.
     
    Es gibt 2 Möglichkeiten, die Struktur einer XML-Datei zu definieren. Die ältere ist die DTD (Document Type Definition). Die neuere ist XML-Schema. Letzteres ist komplexer, hat aber viele Vorteile. Besonders nützlich ist die Möglichkeit, viele verschiedene Datentypen zu unterscheiden, z.B. nummerische Werte, Datumswerte, Uhrzeiten und dergleichen. Man kann auch eigene Datentypen definieren, z.B. durch Werteinschränkung oder Kombination vordefinierter Typen. So kann die Struktur der zu verarbeitenden Daten viel präziser beschreiben als mit der DTD. Im Kurs werden beide Möglichkeiten ausführlich behandelt. Im Gegensatz zum Modul "Web-Programmierung" werden auch viele Detailfragen geklärt und seltener auftretende Anwendungsfälle vorgestellt. Einsendeaufgaben hier bestehen üblicherweise darin, in natürlicher Sprache spezifizierte Anforderungen an eine Datenstruktur als DTD oder XML-Schema präzise zu beschreiben.
     
    Wir können nun strukturierte Daten in einer Textdatei ablegen, die für Maschine wie Mensch zu lesen ist. Wir können die Struktur der Daten präzise beschreiben und eine Maschine prüfen lassen, ob Daten die für eine automatisierte Verarbeitung nötige Struktur haben.
     
    Mit XPath und XQuery extrahiert man Informationen aus einer XML-Datei
     
    XML-Dokumente können sehr lang und umfangreich werden. Nun gibt es Anwendungsfälle, bei denen man bestimmte Informationen aus einem XML-Dokument extrahieren möchte. Dazu werden im Kurs 2 Möglichkeiten behandelt: XPath und XQuery. XPath bietet die Möglichkeit, durch die Baumstruktur des Dokumentes zu navigieren und Elementeinhalte und Attribute zu testen, um bestimmte Elemente und Attribute herauszufiltern. Aus einer umfangreichen Vorlesungsliste in XML-Form kann man so z.B. alle Lehrveranstaltungen eines bestimmten Professors im Sommersemester eines bestimmten Jahres mit mehr als 2 SWS herausfiltern. XQuery bietet noch weitergehende Möglichkeiten, z.B. durch Schleifen. XQuery wird manchmal auch "SQL des 21. Jahrhunderts" genannt. Ganz so elegant und deklarativ wie SQL ist es aber - zumindest in der im Kurs behandelten Version - noch nicht. So müssen z.B. Joins noch von Hand ausprogrammiert werden. Bei Einsendeaufgaben in diesem Kursabschnitt geht es in der Regel darum, aus einer gegebenen XML-Datei bestimmte Informationen per XPath oder XQuery zu extrahieren.
     
    Mit XSLT kann man XML-Dokumente automatisch in andere Dokumente transformieren
     
    Im nächsten großen Kursabschnitt geht es um XSLT. Diese Technik ermöglicht, ein XML-Dokument in ein anderes Dokument zu transformieren, z.B. ein neues XML-Dokument aber auch in eine HTML-Datei. In XSLT können XPath-Ausdrücke verwendet werden. Man kann XSLT also z.B. benutzen, um aus einer XML-Datenbasis bestimmte Informationen zu extrahieren und daraus automatisch HTML-Seiten oder Fragmente von HTML-Seiten zu bauen. Dazu werden Schablonen definiert, die auf bestimmte Elemente des XML-Dokumentes angewendet werden. Bei Einsendeaufgaben in diesem Kursabschnitt ist üblicherweise ein XML-Dokument vorgegeben, das per XSLT in HTML-Dokument transformiert werden soll, das ausgewählte Inhalte des ursprünglichen Dokumentes in bestimmter Form präsentiert. In einem eigenen Kapitel wird noch XSL-FO vorgestellt. Das kann z.B. benutzen, um aus XML-Dateien automatisch PDFs zu erzeugen.
     
    Der Abschluss des Kurses bildet ein Kapitel über die Verarbeitung von XML in Java mit SAX und DOM. Dieses durchaus interessante Kapitel ist allerdings nicht mehr prüfungsrelevant.
     
    Ein gutes Modul, wenn man die richtigen Werkzeuge nutzt
     
    Der Lehrtext ist gut strukturiert und die Aufgaben sinnvoll darauf abgestimmt. Die Rückmeldungen durch meine Tutorin waren präzise, hilfreich und kamen meist schnell. Zu Beginn des Kurses habe ich leider viel Zeit vergeudet, indem ich versucht habe, ohne den empfohlenen XML-Editor OxygenXML auszukommen. Der ist proprietär und leider nicht billig. Studierende können ihn allerdings für 30 Tage kostenlos testen, nachdem sie sich registriert haben. 30 Tage erschienen mir etwas knapp für die Bearbeitung des Kurses. Darum hatte ich zunächst versucht, mit OpenSource-Tools auszukommen. Den Kursteil zur DTD und zu XML-Schema konnte ich so noch gut bearbeiten, auch wenn es müsam voran ging. Spätestens für XPath ist es von enormem Vorteil, einen professionellen XML-Editor zu Verfügung zu haben. Als ich mich schließlich doch wiederwillig für OxygenXML registrierte, musste ich nach wenigen Minuten einsehen, dass das besser von Anfang an hätte machen sollen. Man kann damit viel komfortabler und vor allem schneller arbeiten. Eiert also nicht rum wie ich sondern besorgt euch von Anfang an das richtige Werkzeug.
     
    Online- und Präsenz-Klausur
     
    Online-Klausur und Präsenzklausur fand ich vom Schwierigkeitsgrad vergleichbar. Der Zeitdruck in der Online-Klausur erschien mir höher. Möglicherweise wurde hier in Anschlag gebracht, dass man in der Präsenzklausur keine Entwicklungsumgebung zur Verfügung hat, während der Online-Klausur aber schon.
     
    In der Präsenzklausur war EIN XML-Dokument gegeben. Auf der Grundlage dieses Dokumentes wurden ALLE wesentlichen Themen des Kurses abgeprüft: DTD, XML-Schema, XPath, XQuery und XSLT. Das erscheint mir vernünftig. Indem sich alle Aufgaben auf EIN Dokument  beziehen, muss man sich nicht ständig neu einlesen und die Prüfer können den Stoff breiter abdecken. Mein Eindruck war, dass die Aufgabenstellungen sich auf häufig verwendete Anwendungsfälle konzentrieren, hier also nicht die exotischsten Spezialfälle abgefragt werden. Ein Klausurergebnis liegt mir aber noch nicht vor.
     
    Fazit
     
    XML hat mir Spaß gemacht. Man braucht nicht viel Phantasie, um sich vorzustellen, welchen Nutzen diese Sprache für einen Web-Informatiker haben könnte. Wünsche, was ich gerne NOCH gelernt hätte, sind bei mir diesmal nicht offen geblieben; das Modul ist aus meiner Sicht inhaltlich vollständig.
     
    Es würde mich nun reizen, auch noch das Modul "Aktuelle Webtechniken" im Wahlbereich zu belegen, bei dem es um Java Server Faces geht. XML wird dafür als inhaltliche Voraussetzung genannt. Kommilitonen, dieses Modul schon belegt haben, berichten mir, dass XML hierfür durchaus sehr nützlich ist. Da ich diese Voraussetzung nun erfülle und mir die Kurse zur serverseitigen Programmierung mit Java gut gefallen haben, bin ich schon sehr gespannt auf diese Einführung in JSF. Allerdings wird es wohl Herbst werden, bevor ich dazu komme. Das größte Chaos meines Umzuges ist zwar überstanden und ich habe nun wieder einen Arbeitsplatz und einen Internetanschluss; trotzdem hängt am Umzug ein Rattenschwanz zu Kleinigkeiten, die noch erledigt werden müssen; und die mir Tag für Tag Zeit rauben, die eigentlich gerne ins Studium stecken würde. Mal sehen, wie lange dieses Stadium noch dauert.
  23. kurtchen
    Seit neuestem ist es möglich, auch in Heidelberg Klausuren zu schreiben. Das liegt daran, dass der Springer Verlag eine Zweigniederlassung in Heidelberg hat. Der Klausurort ist darum auch das große Gebäude in der Tiergartenstraße 17.
     
    Klausuren in Heidelberg sind bis auf weiteres Freitags von 10 bis 12 und bei Bedarf von 13 bis 15 Uhr möglich. Samstags kann man in Heidelberg keine Klausuren schreiben.
     
    Wenn man mit dem Auto anreist, sollte man bedenken, dass der Verkehr sich morgens im Berufsverkehr stadteinwärts staut. Das kennt man auch von anderen Städten. Die Parksituation vor Ort ist gut. Springer hat einen großen Firmenparkplatz, den ich aber gar nicht nutzen musste, weil ich einen der zahlreichen öffentlichen und gebührenfreien Parkplätze einer nahe gelegenen Sportanlage nutzen konnte. Auch die Anreise mit öffentlichen Verkehrsmitteln scheint nach Auskunft eines Kommilitonen kein Problem zu sein.
     
    Beim Betreten des Gebäudes muss man sich am Empfang in eine Besucherliste eintragen und beim Verlassen des Gebäudes auch wieder abmelden. Das dauert einen Moment. Dafür ist der Klausurraum im Erdgeschoss nahe beim Eingang und nicht schwer zu finden. Wie an anderen Klausurorten üblich, werden Getränke und ein paar Süßigkeiten zur Verfügung gestellt.
     
    Ein großes Plus in Heidelberg ist die hervorragende Betriebskantine von Springer. Ob süß oder herzhaft, üppig oder gesundheitsorientiert, mit oder ohne Fleisch, hier ist für jeden etwas geboten. Ich hatte bei meinem ersten Besuch am Ende mehr auf dem Tablett, als ich mir vorgenommen hatte, weil so viele leckere Dinge lockten. So konnte ich gut gestärkt in meine zweite Klausur gehen.
     
    Schön am Standort Heidelberg ist auch, dass man dort Mitarbeiter von Springer Campus trifft, die unseren aber auch weitere Fernstudiengänge organisatorisch betreuen. Das ist eine schöne Gelegenheit zum informellen Austausch, über die aktuelle und künftige Situation unseres Studienganges. Es ist durchaus interessant zu erfahren, wie bestimmte Aspekte unseres Fernstudiums aus Anbietersicht wahrgenommen werden.
     
    Bislang nutzen nur wenige Studierende den  Klausurstandort Heidelberg. Allerdings weiß ich von Kommilitonen, dass trotz eindeutiger E-Mail-Einladung noch längst nicht alle mitbekommen haben, dass es diese neue Möglichkeit gibt. Ich glaube, dass Heidelberg vor allem für die Studierenden aus Baden-Württemberg eine interessante Alternative sein könnte. Aber nicht nur. Ich wohne in Unterfranken und möchte in Zukunft gerne öfter meine Klausuren in Heidelberg schreiben.
  24. kurtchen
    Am Montag war die Lernplattform von Springer Campus für längere Zeit nicht erreichbar. Ein größeres Update wurde eingespielt, was uns Studierenden allerdings einige Tage vorher per Mail angekündigt worden war. Die Plattform hat nun ein neues Design.
     
    Zugegeben: Das bisherige Design sah ein wenig altbacken aus. So nach WindowsXP.
     
    Natürlich habe ich nun erst mal ein wenig Schwierigkeiten, mich zurecht zu finden, weil die verschiedenen Schaltflächen nicht mehr an den gleichen Stellen sind. Auf so etwas reagiere ich nicht mit Begeisterung, aber natürlich weiß ich, dass ich mich schon umgewöhnen werde.
     
    Der Vorteil des neuen Designs: Es ist "responsive", d.h. das Layout passt sich an kleinere Bildschirme von Tablets und Smartphones an, z.B. indem Inhalte untereinander angeordnet werden, die sonst nebeneinander stehen oder indem Menüs eingeklappt werden, die nicht unbedingt gebraucht werden. Es sollte in Zukunft leichter sein, Tests unterwegs zu bearbeiten. Im Prinzip wäre es sogar denkbar, den Text von Wissensbausteinen am Handy zu lesen. Ich vermute, dass das nicht bei allen Modulen gut gehen wird. Im Modul "Computernetze" gab es viele Diagramme, die eigentlich schon für meinen Laptop-Bildschirm zu groß waren. Die konnte man verkleinern, aber dann wurde es schwieriger Details zu erkennen. Aber grundsätzlich eine gute Sache.
     
    Inakzeptabel ist allerdings die Farbgebung: Die Schriftfarbe ist ein Grau, dass vor dem weißen Hintergrund für mich einfach zu kontrastarm ist. Ich schaffe es nicht mehr, längere Zeit zu lesen. Es ist sehr anstrengend und ich bekomme schnell Kopfschmerzen. Zum Glück gilt das nicht für die Darstellung in den Wissensbausteinen, wo man ja den Löwenanteil der Texte lesen wird. Hier wurde ein grauer Hintergrund gewählt, der weniger blendet, so dass die Schrift nicht so überstrahlt wird. Zwar wäre mir auch hier eine dunklere Schrift lieber, aber damit kann ich leben. Schwierig wird es für mich aber bei den Tests und Aufgaben. Hier ist der Hintergrund hell und überstrahlt das Grau der Schrift. Helfen würde mir hier eine dunklere Schrift oder ein etwas dunklerer Hintergrund. Natürlich gibt es immer die Möglichkeit, im Browser eine andere Darstellung zu erzwingen, was ich wahrscheinlich für's erste tun muss.
     
    Eine weitere Schwierigkeit für mich: Bei den Tests unterscheiden die Ampelfarben Rot und Grün die Ergebnisse "geschafft" und "nicht geschafft" bzw. "nicht bearbeitet". Hier wurden recht blasse Farben gewählt, die sich in ihrer Helligkeit recht ähnlich sind. Für mich ist das ein Problem, da ich Rot und Grün nicht sicher unterscheide. Das ist ja bei Männern nicht selten. Helfen würden mir hier sattere Farben oder deutlichere Helligkeitsunterschiede zwischen Rot und Grün. Interessant eigentlich, weil die recht verbreitete Rot-Grün-Schwäche im Modul "Webdesign und Webergonomie" thematisiert wird.
     
    In der alten Plattform konnte man zwischen drei Farbschemata wählen. Jetzt scheint es eine solche Möglichkeit nicht mehr zu geben.
     
    Ich habe dem Studienbüro von meinen Schwierigkeiten berichtet. Mir wurde ins Aussicht gestellt, dass es in der nächsten Zeit noch weitere kleinere Änderungen am Erscheinungsbild der Plattform geben wird und das man sich bemühen wird, die Rückmeldungen der Studierenden zu berücksichtigen. Insofern hoffe ich, dass in Zukunft wieder eine Auswahl zwischen Farbschemata möglich sein wird. Das war schon ein Feature, das ich gerne zurück hätte.
     
  25. kurtchen
    Beim letzten Prüfungstermin habe ich 4 Klausuren an 2 verschiedenen Standorten geschrieben:
    - Web-Engineering (Heidelberg)
    - Software-Technik 3 (Heidelberg)
    - Content-Management-Systeme (Dortmund)
    - Data-Mining (Dortmund)
     
    Nötig war das, weil ich zum 1. Juli umziehe. Das ist zum Glück nur ein Umzug innerhalb der Stadt, aber viel Zeit wird trotzdem dafür draufgehen. Außerdem werden wir in der neuen Wohnung ein bisschen renovieren und umbauen müssen. Einen Schuppen werde ich auch noch bauen müssen, damit wir einen Platz haben, wo wir unsere Fahrräder hinstellen können. Die alte Wohnung war schon lange zu klein, was sich immer häufiger auf den Familienfrieden auswirkt. Berufsbedingt bin ich es gewohnt, im größten Trubel meinen Kram zu machen, so dass ich wahrscheinlich noch am wenigsten darunter gelitten habe. Mich stören eher technische Geräusche: Handy-Gedudel, Gepiepse von Computerspielen und solche Sachen. Da gilt die Regel: Nicht wenn ich lerne bzw. dann nur mit Kopfhörer. Da halten sich die Teenager zum Glück dran.
     
    Die alte Wohnung hatte viele Vorzüge. Unser Vermieter hat uns nicht ein einziges Mal die Miete erhöht und war immer sehr tolerant gegenüber Kinderlärm. Dafür haben wir bei Reparaturen immer zugeschaut, dass wir uns möglichst selbst mit Material aus dem Baumarkt helfen. Leben und Leben lassen. War eine Hausgemeinschaft, wo man ein bisschen aufeinander aufgepasst hat. Selbst, wenn wir in Urlaub gefahren sind, haben wir die Wohnungstür nur zugezogen, nie abgeschlossen. Wäre sofort aufgefallen, wenn jemand unbekanntes durchs Treppenhaus geht. Die günstige Miete hat mir auch sehr geholfen, die Kosten für mein Studium aufbringen zu können, obwohl ich meine Arbeitszeit auf 30 Stunden reduziert hatte. Das wird ab jetzt alles ein bisschen schwieriger.
     
    Das jedenfalls war der Grund für meinen Versuch, 4 Klausuren auf einen Streich zu schaffen. Den Stoff von 4 Modulen gleichzeitig im Kopf "fluide" zu halten, ist mir nicht leicht gefallen. Vor allem, weil mit Software-Technik 3 ein anspruchsvolles und umfangreiches Modul dabei war, das mir auch inhaltlich sehr wichtig war. Da wollte ich gerne gut abschneiden. Ich hoffe, dass sich mein Ehrgeiz, alles vor dem Umzug zu schaffen, nicht an gerade dieser Stelle rächt.
     
    Nach den Prüfungen habe ich auch gemerkt, dass ich mich nicht lange konzentrieren konnte. Der Start in mein neues Modul "BWL1" war zäh. Jetzt wird es langsam wieder besser. 4 Klausuren an einem Termin, das möchte ich nicht zur Nachahmung empfehlen.
×
  • Neu erstellen...