Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    879
  • Benutzer seit

  • Letzter Besuch

Blogbeiträge von kurtchen

  1. kurtchen
    Am Freitag war endlich die lange erwartete Urkunde im Briefkasten. Vom Kolloquium bis ihrem Eintreffen hat es immerhin fast 13 Wochen gedauert. Ich nenne diese Zahl mal als Anhaltspunkt für andere Studierende, die ihr Studium bald abschließen wollen. Es passt auch ganz gut zu dem, was mir Kommilitonen berichtet haben, die ein bisschen schneller waren als ich.
     
    Natürlich war ich ein wenig ungeduldig, die Urkunde irgendwann in den Händen zu halten. Das Studium hat mir Spaß gemacht und es war toll, ständig etwas neues zu lernen, aber natürlich hat mich auch die Aussicht auf ein greifbares Ergebnis meiner Mühen angetrieben. Wobei die eigentliche Hoffnung ja war, durch das Studium einen Einstieg in ein neues Arbeitsfeld zu finden. Das hat nun sogar schon knapp vor dem Abschluss geklappt. Insofern war die Urkunde keine Eintrittskarte sondern vor allem das Ende eines langen Weges.
     


    Ich finde, sie sieht recht chic aus, und bin ganz froh, dass meine noch von der FH Dortmund ausgestellt wurde.
     
    Mein neues Leben sieht nun so aus, dass ich Montags bis Mittwochs im Biozentrum der Uni Würzburg arbeite. Dort programmiere ich Steuersoftware für biologische Experimente. Mir gefällt zum Beispiel, dass ich in der schönen und für mich neuen Sprache Go programmieren darf.
     
    Donnerstags und Freitags arbeite ich weiterhin im Kindergarten. Meine Stundenzahl dort wurde jüngst wieder etwas erhöht, so dass ich insgesamt nun fast wieder Vollzeit arbeite. Der Gegensatz zwischen meinen beiden Arbeitswelten ist natürlich enorm. Ich erlebe inzwischen ziemlich bewusst, wie anstrengend die Arbeit in einem Kindergarten ist, nicht nur nervlich sondern auch körperlich, was mir vorher gar nicht so klar war. Trotzdem freue ich mich jeden Mittwoch aufs Neue auf die Kinder. Aktuell sieht es so aus, als würde ich noch bis zum Ende des Kindergartenjahres zweigleisig fahren. Mal sehen, wie es danach weitergeht, denn die Stelle am Biozentrum ist befristet.
     
    Doch unterm Strich bin ich bislang ganz zufrieden, wie der Übergang vom Studium in eine neue Berufspraxis sich anlässt.
     
    Allmählich nehme ich mir auch wieder Zeit für andere Interessen. Ich hatte ja wegen einer Handverletzung mein Instrument - die klassische Gitarre - aufgeben müssen. Noch während des Studiums hatte ich es mit einem Digitalpiano versucht. Das ist mit der Bachelorarbeit aber wieder eingeschlafen. Inzwischen habe ich mir eingestehen müssen, dass es nicht nur am Zeitmangel lag. Das Piano war als Ausgleich zum Informatikstudium keine so gute Idee. Wenn man ohnehin schon viel sitzt und Tasten drückt, dann ist es nicht sehr reizvoll, in der knappen Freizeit schon wieder zu sitzen und Tasten zu drücken. Inzwischen habe ich ein neues Instrument gefunden, das mir sogar noch mehr Spaß macht als damals die Gitarre. Auch lese ich endlich mal wieder Bücher, die nichts mit Informatik zu tun haben.
     
    Abgesehen von der Urkunde gab es noch zwei nette Details, die ich gerne im Blog erwähnen wollte. Das erste ist die sogenannte AbsolvEnte, die in meinem Studiengang seit langem mit der Urkunde überreicht wird. Diese Tradition hat bereits den Wechsel von der W3L zu Springer Campus überlebt. Ich habe keine Ahnung, ob auch die SRH Riedlingen eine AbsolvEnte überreichen wird, aber ich schätze mich glücklich, dass ich meine noch bekommen habe. Das Studienbüro hat sie mir schon in der Adventszeit zugeschickt, darum sieht das Photo so weihnachtlich aus.
     

     
    Außerdem bekam ich dieser Tage noch sehr nette Glückwünsche von Springer Campus übermittelt. Nicht nur irgendein Formschreiben sondern wirklich individuell bezogen auf meine neue berufliche Situation. Darüber habe ich mich wirklich sehr gefreut.
     
    Mein Fernstudium B.Sc. Web- und Medieninformatik ist nun allerdings in jeder denkbaren Hinsicht beendet. Insofern schließe ich heute diesen Blog. Ich hoffe, er hat dem einen oder anderen Mut gemacht, sich für ein Fernstudium zu entscheiden. Es ist toll, sich durch Bildung und Lernen weiterentwickeln zu können.
     
    Macht's gut und Danke für Euer Interesse!
     
     
     
  2. kurtchen
    Ausgangslage
     
    Angefangen hatte alles damit, dass ich als Kindergärtner auf der Suche nach einer interessanten Weiterbildungsmöglichkeit war. Dabei stieß ich auf den B.Sc. Sozialinformatik der Hochschule Fulda. Dieser berufsbegleitende Studiengang richtete sich an ausgebildete Fachkräfte im Sozialbereich oder im IT-Bereich. Ein einschlägige Ausbildung und Beschäftigung während des Studiums war Zugangsvoraussetzung. Ziel des Studiums war die Qualifizierung von IT-Fachkräften für den Sozialbereich, also etwa in Analogie zum Wirtschaftsinformatiker für den Unternehmensbereich. Das klang für mich interessant.
     
    Damals habe ich auch einen Thread hier im Forum gestartet, in der Hoffnung, Studierende zu finden, die mir etwas aus erster Hand berichten konnten. Das hat leider nicht geklappt. Ich hatte damals das Glück, mit Hilfe des Studienbüros einen Studierenden in diesem noch recht jungen Studiengang zu finden, der mir etwas über seine Erfahrungen berichten konnte. Abgehalten hat mich eigentlich nur der relativ starre Zeitplan an der HS Fulda. Zwar gab es die Möglichkeit, verpasste Klausuren oder Module im Folgesemester oder im Folgejahr nachzuholen, aber ich war mir nicht sicher, wie rasch meine Lernfortschritte sein würden. Insbesondere konnte ich nicht abschätzen, wie schwer es mir fallen würde, mich wieder mit Mathematik zu beschäftigen. Rückblickend meine ich, dass ich mit diesem Studium gut zurecht gekommen wäre. Es gab damals ein paar Forumsteilnehmer, die in Zweifel zogen, ob Sozialinformatik als richtiges Informatikstudium gelten konnte. Heute meine ich, das Curriculum dieses Studienganges selbst ganz gut beurteilen zu können. Und finde, dass der B.Sc. Sozialinformatik ein attraktives Studienangebot ist, wenn man mit dem vorgegebenen Tempo zurecht kommt.
     
    Nachdem ich mich schon einmal mit der Möglichkeit auseinandergesetzt hatte, mich mit Mathematik, Programmierung und Algorithmen zu beschäftigen, schaute ich mich nach anderen Anbietern mit einem flexibleren Studienmodell um. Zuerst stieß ich dabei auch auf die WBH, die ja ein besonders bekannter Anbieter technischer Fernstudiengänge ist. Es gab aber auch weniger bekannte Anbieter mit interessanten Konzepten. An Springer Campus - damals noch W3L AG - gefiel mir, dass sie sehr transparent über die Inhalte ihrer Module informierten. Man konnte sich zu jedem Modul Probelektionen freischalten lassen und sich so einen Eindruck von der Lernplattform verschaffen. So konnte ich sehen, dass mir die Inhalte des Curriculums gefielen. Die freie Zeiteinteilung bei der Belegung der Module und der Anmeldung von Prüfungen hätte es aber auch bei anderen privaten Anbietern - wie z.B. der WBH - gegeben
     
    Sehr interessiert hätte mich auch der Studiengang IT-Analyst der Hochschule Kaiserslautern. Auch hier gefiel mir die Zusammenstellung der Themen und Module. Und auch die HS Kaiserlautern informierte sehr transparent über Inhalte. Leider war einschlägige Berufserfahrung eine Zugangsvoraussetzung, die ich nicht erfüllen konnte.
     
    So bin ich also bei Springer Campus gelandet. Sie boten ihren Studiengang in Kooperation mit der FH Dortmund an, die später auch den Abschluss verleihen sollte.
     
    Was mir am Studium bei Springer Campus gefallen hat:
     
    Die inhaltliche Zusammenstellung des Curriculums: Der Studiengang hatte vergleichsweise viele Module zur Programmierung in Java, so dass ich mir zumindest in einer Programmiersprache eine wirklich solide Grundlage erarbeiten konnte. Außerdem wurde das Gebiet der Softwaretechnik sehr ausführlich behandelt. Die didaktisch gut gemachten Mathematik-Module: Hier ist insbesondere der sehr sanfte Einstieg mit dem Modul "Mathematisch-logische Grundlagen der Informatik" zu nennen. Die Module "Mathe 2" (Analysis und Lineare Algebra) und "Mathe 3" (Numerik, polynomiale Interpolation und Approximation sowie Grundlagen der Kryptographie) waren schon schwieriger. Gut waren hier die zur Verfügung gestellten PDF-Tools, mit denen man sich beliebig viele Übungsaufgaben erstellen konnte. Das Tutorensystem: In jedem Modul hatte man einen Ansprechpartner, der Einsendeaufgaben korrigierte und Fragen beantworten konnte. Das war mir oft sehr nützlich. Allerdings muss man sich klar machen, dass man als Studierender an einer Hochschule eine "Holpflicht" hat und nicht "mit dem Löffelchen gefüttert" wird. Manche Studierende berichteten mir, dass sie lediglich Aufgaben eingesendet und Korrekturen empfangen hatten. So kann es gehen, wenn man keinen Kontakt mit dem Tutor aufnimmt. Ich habe mich bei allen Tutoren vorgestellt, bei den Korrekturen nachgehakt, z.T. überarbeitete Lösungen eingereicht oder auch Fragen zum Stoff oder zum Transfer in die Praxis gestellt. So ergab sich oft ein recht intensiver Austausch mit meinen Tutoren. Mir blieb zwar nichts anderes übrig, als berufsbegleitend zu studieren, aber deswegen musste ich ja kein Einzelkämpfer sein. Die gute Betreuung durch das Studienbüro: Springer Campus war ein vergleichsweise kleiner Fernstudien-Anbieter. Man kannte die Mitarbeiter und die Mitarbeiter kannten die Studierenden. Wenn es etwas zu klären gab, hatte man schnell einen Verantwortlichen an der Strippe. Man konnte mit den Leuten reden. Das war oft sehr hilfreich. Die Lotsenfunktion des Studienbüros beim Finden eines Betreuers: Das hat sowohl bei der Projektarbeit als auch bei der Bachelorarbeit hervorragend geklappt. Die Präsenztage: Diese waren zunächst verpflichtend und dann freiwillig. Bei vielen Studierenden waren sie unbeliebt, weil man dafür nach Dortmund anreisen musste. Darum gingen die Teilnehmerzahlen stark zurück, als die Präsenztage freiwillig wurden. Schade, denn die Präsenztage waren sehr nützlich, um mit anderen Studierenden in Austausch zu kommen und auch die Hochschullehrer ein bisschen kennenzulernen. (Das hilft zum Beispiel, wenn man einen Betreuer für seine Bachelorarbeit sucht.) Das Praxisprojekt: Da ich fachfremd studiert habe, war mir bei Aufnahme meines Studiums nicht klar, wo und wie ich ein Praxisprojekt würde durchführen können. Ich habe darauf vertraut, dass sich schon etwas ergeben würde. So kam es dann ja auch. Gerade das Praxisprojekt hat im Vergleich zu anderen Modulen sehr viel Zeit verschlungen, vor allem gemessen daran, das es nur 5 ECTS brachte. Aber ich würde sagen, dass ich durch dieses Modul am meisten gelernt habe, weil ich im Praxisprojekt die Inhalte vieler Module verbinden und im Zusammenspiel erleben konnte.  Die flexible Steuerung des Workloads: Es zeichnet vor allem private Anbieter von Fernstudiengängen aus, Module im eigenen Rhythmus belegen und bearbeiten zu können; und regelmäßige Prüfungstermine für alle Module anzubieten. Diese Flexibilität erfordert vom Anbieter natürlich einen hohen Aufwand, den man mit entsprechenden Studiengebühren bezahlt. Wenn man berufsbegleitend studiert, ist das aber sehr wichtig. Auch wenn ich über weite Teile meines Studiums ziemlich schnell vorangekommen bin, gab es Zeiten, in denen ich ein von außen vorgegebenes Tempo nicht hätte halten können. Das hätte sich bei manchen Anbietern verlängernd auf die Studienzeit ausgewirkt. Die Möglichkeit, mein Studientempo flexibel an meine berufliche und familiäre Belastung anpassen zu können, war für meinen Studienerfolg sehr wichtig. Die Anbindung an die FH Dortmund: Insbesondere bei der Projektarbeit und bei der Bachelorarbeit fand ich es toll, Betreuer zu haben, die auch ganz normal im täglichen Lehrbetrieb einer Präsenzhochschule stehen. Ich hatte zu keinem Zeitpunkt das Gefühl, dass meine Betreuer zwischen den Präsenzstudierenden und uns Fernstudierenden einen Unterschied machten.  
    Was mir nicht so gut gefallen hat:
     
    Manche Module waren "schlecht gealtert": Es gibt Module, bei denen es nichts ausmacht, wenn sie ein paar Jahre "auf dem Buckel" haben. Dazu zählt z.B. Mathematik aber auch Module wie "SQL und relationale Datenbanken". Und auch in einem einführenden Modul in Algorithmen und Datenstrukturen ändern sich die Inhalte nicht alle Jahre. Dringend überarbeitungswürdig gewesen wäre das Modul "Multimedia". Hier spielte z.B. Flash noch eine große Rolle. Aber auch im Modul "IT-Recht" waren viele Inhalte durch neuere Gesetzgebung nicht mehr aktuell. Dazu gehörte z.B. das Thema DSGVO. Die ist ja nicht vom Himmel gefallen. Da wäre es schon wünschenswert gewesen, darauf hinzuarbeiten, dass das Modul rechtzeitig aktualisiert wird. Für ein Studium der Web- und Medieninformatik kam mir das Thema Frontend zu kurz: Das Modul "Skriptsprachen", das als gründliche Einführung in JavaScript konzipiert war, wurde ersatzlos und ohne Ankündigung gestrichen, kurz bevor ich es belegen wollte. Im Modul "Web-Engineering" wurde unter anderem das GWT behandelt. Da wird das Front-End in Java geschrieben und per Transpiler zu JavaScript übersetzt. Mag sein, dass das mal als aussichtsreicher Ansatz galt. Letztlich hat es sich nicht durchgesetzt. Gleichzeitig hat sich JavaScript als Sprache stark weiterentwickelt. Es wäre wünschenswert, im Studium wenigstens ein modernes UI-Framework zu behandeln, also etwas wie Angular, React oder Vue. Freiwillige Präsenztage: Die Entscheidung, die Präsenztage freiwillig zu machen, fand bei den Studierenden viel Beifall und war damals auch durch Gesetzgebung des Landes NRW so vorgegeben. Ich halte die politische Entscheidung rückblickend für falsch. (Soweit ich weiß, ist das von der neuen Landesregierung inzwischen auch wieder korrigiert worden.) Leider habe ich den Eindruck gewonnen, dass viele Studierende mit der neuen Freiheit nicht sinnvoll umgehen konnten. Dazu nur ein Beispiel: Wenn man sich erkundigte, welche Module als herausfordernd wahrgenommen wurden, hörte man immer wieder "Mathe 2", also Analysis und Lineare Algebra. Eben dazu wurden auf den Präsenztagen regelmäßig Tutorien angeboten. Die spärlich besucht wurden. Es passt für mich nicht zusammen, wenn man klagt, wie schwierig Mathe sei, aber angebotene Hilfen nicht wahrnimmt. Die Lernplattform als solche: Sie hatte viele Merkmale, die de facto niemand nutzte. Dazu zählten insbesondere Social Media Funktionen wie eigene Foren und Messaging Systeme. Meine Kommilitonen nutzten für ihren Austausch lieber allgemeine Plattformen wie Facebook oder Whatsapp. Es macht in meinen Augen auch wenig Sinn, wenn jeder Anbieter so etwas selbst implementiert. Insbesondere nach Einführung der neuen Plattform reagierten die Server manchmal recht träge, was angesichts der Studierendenzahlen nicht nachvollziehbar war. Für einen Studiengang, der einen Schwerpunkt auf serverseitige Webprogrammierung legt, war die neue Plattform nicht gerade ein Aushängeschild. Die hier investierten organisatorischen und finanziellen Ressourcen hätte man meiner Meinung nach lieber in die Aktualisierung der obenen genannten Module oder in neue Inhalte investieren sollen. Und stattdessen eine der vielen vorhandenen Lernplattformen nutzen können, die andere Hochschulen mit Erfolg verwenden.  
    Was mir gar nicht so wichtig war:
     
    Der inhaltliche Schwerpunkt "Web- und Medien". Betont wurde die serverseitige Web-Programmierung. Die fand ich auch interessant. Aber ich habe mein Studium in erster Linie als Informatikstudium an einer FH aufgefasst. Das Curriculum eines Bachelorstudiengangs muss naturgemäß erst einmal breite Grundlagen vermitteln. Zwar ist es "chic" geworden, schon im Bachelor recht spezialisierte Bezeichnungen zu verwenden, aber das sollte man meiner Meinung nach nicht überbewerten. Mathematik, Programmierung, Algorithmen, Betriebssysteme, Netze, Softwaretechnik, das alles sind Beispiele für Themen, die wohl in jedem Bachelor der Informatik vorkommen dürften. Echte Spezialisierung dürfte erst im Master realistisch sein.  
    Was ich mir noch gewünscht hätte:
     
    180 ECTS sind naturgemäß zu wenig, um alle inhaltlichen Wünsche an ein Informatikstudium abzudecken. Aber es wäre schön gewesen, bestimmte Themen im Wahlbereich belegen zu können.
     
    Künstliche Intelligenz: Das einzige Modul, dass ein bisschen in diese Richtung wies, war das Wahlpflichtmodul "Text Mining". Aus meiner Sicht wäre es an der Zeit gewesen, ein Modul über künstliche neuronale Netze anzubieten. Datenvisualisierung: Ich hätte gerne aufbauend auf dem Modul "Statistik" ein Modul gehabt, bei dem man die dort vermittelten Verfahren mit einer geeigneten Programmiersprache und geeigneten Frameworks nutzt. Also z.B. ein Modul über Statistikprogrammierung mit R oder Python. Oder eines über Datenvisualisierung im Browser, z.B. mit Frameworks wie D3.js. Ethik der Informatik oder Informatik und Gesellschaft: Das ist für mich ein anderes Thema als Datenschutz oder IT-Recht. Es gibt in den letzten Jahren zunehmende Diskussionen über gesellschaftliche Auswirkungen neuer Informationstechnologien. Ich hätte mir ein Modul gewünscht, bei dem es um ethisches und/oder politisches Abwägen und Argumentieren in diesem Themenfeld geht.  
    Wie es war, berufsbegleitend zu studieren:
     
    Für den größten Teil meines Studiums habe ich 30 Stunden als Erzieher im Kindergarten gearbeitet. Das ging überraschend gut. Mein Job und mein Studium zehrten von unterschiedlichen Ressourcen. Im Kindergarten braucht man vor allem Nerven, um mit den vielen Stressoren und der sich ständig ändernden Situation umgehen zu können. Man muss kurzfristig auf neu auftretende Bedürfnisse und Konflikte reagieren. Wenn ich nach Hause kam, war ich nervlich ermüdet. Denken in formalen und abstrakten Strukturen ist im Kindergarten dagegen weniger gefragt. Zu meiner Überraschung war ich am späten Nachmittag und Abend gut in der Lage, mich noch lange auf Themen wie Mathematik, Programmierung, Algorithmen und Softwaretechnik zu konzentrieren. Das Studium bildete einen fruchtbaren Gegenpol zu meiner Arbeit. Und nach einem Wochenende vor dem Bildschirm freute ich mich auch wieder auf den Trubel mit den Kindern.
     
    Für die Projektarbeit und die Bachelorarbeit wollte ich meinen Arbeitsumfang aber reduzieren. Hier musste ich mit meinem Arbeitgeber verhandeln. Während ich anfangs an jedem Wochentag gearbeitet hatte, war es nun für mich günstiger, ganze Tage im Kindergarten und ganze Tage für mein Studium zu haben. Gerade wenn ich beim Projekt oder bei der Bachelorarbeit eine härtere Nuss zu knacken hatte, war es hilfreich, nicht immer mitten im Tag umschalten zu müssen, sondern an manchen Tagen auch mal 8 Stunden an einer Sache dranbleiben zu können, um nicht immer wieder neu in ein komplexes Thema finden zu müssen.
     
    Für meine Einrichtung war es sicher nicht leicht, mir solch ein Arbeitszeitmodell anzubieten. Dass es geklappt hat, lag sicher auch daran, dass auch meine Region inzwischen vom Erziehermangel betroffen ist, von dem man so häufig in den Medien liest. Vor zehn oder auch nur fünf Jahren wäre mein Wunsch nach Stundenreduzierung vielleicht nicht erfüllt worden. Aber die Träger müssen heute schon sehr flexibel sein und oft Stellen aus Teilzeitverträgen "zusammenstückeln", um die geforderten Betreuungsschlüssel erfüllen zu können. Aus frühpädagogischer Perspektive wäre es freilich wünschenswerter, Vollzeitkräfte in die Gruppen zu stellen, die ihre ganze Kraft den Kindern widmen. Die gibt der Arbeitsmarkt nach dem raschen Krippenausbau aber nicht mehr in ausreichender Zahl her. Und die Politik hat es versäumt, mit den Betreuungseinrichtungen auch die Ausbildungseinrichtungen für Fachpersonal auszubauen.
     
    Für mich kam diese erzwungene Flexibilität der Träger zur rechten Zeit. Gleichzeitig habe ich auch gespürt, wie viel dies den Mitarbeitern abverlangte. Denn auch ich musste mich damit auseinandersetzen, dass viele meiner Kolleginnen nur in Teilzeit anwesend waren. Das erforderte viele Absprachen und auch ein hohes Maß an Toleranz und Flexibilität. Ich bin dankbar, dass mein Team mich auf dem Weg zum Bachelor unterstützt hat und auch an meinem Studienfortschritt Anteil genommen hat. Das ist nicht selbstverständlich. Vor allem wenn man bedenkt, dass dieses Projekt das mittelfristige Ziel hatte, mich als Mitarbeiter zu verabschieden.
     
    Perspektiven nach dem Studium:
     
    Fast unmittelbar nach Abgabe meiner Bachelorarbeit ergab sich für mich eine Beschäftigungsmöglichkeit, die indirekt mit meiner Projektarbeit zusammenhing. Damals habe ich ja eine Steuersoftware für chronobiologische Experimente entwickelt. Im Moment mache ich etwas ähnliches für einen Neurobiologen. Mein Arbeitgeber ist also die örtliche Universität. Mit meinem Studienschwerpunkt Web- und Medieninformatik hat das wenig zu tun. Ich programmiere kleine Single Board Computer wie den Raspberry Pi. Weil das eine Menge mit Hardware zu tun hat, wäre es eigentlich besser, ich hätte technische Informatik oder Elektrotechnik studiert. Die Stelle ist in Teilzeit und befristet auf ein halbes Jahr. Ich sitze jetzt an drei Tagen pro Woche als einziger Informatiker unter lauter Biologen, die an sozialen Insekten forschen. Das ist ein spannendes Umfeld, weil ich unter sehr cleveren Leuten bin, die sich mit Inhalten beschäftigen, von denen ich keine Ahnung habe. Was mir fehlt, sind andere Software-Entwickler, von denen ich lernen könnte.
     
    Nicht so beeindruckend ist meine Bezahlung. Da ich als Kindergärtner schon recht viel Berufserfahrung hatte, war ich in der tariflichen Eingruppierung schon ganz gut gestiegen. Man kann ja regelmäßig in der Zeitung lesen, dass Erzieher nicht so gut bezahlt werden. Und gemessen an einer Ausbildungszeit von 5 Jahren, von denen 4 nicht vergütet sind, ist da schon etwas dran. Umso überraschter waren meine Kolleginnen, dass ich im Kindergarten den höheren Stundenlohn erziele als an meiner neuen Arbeitsstelle.
     
    Aus diesem Grund arbeite ich noch immer an zwei Tagen pro Woche im Kindergarten. Und freue mich auch jedes Mal darauf. Gleichzeitig fällt mir zum ersten Mal in meinem Leben auf, wie emotional fordernd diese Arbeit ist. Der Kontrast zu meiner neuen Arbeitsumgebung könnte kaum größer sein.
     
    Bis zum Juni werde ich also zweigleisig fahren und habe die Chance, erstmals Code gegen Bezahlung zu schreiben. Bis dahin muss sich erweisen, ob es in meiner Region Unternehmen gibt, die auch einen Berufseinsteiger im mittleren Alter einstellen möchten.
     
    Was ich aus dem Studium ziehe:
     
    Aufgenommen habe ich mein Studium, weil ich nicht nur einen beruflichen sondern auch einen fachlichen Wechsel wollte. Ein wichtiger Grund dafür war, dass ich es für unwahrscheinlich hielt, die Arbeit als Erzieher im Gruppendienst bis zum regulären Renteneintrittsalter ausüben zu können. (Ich habe leider nur wenige Erzieherinnen erlebt, die bis zum vorgesehenen Ende durchgehalten haben.) Ein Maßstab für meinen Studienerfolg wird also sein, ob der Sprung auf ein anderes Gleis tatsächlich klappt.
     
    Persönlich meine ich, stark davon profitiert zu haben, durch mein Studium viele neue inhaltliche Impulse und Perspektiven bekommen zu haben. Dadurch habe ich manchmal sogar neue Freude an meinem bisherigen Beruf gefunden. Nach einem Tag vor der Tastatur war es toll, am nächsten Morgen wieder eine Turnstunde zu leiten.
     
    Natürlich bin ich mit diesem Studium ein bisschen "der bunte Hund" im Team. Kindergärtner, die berufsbegleitend studieren, gibt es häufiger als man denkt. Aber meistens werden sie Sozialarbeiter, Sozialpädagogen oder Kindheitspädagogen.
     
    Insgesamt war es eine tolle Erfahrung, dieses Studium zu machen. Nach etwas mehr als 4 Jahren kann ich nun sagen:
    "Ich bin Informatiker."
  3. kurtchen
    Das Abschlusskolloquium ist die letzte Prüfungsleistung in den Informatik-Studiengängen bei Springer Campus. Die Bachelorarbeit wird in einer Präsentation vorgestellt, die 20 Minuten dauern soll. Es folgt ein Prüfungsgespräch mit Erst- und Zweitprüfer. Ich hatte bei Abgabe meiner Bachelorarbeit damit gerechnet, dass es bis zum Kolloquium recht lange dauern würde. Unsere Studiengangskoordinatorin hatte ich mich bei Abgabe der Arbeit nach meinen beruflichen Plänen gefragt. Ich hatte ihr signalisiert, dass ich es schon gut fände, wenn ich zumindest noch vor Jahresende abschließen könnte. Insofern hatte ich auf einen Termin kurz vor Weihnachten gehofft.
     
    Mein Erstprüfer und Betreuer meldete sich dann aber schon knapp drei Wochen nach der Abgabe, um mir einen Termin für Ende November anzubieten; an einem Montag Nachmittag um 16 Uhr. Ich war erst ziemlich überrascht, dass er mit der Korrektur schon so weit fortgeschritten war. Andererseits hatte ich ihm während des Schreibens immer wieder Kapitel der entstehenden Arbeit geschickt, so dass er sie in weiten Teilen schon kannte. Zunächst war ich etwas angespannt, weil ich mich nach der Abgabe auf ein paar Wochen "La dolce vita" gefreut hatte. Nun musste ich die Abschlusspräsentation vorzubereiten. Andererseits war es auch verlockend, noch vor dem ersten Advent das Studium abzuschließen. Und ausnahmsweise einmal eine ruhige Vorweihnachtszeit zu genießen. Der nächste Termin wäre auch erst wieder im neuen Jahr möglich gewesen. Also habe ich zugegriffen.
     
    Bei der Vorbereitung der Präsentation war mein größtes Problem, die umfangreiche Arbeit auf 20 Minuten einzudampfen. Letztlich lief es darauf hinaus, knapp vorzustellen, was das Gesamtkonzept war, und dann stichprobenartig einige Punkte vorzustellen, die mir besonders wichtig erschienen. Insgesamt kam ich so auf 13 Folien.
     
    Themen waren:
    Was unterscheidet funktionale Programmierung von objektorientierter Programmierung? Was ist das Travelling Salesman Problem? Was ist heuristische Optimierung? Grobe Arbeitsweise des Sintflut-Algorithmus. (Die anderen Verfahren habe ich nicht vorgestellt.) Wiederkehrende Muster funktionaler Programmierung in der Fallstudie: Funktionen höherer Ordnung und Funktionsverkettung. Performanceunterschiede zwischen objektorientierter und funktionaler Programmierung. Das Muster "Focussed Mutability" mit dem man die Performance-Nachteile funktionaler Sprachen z.T. ausgleichen kann.  
    Das Material meiner Arbeit musste ich nicht noch einmal durchgehen. Da die Abgabe noch nicht so weit zurück lag, war ich noch gut im Thema.
     
    In der mündlichen Prüfung zum Modul "Präsentieren" hatte ich die Rückmeldung bekommen, dass meine Foliengestaltung recht "altbacken" wirkte. Insofern habe ich einen Tag investiert, um mir verschiedene Präsentationsframeworks anzuschauen. Auf einem unserer Präsentage hatte ich eine Beamerpräsentation von Prof. Jörges (FH Dortmund) gesehen, die er mit dem Framework reveal.js erstellt hatte. Da schreibt man seine Inhalte in HTML (oder Markdown) und braucht sich nicht um graphische Gestaltung kümmern. Das überlässt man einer CSS-Stilvorlage. Die Präsentation läuft dann im Browser. Man kann mit einem geeigneten Plugin die Folien auch in PDFs wandeln, die sich ausdrucken lassen. An dem Ansatz gefiel mir die Trennung von Inhalt und graphischer Gestaltung. Das erinnerte mich an LaTeX, wo ich ja auch nur beschreibe, WAS ich will, und es dem Satzsystem überlasse, WIE das layoutet wird. Das habe ich also mal ausprobiert und die Ergebnisse haben mir auf Anhieb ganz gut gefallen.
     
    Alternativ habe ich auch mal in impress.js angeschaut. Das ist ebenfalls ein Javascript-Framework für Präsentationen. Hier können Inhalte frei in einem dreidimensionalen Raum platziert werden. Die Präsentation ist dann eine Kamerafahrt durch diesen Raum. Das kann sehr chic aussehen. Allerdings ist es auch nicht ganz trivial, diese Möglichkeiten sinnvoll auszuschöpfen.
     
    Als dritte Variante habe ich das LaTex-Paket powerdot angetestet. Damit kann man recht übersichtliche Folien erstellen. Da ich in LaTeX gut eingearbeitet war, wäre ich damit wahrscheinlich am schnellsten voran gekommen. Die Stilvorlagen waren aber ziemlich nüchtern und erinnerten mich an meine mit LibreOffice Impress erstellen Folien. Empfehlen würde ich LaTeX, wenn man Folien mit vielen Formeln setzen muss oder regelmäßig Fußnoten in den Folien unterbringen möchte. Das geht damit sehr komfortabel.
     
    Meine Wahl fiel schließlich auf reveal.js, das mit einem entsprechenden Plugin Formelsatz in LaTeX-Syntax ermöglicht. Wenn man ein bisschen HTML oder Markdown kann, aber nicht so gerne graphisch gestaltet, ist das eine ziemlich gute Möglichkeit, schnell eine Präsentation zu gestalten.
     
    Dann galt es, meinen Vortrag zu üben, um die Inhalte frei sprechend aber eben in 20 Minuten rüber zu bringen. Anfangs lag ich regelmäßig über der Zeit, aber es wurde von Durchgang zu Durchgang besser, so dass ich zumindest in die Nähe der 20 Minuten kam.
     
    Am Tag der Prüfung bin ich vor der Abreise nach Dortmund noch ins Schwimmbad gegangen, um Stresshormone abzuarbeiten. Ich bin dann ziemlich entspannt nach Dortmund gefahren. Auf der Fahrt bin ich meinen Vortrag noch ein paar mal gedanklich durchgegangen. In Dortmund blieb noch Zeit für ein verspätetes Mittagessen.
     
    Gelegentlich möchten andere Studierende an so einem Kolloquium teilnehmen, aber da meines an einem Montag um 16 Uhr stattfand, herrschte im Haus schon allgemeine Aufbruchstimmung in den Fluren. Ich stand also lediglich vor meinen Prüfern.
     
    Das Üben und Feilen an den Formulierungen hatte anscheinend etwas gebracht. Bei der Präsentation blieb ich erstmals knapp unter den anvisierten 20 Minuten. Dafür blieb Zeit, im anschließenden Prüfungsgespräch an der Flipchart vorzustellen, wie die in der Fallstudie verwendeten Mutationsoperatoren funktionieren. Dann ging es unter anderem um die Frage, ob die Performance-Nachteile funktionaler Sprachen eines Tages durch optimierende Compiler überwunden werden könnten. In Teilbereichen gibt es so etwas ja schon. Zum Beispiel übersetzt der Scala Compiler endrekursive Funktionen in Schleifen, weil die JVM gar keine Tail Call Optimierung unterstützt. Aber insgesamt ist nicht damit zu rechnen, dass es derartig optimierende Compiler geben wird, weil man bei funktionaler Programmierung nicht nur mit anderen Sprachen sondern auch mit anderen Datenstrukturen und Lösungsstrategien arbeitet.
     
    Gefühlt ging das Prüfungsgespräch ziemlich schnell rum. Die Notenfindung dauerte auch nicht lange. Mit dem Ergebnis war ich zufrieden. Die Note ist eine Gesamtnote für die Bachelorarbeit und das Colloquium. Gewichtet werden diese beiden Prüfungsteile im Verhältnis 2:1. Da das Kolloquium einen recht großen Anteil an der Gesamtnote der Bachelorarbeit hat, ist es empfehlenswert, auch dieser Prüfungsleistung genügend Zeit und Aufmerksamkeit zu widmen.
     
    Und damit ist das Studium nun rum. Insgesamt habe ich etwas mehr als 8 Semester gebraucht. Als es zwischenzeitlich mit den Modulen sehr schnell voranging, hatte ich ja sogar einmal gehofft, schon um Weihnachten 2018 fertig zu werden. Allerdings erwiesen sich dann die Projektarbeit und die Bachelorarbeit doch als recht aufwendig. Andererseits boten diese Module die beste Gelegenheit, eigenen Interessen zu folgen. Insofern hat es Spaß gemacht, hier Zeit zu investieren.
     
    Auf der Rückfahrt habe ich angefangen, das Hörbuch "Krabat" zu hören. Ich erwähne das hier, weil ich in den vergangenen vier Jahren kaum fiktionale Literatur gelesen habe, obwohl ich eigentlich sehr gerne lese. Das war eines der Opfer, die ich für mein Studium bringen musste. Insofern ist es schön, jetzt auch wieder Zeit für solche Dinge zu haben. Auf mich wartet inzwischen ein halbes Billy-Regal voll mit Romanen, Comics oder auch Sachbüchern, die nichts mit Informatik zu tun haben. Es wird eine Weile dauern, bis dieser Stau aufgelöst ist. Seltsamerweise ist bei mir noch gar nicht so richtig angekommen, dass mein Studium nun vorbei ist. Es bleibt eine innere Unruhe, ein unbestimmtes Gefühl, mich bald wieder an den Schreibtisch setzen zu müssen, weil ich doch bestimmt noch etwas zu tun habe.
     
    Nun bin ich natürlich gespannt darauf, die Urkunde in den Händen zu halten. Von Kommilitonen habe ich sehr unterschiedliche Erfahrungswerte gehört, wie lange so etwas dauern kann. Das wird dann wahrscheinlich einer meiner letzten Beiträge in diesem Blog.
  4. kurtchen
    Es ist soweit: Am Mittwoch habe ich meine Bachelorarbeit zur Post gebracht. Das war zwei Tage vor dem Abgabetermin. DHL hat die Sache dann noch ein bisschen spannend gemacht. Am nächsten Abend war mein Paket nämlich gerade einmal 10 km weit "gekrochen". Aber am übernächsten Tag kam es doch noch fristgerecht in Dortmund an.
     
    Natürlich sind mir schon am Tag nach der Abgabe Fehler aufgefallen, die ich auch beim x-ten Korrekturlesen nicht gesehen hatte. Ebenfalls typisch für mich: Sofort nach der Abgabe ist eine Erkältung ausgebrochen. Die hätte ich mir vorher nicht "gegönnt".
     
    Eigentlich hatte ich zur Entstehung der Bachelorarbeit ja mehrere Blogbeiträge schreiben wollen. Aber letztlich musste ich die knapp werdende Zeit in die Bachelorarbeit investieren. Mein Fernstudien-Blog war leider nicht das einzige Hobby, das in den letzten Monaten auf der Strecke blieb.
     
    Trotzdem nun ein paar Worte, die wie Sache nun eigentlich gelaufen ist.
     
    Inhaltliches
     
    Die Grundidee meiner Arbeit war ja ein Vergleich objektorientierter und funktionaler Programmierung an einem Fallbeispiel. Das Fallbeispiel war eine Variante des klassischen Travelling Salesman Problems: In eine Platine sollen von einem Roboter Löcher gebohrt werden. Ein Optimierer solle ein möglichst effiziente Abfolge der Löcher finden. Was genau effizient ist, bestimmt eine Bewertungsfunktion. Hier gab es als einfachste Funktion die euklidische Distanz. Eine Variante nahm an, dass ein Motor des Roboters defekt ist, und daher vertikale Bewegungen nur halb so schnell möglich sind wie horizontale. Eine andere Variante sah vor, dass der Bohrer für einen Bohrerwechsel zurück zum Ursprung kehren muss, falls der Durchmesser aufeinander folgender Löcher sich unterscheidet. Das hatte natürlich große Auswirkungen auf die gefundenen Routen. Die Routen wurden ja auch visualisiert und das war visuell z.T. ganz attraktiv, wie die Anmutung der Routen sich änderte, wenn eine andere Bewertungsfunktion gewählt wurde.
     
    Die Routen wurden mit drei verschiedenen Heuristiken optimiert:
    mit der einfachen und schnellen Nearest-Neighbour-Heuristik mit dem Sintflut-Algorithmus und mit einer Evolutionsstrategie  
    Die beiden letzten Heuristiken ahmen einen Evolutionsprozess nach. Der Sinflut-Algorithmus erzeugt dabei Routenvarianten allein durch Mutation. Außerdem arbeitet er mit einer minimalen Population von nur zwei Individuen: Der bisherigen Lösung und einer neuen Lösung, die akzeptiert oder verworfen wird. Die Evolutionsstrategie simuliert eine größere Population. Sie erzeugt Routenvarianten nicht nur durch Mutation sondern auch durch Rekombination. Sie ahmt also "sexuelle Fortpflanzung" nach. Interessant war dann z.B. die Frage, was geeignete Mutations- und Rekombinationsoperatoren für ein Travelling Salesman Problem sind.
     
    Die beiden Heuristiken unterscheiden sich auch beim Selektionsmechanismus. Sintflut arbeitet mit der Metapher eines steigenden Wasserspiegels. Eine Routenvariante wird akzeptiert, solange ihre "Fitness" nur besser als der momentane Wasserspiegel ist. Auch dann, wenn sie gegenüber der letzten Routenvariante schlechter ist. Das ist entscheidend, damit der Algorithmus ein lokales Optimum überwinden kann. Mit steigendem Wasserspiegel wird die Selektion immer härter, so dass gegen Ende der Optimierung nur noch Verbesserungen akzeptiert werden. Sintflut geht also nach und nach in einen sogenannten Bergsteiger-Algorithmus über. Meine Fallstudie arbeitete mit einer variablen Regenrate. Wenn die Optimierung stagnierte, regnete es gar nicht. Wenn sie voran schritt, regnete es umso stärker, je größer die Differenz zwischen momentaner Fitness und Wasserspiegel war.
     
    Bei der Evolutionsstrategie wurde die Selektion durch den Wettbewerb innerhalb eine Population bestimmt. Meine Implementierung arbeitete mit einer (µ+λ)-Selektion. Dabei steht µ für die Elterngeneration und λ für die durch Rekombination von Genen und Mutation entstandenen Kinder. Die Kinder geraten also in Wettbewerb mit der Generation ihrer Eltern. Theoretisch könnte man dieser Form der Selektion ein Individuum beliebig viele Generationen überlegen, wenn seine Fitness nur hoch genug ist. Es gibt viele mögliche Selektionsoperatoren. Individuen mit hoher Fitness haben eine höhere Chance, die Selektion zu überleben, aber wie bei der natürlichen Selektion spielt i.d.R. auch der Zufall eine Rolle.
     
    Am besten funktionierte der noch vergleichsweise einfache Sintflut-Algorithmus. Die Evolutionsstrategie war nicht nur langsamer sondern brachte auch etwas schlechtere Ergebnisse. Ich vermute, dass lag am früh einsetzenden Selektionsdruck durch Wettbewerb innerhalb der Population. Der führte dazu, dass die Optimierung früher als bei Sintflut in einem lokalen Optimum hängenblieb. Es wäre spannend gewesen, mehr mit den Selektionskriterien zu spielen, um zu schauen, ob man Sinflut so nicht doch einholen kann. Auch weiß ich inzwischen, dass es bessere Rekombinationsoperatoren gegeben hätte. Leider fehlte mir die Zeit, diese noch zu implementieren und auszuprobieren. Aber es war schon faszinierend anzusehen, wie das Duo aus Mutation und Selektion eine Route optimiert. Die Software hatte ein einfaches GUI, das periodisch Momentaufnahmen der laufenden Optimierung zeigte. Der Moment, in dem es erstmals klappte, und man zuschauen konnte, wie die Routenlängen fielen, war schon sehr befriedigend.
     
    Allerdings war heuristische Optimierung ja nur das Fallbeispiel für einen Vergleich der Programmierparadigmen. Darum habe ich die gleichen Heuristiken in Java, Scala und Clojure implementiert.
     
    Meine persönliche Motivation für dieses Thema war, dass ich eine empfundene fachliche Lücke meines Studiums schließen wollte. Ich wollte funktionale Programmierung und funktionale Programmiersprachen besser kennenlernen, als das im Curriculum meines Studiums vorgesehen war. Dieser Wunsch ging für mich in Erfüllung. Bei der Implementierung der Optimierer in Scala und Clojure konnte ich viele Aspekte funktionaler Programmierung erleben und anwenden: Funktionen höherer Ordnung, (End-)Rekursion, Verwendung persistenter Datenstrukturen, Closures, partielle Funktionen, Lazy Evaluation und Lazy Sequences und einiges mehr. Wie erwartet, war es so in vielen Fällen möglich, kompakteren und dennoch gut lesbaren Code zu schreiben. Vor allem war der funktionale Code oft deklarativer als der imperative. Er war also eher eine Beschreibung der Problemlösung als eine kleinschrittige Handlungsanweisung für den Computer. Im Vergleich zur objektorientierten Programmierung war es schon faszinierend, sich als Programmierer so gegenüber der Maschine ausdrücken zu können.
     
    Leider hatte insbesondere die Verwendung persistenter Datenstrukturen ihren Preis. Die in Scala implementierten Optimierer liefen deutlich langsamer als ihre Gegenstücke in Java. Die Performance ließ sich verbessern, indem man (zumindest vorrübergehend) doch veränderliche Datenstrukturen verwendete. Leider fiel der Code dann nicht mehr so elegant und deklarativ aus. Er ähnelte wieder stärker den imperativen Lösungen. Auf einem höheren Abstraktionsniveau mit dem Computer zu kommunizieren hat also einen Preis.
     
    Obwohl Scala Java syntaktisch viel ähnlicher ist als Clojure, dauerte es länger, eine Heuristik von Java nach Scala zu portieren. Die Portierung von Scala nach Clojure war dagegen meist sehr schnell erledigt, obwohl die lispoide Syntax für mich anfangs sehr fremdartig war. An dieser Stelle war spürbar, was es heißt, sich innerhalb eines Programmierparadigmas oder eben zwischen verschiedenen Programmierparadigmen zu bewegen. Bleibt man innerhalb eines Paradigmas, hat man das Gefühl, alle Sprachen sind gleich. Wechselt man zwischen den Paradigmen, merkt man, dass jede Sprache ihr Paket an impliziten Denkweisen und Lösungsstrategien mit sich trägt.
     
    Clojure war als dynamisch typisierte Sprache natürlich noch einmal deutlich langsamer als Scala. Bei Clojure bedauere ich, dass die Zeit nicht reichte, um Metaprogrammierung mit Makros auszuprobieren.
     
    Scala gefällt mir als Programmiersprache gut. Ich finde es z.B. toll, dass man es einerseits als funktionale aber andererseits auch als objektorientierte Sprache verwenden kann. Auch wenn man objektorientiert programmiert, erlaubt es an vielen Stellen kompakteren und zugleich besser lesbareren Code als Java. Ich glaube, es gibt in meiner Region sogar ein Softwareunternehmen, das diese Sprache produktiv einsetzt. Inzwischen wäre ich auch neugierig, mit Kotlin eine weitere multi-paradigmatische Sprache auf der JVM kennenzulernen.
     
    Betreuung
     
    Meinen Erstbetreuer kannte ich schon von der Projektarbeit. Er bekam fortlaufend Textbausteine geschickt. Wie in Aussicht gestellt, kamen anfangs mehr Rückmeldungen und mit fortschreitender Arbeit wurde es knapper. Das fand ich genau richtig. Ich habe mich gut begleitet gefühlt, hatte aber auch den Eindruck, selbst für meine Bachelorarbeit zuständig zu sein. Toll war für mich, dass mir das Studienbüro einen Betreuer vermitteln konnte, der für mein Wunschthema offen war.
     
    Ich bin ein bisschen gespannt, was mein Zweitbetreuer zu meiner Arbeit sagen wird. Er bekam sie erst am Schluss, als sie fertig war, so dass ich ihn noch nicht richtig kennenlernen konnte. Aber beim Kolloquium muss ich mich ja den Fragen beider Betreuer stellen.
     
    Mal schauen, wie lange es nun dauert, bis eine Rückmeldung kommt. Ich werde im Blog berichten.
     
    Tools und Werkzeuge
     
    Lohnend war in jedem Fall, dass ich mir schon letztes Jahr die Mühe gemacht hatte, eine brauchbare LaTeX-Vorlage zu erstellen. Für eine Arbeit mit vielen Abbildungen, Fußnoten, Querverweisen, Verzeichnissen und Quellenangaben ist es sehr angenehm, sich Dank LaTeX aufs Schreiben konzentrieren zu können und sich nicht mit dem Layout herumschlagen zu müssen.
     
    Meine Quellen habe ich als einfache Textdatei mit einem Texteditor erfasst. Ich war anfangs der Ansicht, für eine Bachelorarbeit würden es ja wohl nicht so viele Quellen werden, so dass eine Literaturverwaltung mir übertrieben vorkam. Am Ende wurden es doch mehr Quellen als ich gedacht hätte. Stünde ich noch einmal am Anfang, würde ich eine Literaturverwaltung verwenden.
     
    Als IDE habe ich IntelliJ verwendet. Die hat eine gute Unterstützung für Scala. Man kann sie auch für Clojure verwenden. Allerdings hat es sich als etwas schwierig erwiesen, Scala und Clojure im gleichen Projekt zu verwenden. (Dazu nur ein Beispiel: Scala-Projekte nutzen als Build Tool bevorzugt das SBT. Clojure-Projekte verwenden meist Leinigen. Prinzipiell müsste es möglich sein, mit dem SBT auch Clojure oder mit Leiningen auch Scala zu compilieren, aber ein entsprechendes Setup habe ich nicht hinbekommen.)
     
    Für die Erstellung von UML-Diagrammen habe ich UMLet verwendet. Es ist ein bisschen "spartanisch", aber dafür ist es auch schlank und erschlägt einen nicht mit der Vielfalt seiner Features.
     
    Zeitmanagement
     
    Im Großen und Ganzen hat meine Zeiteinteilung funktioniert. Inzwischen bin ich alt genug, um begriffen zu haben, dass ein noch so guter Plan nie hinhaut und man daher stets Puffer für Unerwartetes einplanen muss.
     
    Die hätten allerdings noch ein bisschen üppiger ausfallen dürfen. Insgesamt habe ich mir doch mehr vorgenommen, als im Rahmen einer Bachelorarbeit realistisch war. So musste ich gegen Ende auf ein paar Themen und Aspekte verzichten, die ich gerne noch erkundet hätte. Zum Beispiel bietet Scala nebenläufige Programmierung auf einem höheren Abstraktionsniveau mit Aktoren. Die hätte ich gerne für die Evolutionsstrategie verwendet, aber dafür reichte die Zeit nicht mehr.
     
    Es wäre auch gut gewesen, am Ende mehr Zeit für Korrekturen zu haben. Eigentlich hatte ich dafür eine ganze Woche eingeplant, aber dann musste es doch schneller gehen. Zwar hatte ich zwischendurch immer wieder Kapitel gelesen und überarbeitet, aber ich war doch jedes Mal wieder erstaunt, dass man auch nach dem x-ten Durchgang wieder etwas findet.
    Das Drucken und Binden war diesmal stressfrei, weil ich schon eine ganze Weile vorher im Copyshop vorstellig geworden war und vorgefühlt hatte, wie ausgelastet die Mitarbeiter waren. So konnte ich eine klare Vereinbarung treffen und das lief dann auch genau so.
     
    Ausblick
     
    Nun heißt es, loslassen und abwarten, was meine Betreuer sagen. Somit habe ich, eigentlich zum ersten Mal seit Beginn meines Studium, so etwas wie "Leerlauf". Das kann ich inzwischen aber auch gut gebrachen. In den letzten Monaten ist einiges auf der Strecke geblieben; Hobbies zum Beispiel. Gestern habe ich zum ersten Mal wieder ein bisschen Klavier geübt. Das möchte ich nun wieder regelmäßiger machen.
     
    Ich hoffe ein bisschen, dass es noch vor Jahresende zum Kolloquium kommt. Wäre schön, wenn ich das Studium mit dem alten Jahr abschließen könnte.
     
    Auch aus einem praktischen Grund wäre das gut. Der Kindergarten, in dem ich während meines gesamten Studiums gearbeitet habe, kann mich ab Januar nicht mehr beschäftigen. Es sind Zuschüsse weggefallen, die für die Finanzierung meiner Stelle wesentlich waren. Darum stehen zwingend berufliche Veränderungen an.
     
    Meine Idee bei Aufnahme des Studiums war ja, einen Branchenwechsel hinzulegen: Von der Frühpädagogik zur IT. Das Problem dürfte dabei mein Alter werden. Man liest zwar beinahe täglich in der Zeitung, dass Informatiker gesucht werden. Aber bald werde ich erleben, ob das auch gilt, wenn sie Berufseinsteiger im mittleren Alter sind.
     
    Sorgen muss ich mir eigentlich nicht machen, denn in meiner Region kann man als Kindergärtner kaum arbeitslos werden. In den letzten Wochen habe ich neue Kinder eingewöhnt und wieder einmal gemerkt, wie identitätsstiftend diese Arbeit in der ersten Hälfte meines Berufslebens für mich war. Eigentlich bin ich immer noch stolz, dass ich mich als junger Erwachsener für diesen Beruf entschieden habe; zu einer Zeit, als es noch absolut unüblich war, dass Männer in Kindergärten arbeiteten. Insofern mache ich mich nicht verrückt. Falls die Arbeitgeber mir nicht zutrauen, in meinem Alter noch ein guter Informatiker zu werden, bleibe ich eben Kindergärtner. Das kann ich immer noch ganz gut.
     
    Wenn die Bachelorarbeit bestanden ist, bleibt als letzter Baustein des Studiums tatsächlich nur noch das Kolloquium. Darüber mache ich mir im Moment aber noch keine Gedanken. Aktuell versuche ich, nach den intensiven letzten Monaten ein bisschen Abstand zu meiner Bachelorarbeit zu gewinnen.
     
    Für diesen Blog heißt das, dass es wohl nicht mehr allzu viele Beiträge werden. Ich möchte noch über das Kolloquium berichten. Und danach noch einmal rückblickend, den Studiengang als Ganzes betrachten. Aber möglicherweise besuche ich vorher noch einmal einen Präsenztag in Dortmund, so dass es vielleicht auch noch drei Beiträge werden könnten.
     
    Bildergalerie
     

     
    Das erste Bild zeigt den implementierten Optimierer vor einem Lauf. Geladen ist das sogenannte 442-Problem, eine Platine mit 442 Bohrlöchern, die im Zusammenhang mit dem TSP gerne als Testfall benutzt wird. Die Koordinaten der Löcher wurden mir freundlicherweise von Dr. Johannes Josef Schneider von der ZHAW Winterthur zur Verfügung gestellt. Das Bild zeigt eine zufällig generierte - also noch nicht optimierte - Route. Das schöne am 442-Problem ist, dass dafür eine optimale Lösung bestimmt werden konnte. Gelbe Kanten zeigen an, dass aufeinander folgende Löcher den gleichen Durchmesser haben. Hellrote Kanten zeigen dagegen, dass die Lochdurchmesser sich unterscheiden, was einen Bohrerwechsel nötig macht. (Das originale 442-Problem kennt keine Lochdurchmesser. Das ist eine Variation, die ich eingebaut habe, weil ich mit verschiedenen Bewertungsfunktionen experimentieren wollte.)
     

     
    Das zweite Bild zeigt die Anordnung der Löcher des 442-Problems. Eine optimale Lösung konnte im Jahr 1987 gefunden werden, weil viele Löcher in horizontalen oder vertikalen Linien angeordnet sind. Dies ließ sich mathematisch verwerten, um viele mögliche Routen auszuschließen. Wie genau das funktioniert, verstehe ich freilich nicht; ich bin leider nur Informatiker, kein Mathematiker. Relevant für mich war, dass eine optimale Rundreise nachweislich eine Länge von ca. 5078 mm hat. Das liefert einen Anhaltspunkt dafür, wie gut die Optimierung - z.B. mit dem Sintflut-Algorithmus -  funktioniert.
     

     
    Das dritte Bild zeigt eine mit dem Sintflut-Algorithmus optimierte Tour. Hier wurde die Route in ca. 8 Sekunden auf 5321 mm verkürzt. Sie ist somit lediglich 4,7% länger als die optimale Route. Lässt man es langsamer regnen, so braucht die Optimierung etwas länger, aber der Algorithmus findet kürzere Routen, die nur noch ca. 2,5% länger sind als die optimale Route.
  5. kurtchen
    Heute kamen Mails vom Studienbüro. Zum einen ging es wieder um eine Einladung zum Prüfungstermin. Da ich mittlerweile scheinfrei bin, betrifft mich das nicht mehr. Das andere war eine Einladung zu einem Vorkurs Mathematik. Der richtet sich aber nicht allein an Studierende bei Springer Campus sondern allgemein an künftige Studierende der FH Dortmund. Darum ist es auch ein Präsenzkurs vor Ort, der sich über eine Woche hinzieht. Ich habe meine Mathe-Scheine, aber zu Beginn meines Studiums hätte mich so ein Angebot schon interessieren können. Bislang hat mir das Studienbüro zu so etwas keine Einladungen geschickt. Wir hatten unsere eigenen Mathe-Tutorien auf den Präsenztagen. Aber schön fände ich das schon, wenn Studierende aus den Präsenz-Studiengängen und aus den Online-Studiengängen sich in so einem Rahmen begegnen würden. Ich vermute, dass das eher selten in Anspruch genommen wird. Viele Online-Studierende haben eine weite Anfahrt. Und natürlich haben sich die meisten für ein Online-Studium entschieden, weil sie arbeiten müssen. Allerdings tun sich auch viele mit Mathe schwer und können ein bisschen Starthilfe gebrauchen. Vielleicht wäre das für den einen oder anderen ja doch Motivation, sich ein paar Tage freizunehmen.
  6. kurtchen
    Ich hatte ja in Aussicht gestellt, ab und zu etwas zur Erstellung meiner Bachelorarbeit zu schreiben, falls die Zeit dafür reicht. Eigentlich reicht sie nicht, aber heute tut es mir trotzdem ganz gut, mal einen Schritt zurück zu treten und auf das Ganze zu schauen.
     
    Themenfindung
     
    An meiner FH entwickeln viele Studierende die Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Das eigentlich praxisbezogene Thema der Projektarbeit wird dann mit einer wissenschaftlichen Fragestellung verknüpft und so fortgeführt und erweitert. Ich habe eine Weile geschwankt, ob ich das auch so machen soll.
     
    Mein Projekt war ja die Entwicklung einer Steuersoftware für ein chronobiologisches Experiment. Im Rahmen des Projektes wurde eine erste Entwicklungsstufe erreicht, aber es gab noch einige Anforderungen, die nicht realisiert werden konnten. Insofern hätte hier durchaus die Möglichkeit bestanden, die nächsten Entwicklungsschritte zum Thema meiner Bachelorarbeit zu machen. Allerdings soll die Bachelorarbeit stärker als die Projektarbeit eine wissenschaftliche Fragestellung bearbeiten. Nun soll mein Projekt zwar einem wissenschaftlichen Zweck dienen, aber eben innerhalb der Disziplin der Biologie. Softwaretechnisch gesehen hat es verschiedene Aspekte: Physical Computing, Kommunikation übers Netz, GUI-Programmierung und so weiter. Dennoch tat ich mich zunächst schwer damit, eine für die Informatik relevante Forschungsfrage zu formulieren.
     
    Meine Steuersoftware läuft auf einem Raspberry Pi und bietet ihre Funktionen als WebService im Intranet an. Eine Idee war daher ein Vergleich verschiedener Microframeworks für REST basierte Webservices, die sich gut für Physical Computing (auf vergleichsweise schwachbrüstiger Hardware) eignen. Mein Projekt nutzt z.B. inzwischen das Spark Framework. Der Vorteil wäre gewesen, dass ich die Weiterentwicklung meines Projektes zeitlich mit meiner Bachelorarbeit hätte verbinden können. Wer weiß, vielleicht wäre ich dann sogar schon fertig.
     
    Es gab aber eine Sache, die mir daran nicht so gut gefiel. Die Informatik ist ja meist in einer dienenden Rolle. Sie ist aber auch eine Strukturwissenschaft mit eigenen Erkenntnisgegenständen. Die Bachelorarbeit ist (vielleicht eine letzte) Gelegenheit, sich mit diesem Aspekt der Informatik ausführlicher zu befassen. Darum hatte ich eigentlich Lust auf eine Bachelorarbeit, die einen stärkeren Theorieaspekt hat. Es gab zwei Themen, die mir seit einer Weile im Kopf herumspukten und die ich gerne verbinden wollte.
     
    Funktionale Programmierung
     
    Ich hatte ja hier im Forum mal von einem "Urlaubsprojekt" berichtet, bei dem ich ein bisschen mit dem Lisp-Dialekt Scheme herumexperimentiert habe. Das war in diesem Thread. Das lag daran, dass ich den Wunsch hatte, wenigstens ein anderes Programmierparadigma als die objektorientierte Programmierung kennenzulernen. Die Beschäftigung mit der funktionalen Sprache Scheme hinterließ bei mir viele Fragen und offene Wünsche:
    Scheme wurde als Lehrsprache entwickelt. Ich hatte den Wunsch auch eine funktionale Sprache zu lernen, die für den produktiven Einsatz entwickelt wurde. Mögliche Kandidaten waren hier z.B. Scala, Clojure oder Erlang. Mit dem Erlernen einer funktionalen Sprache ist es ja nicht getan. Schwieriger ist es, seine Denkweise zu ändern. Im Studium habe ich gelernt, Probleme objektorientiert zu modellieren. Ich habe objektorientierte Entwurfsmuster gelernt, die bestimmte Klassen von Problemen lösen. Das führt allerdings auch dazu, dass ich Probleme "durch eine objektorientierte Brille" anschaue. Für die objektorientierte Programmierung gibt es die UML. Wie modelliere ich funktionale Softwaresysteme? Besonders ungewohnt war für mich der Umgang mit unveränderlichen Datenstrukturen. Objektorientierte Programmierung versucht ja, Zuständsveränderungen zu beherrschen, indem Zustände in Objekten gekapselt werden. Funktionale Programmierung versucht, Zustandsveränderungen möglichst zu vermeiden. Allerdings konnte ich mir nicht so richtig vorstellen, wie ein größeres Softwaresystem ohne Zustandsveränderungen auskommen kann.  
    Insgesamt blieb bei mir also der Wunsch, mich noch einmal ausführlicher mit funktionaler Programmierung und meinen offenen Fragen zu beschäftigen. Meine Idealvorstellung wäre ein Modul über Programmierparadigmen gewesen, bei dem man gleiche Programme in unterschiedlichen Paradigmen implementiert und durch den direkten Vergleich an Fallbeispielen die jeweiligen Eigenheiten der Paradigmen verstehen lernt. Da es so ein Modul nicht gab, hatte ich die Idee, in meiner Bachelorarbeit objektorientierte und funktionale Programmierung an einem Fallbeispiel zu vergleichen.
     
    Ich war auch neugierig, ob so ein Vergleich meine Sichtweise auf Programmierung verändern würde. Vielleicht ist es ja ein bisschen wie mit Fremdsprachen. Wenn man eine fremde Sprache lernt, so lernt man zugleich eine Menge über die Eigenheiten seiner eigenen Sprache. Und das umso mehr, je fremdartiger die neue Sprache ist.
     
    Die Grundidee war also ein Sprachvergleich an einem Fallbeispiel. Nun musste noch ein Fallbeispiel her, dass sich für diesen Vergleich eignen würde.
     
    Heuristiken mit Evolutionsstrategie
     
    In diesem Zusammenhang fiel mir ein Artikel über den Sintflut-Algorithmus ein, den Gunter Dueck 1993 in der Zeitschrift Spektrum der Wissenschaft veröffentlicht hatte. Der Sintflut-Algorithmus kann z.B. das Problem des Handlungsreisenden lösen. Hier geht es darum, eine möglichst kurze Rundreise durch eine Anzahl Städte zu finden. Das klingt auf den ersten Blick nicht weiter schwierig, aber die Anzahl der Möglichkeiten wächst sehr rasch. Bei n Städten gibt es (n-1)!/2 Möglichkeiten; also bei nur 16 Städten bereits über 653 Milliarden mögliche Rundreisen. Ein praktisches Rundreiseproblem wäre ein Roboter, der Löcher in eine Platine bohren soll. Damit er mehr Platinen pro Stunde schafft, wäre es wünschenswert, er würde die Löcher ist der bestmöglichen Reihenfolge bohren. Wenn die Platine mehrere hundert Löcher hat, ist die Anzahl der möglichen Routen zu groß, um alle auszuprobieren. Das Problem kann nicht optimal gelöst werden.
     
    Heuristische Algorithmen versuchen den großen Lösungsraum einzuschränken. Sie untersuchen nur einen Teil der Möglichkeiten und finden so schneller eine Lösung, allerdings zu dem Preis, dass sie höchstwahrscheinlich die optimale Lösung übersehen. Ist die Suchstrategie clever, so wird die gefundene Lösung aber nur wenig von einer optimalen Lösung abweichen. Für praktische Anwendungsfälle ist eine gute Lösung, mit der man sofort arbeiten kann, interessanter als eine optimale Lösung, die erst in ein paar hundert Jahren zu bekommen ist.
     
    Eine vergleichsweise einfache Heuristik für das Rundreiseproblem ist die Nearest Neighbour Heuristik. Man wählt eine zufällige Stadt als Startpunkt. Von hier reist man immer zur nächstgelegenen Stadt, die man noch nicht besucht hat. Das liefert oft schon ganz gute Ergebnisse, aber gelegentlich haut die Nearest Neighbour Heuristik auch mal ordentlich daneben. Gleichwohl hat man hier ein einfaches Verfahren, das als Referenz für komplexere Verfahren dienen kann.
     
    Eine Reihe von Algorithmen versuchen, Prinzipien der Evolution für Optimierungsprobleme fruchtbar zu machen. Die Grundidee ist, dass zunächst zufällige Lösungen erzeugt werden, die natürlich nicht besonders gut sind. Diese Lösungen werden nun kleinschrittig variiert, was bedeutet, dass die Varianten der ursprünglichen Lösung "ähneln" sollen. Mutationsoperatoren erzeugen solche zufälligen Varianten. Rekombinationsoperatoren erzeugen Lösungen als Kombination von zwei bisherigen Lösungen. Die bisherigen Lösungen nennt man dann Eltern und die erzeugten Varianten Nachkommen oder Kinder. Zur Strategie wird das aber erst, wenn ein Selektionsmechanismus hinzukommt. Die Varianten werden bewertet, verworfen oder sie verdrängen die bisherigen Lösungen.
     
    Im Falle des Sintflut-Algorithmus ist der Selektionsmechanismus vergleichsweise anschaulich. Man stellt sich den Lösungsraum als Gebirge vor. Die Höhe über dem Meeresspiegel entspricht der Güte der Lösung entsprechend der Bewertungskriterien. Im Falle des Rundreiseproblems wäre also eine kürzere Rundreise ein höherer Punkt im Gebirge. Den Optimierer kann man sich als Wanderer vorstellen, der versucht, im Gebirge einen hohen Punkt zu erreichen. Eine naive Strategie wäre, immer nur bergauf zu gehen. Dann würde man allerdings auf dem ersten kleinen Gipfel "hängenbleiben". Manchmal muss man akzeptieren, dass es schlechter wird, bevor es besser werden kann. Man braucht also eine bessere Strategie als HINAUF. Sintflut fügt diesem Bild einen Regen hinzu, der den Wasserspiegel kontinuierlich ansteigen lässt. Nacheinander versinken so alle Gipfel im Wasser. Der Wanderer streift im Gebirge umher. Er geht rauf oder runter, solange er nur trockene Füße behält. Diese einfache Strategie liefert gute Lösungen für das Rundreiseproblem. Ich finde an solchen Algorithmen persönlich faszinierend, dass hier grundlegende biologische Prinzipien wie Anpassung durch Mutation und Selektion für die Informatik fruchtbar gemacht werden.
     
    Aus verschiedenen Gründen hielt ich derartige Optimierungsverfahren auch für ein interessantes Thema für meine Fallstudie:
    Die Erzeugung von Varianten durch Mutation und Rekombination wäre einen interessanter Anwendungsfall für immutable Datenstrukuren. Simuliert man eine Population von Lösungen, so können Verarbeitungsschritte parallelisiert werden. Von funktionalen Sprachen wird behauptet, dass sie nebenläufige Berechnungen handhabbarer machen. Andererseits sprechen wir hier von randomisierten Algorithmen. Ein Zufallsgenerator ist aber zustandsbehaftet. D.h. man kann auch etwas über den Umgang mit Seiteneffekten lernen, die in der funktionalen Programmierung eigentlich vermieden werden sollen.  
    Die Idee für meine Bachelorarbeit war also ein Vergleich objektorientierter und funktionaler Programmierung am Fallbeispiel verschiedener heuristischer (evolutionärer) Algorithmen zur Lösung des Rundreiseproblems. Ich hatte das Glück an meiner FH einen Professor zu finden, der für diese Idee offen war.
     
    Stand der Bearbeitung
     
    Die Arbeit ist inzwischen angemeldet. Hier ist zu bemerken, dass die Anmeldung einer Bachelorarbeit ein bisschen formaler abläuft als die Anmeldung einer Projektarbeit. Es muss ein Dokument als physischer Gegenstand herumgeschickt und von verschiedenen Personen unterzeichnet werden, weshalb das ganze ein bisschen länger dauern kann als man im Zeitalter elektronischer Kommunikation gewohnt ist. Insofern ist es empfehlenswert, frühzeitig Kontakt zum Erst- und Zweitprüfer und auch zum Studienbüro aufzunehmen.
     
    Den Theorieteil der Arbeit konnte ich inzwischen fertigstellen. Hier geht es vor allem darum, das funktionale Programmierparadigma und verschiedene Heuristiken mit Evolutionsstrategie vorzustellen. Aktuell arbeite ich an der objektorientierten Implementierung meiner Optimierer. Leider geht es im Moment noch gar nicht um die Algorithmen, sondern um GUI- und Graphik-Programmierung, denn ich möchte ja nachvollziehen können, was z.B. meine Mutations- und Rekombionationsoperatoren mit Routen machen. Das geht hoffentlich leichter, wenn ich das visualisieren lassen kann. Ich bin nun schon sehr gespannt darauf, verschiedene Evolutionsstrategien auszuprobieren und ihnen beim Optimieren der Routen zuzuschauen.
     
    Besonders neugierig bin ich natürlich auf die Programmierung in funktionalen Sprachen. Ich möchte Scala und Clojure nutzen. Scala ist eine Hybridsprache, die versucht objektorientierte und funktionale Programmierung zu verbinden. Sie verschafft mir vielleicht einen sanften Einstieg und Übergang. Scala ist auch eine statisch typisierte Sprache mit Typinferenz. In dieser Hinsicht ähnelt es Haskell. Clojure ist ein moderner Lisp-Dialekt. Es ist daher dynamisch typisiert und hat eine fremdartige Lisp-Syntax. Ich bin mit beiden Sprachen nicht vertraut, so dass ich hier einige Überraschungen erwarte.
     
    Scala und Clojure sind JVM-Sprachen, d.h. sie compilieren zu Java-Bytecode, können Java-Code rufen und von Java-Code gerufen werden. Man spricht auch von Java-Interop. Das ist interessant, weil es in der Regel nicht sinnvoll ist, eine komplette Anwendung funktional zu implementieren. Insbesondere GUI-Code ist in hohem Maße zustandsbehaftet, was nicht so gut zum funktionalen Programmierparadigma passt. (Diese Aussage muss man heute eigentlich relativieren, z.B. weil es heute mit Elm eine funktionale Sprache für die Entwicklung von Web-Frontends gibt.) Daher wird das UI der Anwendung klassisch objektorientiert in Java implementiert, aber unter der Haube werkeln Optimierer in Java, Scala und Clojure.
     
    Schreibwerkzeuge
     
    Günstig war, dass ich mir vor Weihnachten Zeit genommen habe, mich in Latex einzuarbeiten und mir eine Dokumentenvorlage zu machen. Das war ein Stück Arbeit und hat mich z.T. auch bei der Bearbeitung meiner letzten Module ausgebremst. Allerdings ist es jetzt sehr schön, dass ich mich aufs Schreiben konzentrieren kann, statt mir über das Layout Gedanken zu machen. Ich würde also jedem empfehlen, sich mit diesem Thema VOR der Bachelorarbeit zu beschäftigen. Sich während dem Schreiben gleichzeitig in Latex einzuarbeiten, dürfte mühsam und ablenkend sein.
     
    Viele Hochschulen bieten Dokumentenvorlagen zum Download an. Das ist natürlich komfortabel, weil man im Idealfall einfach losschreiben kann. Solche Vorlagen sind aber auch für Studierende anderer Hochschulen interessant, weil man sich etwas abschauen kann. Auch meine eigene Hochschule bietet im Rahmen des Moduls "Wissenschaftliches Arbeiten" so eine Vorlage. Die ist allerdings recht allgemein und auch nicht mehr ganz aktuell, so dass sie noch angepasst werden muss. Ich fand das aber zu schwierig, ohne Latex grundsätzlich zu begreifen. Für meine ersten Schritte hilfreich war das Buch "Wissenschaftliche Arbeiten schreiben" von Joachim Schlosser. Ganz alleine hätte das für die Erstellung meiner Vorlage nicht gereicht, aber es vermittelte mir ein Grundverständnis, das mir weitere Recherchen über das Netz erleichterte.
     
    Zum Schreiben verwende ich Atom mit entsprechenden Latex-Plugins. Atom arbeitet schön mit Git zusammen, das ich für die Versionskontrolle nutze. UML-Diagramme erstelle ich meist mit UMLet. Eine Literaturverwaltung wie Zotero oder Citavi erschien mir bislang übertrieben. Bislang ist alles in einer einfachen BibTEX-Datei. Ich habe probiert, meine Einträge mit JabRef zu editieren, fand das aber gar nicht komfortabler, weil manche für mich relevante Felder über mehrere Tabs verteilt waren, so dass ich mehr mit "Mausschubsen" als mit Schreiben beschäftigt war. Möglicherweise könnte man sich das anders konfigurieren, aber ich komme mit einem einfachen Texteditor eigentlich gut zurecht. Allerdings werden es allmählich mehr Quellen. Vielleicht muss ich das mit der Literaturverwaltung also noch einmal überdenken. Lohnen dürfte sich das vor allem für Schreibende, die regelmäßig wissenschaftliche Arbeiten verfassen.
     
    Fazit
     
    Insgesamt macht die Arbeit an der Bachelorarbeit viel Spaß. Es ist schön, nach vielen Jahren des angeleiteten Lernens ein eigenes Thema recherchieren und einer eigenen Idee folgen zu können. Wichtig ist natürlich der Austausch mit dem Erstbetreuer, der diesen Prozess zurückhaltend begleitet.
     
    Ich werde in Abständen wieder berichten.
  7. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "Electronic Business" ist bei Springer Campus ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort wird es dem Studienbereich "BWL" zugeordnet. Empfohlen wird die Belegung im 5. Fachsemester. Als inhaltliche Voraussetzungen werden die Module BWL2, Geschäftsprozess-Management und Web-Programmierung empfohlen. Meiner Meinung nach lässt sich das Modul auch ohne dieses Vorwissen gut bearbeiten.
     
    Studierende im Studiengang "B.Sc. Web- und Medieninformatik" können das Modul im Wahlpflichtbereich belegen. Das habe ich getan, weil ich es für sinnvoll hielt, die durch das Studium vermittelten Kenntnisse in serverseitiger Programmierung auch mal in einen betriebswirtschaftlichen Rahmen einzuordnen. Denn am Ende wird eine Web-Anwendung programmiert, weil jemand Kosten senken, Prozesse optimieren und schlicht Erträge erzielen möchte.
     
    Manche Studierende belegen dieses Modul auch, weil es als nicht so umfangreich gilt. Von dieser Strategie würde ich abraten. Auch ein nicht so dickes Lehrbuch kann lang werden, wenn das inhaltliche Interesse fehlt. FH-Studiengänge sind traditionell stärker verschult. Es gibt vergleichsweise wenige Wahlmöglichkeiten. Ich würde daher empfehlen, hier nicht die Aufwandsminimierung in den Mittelpunkt zu stellen, sondern aus dem Angebot etwas zu wählen, dass man auch interessant findet.
     
    Das Lehrbuch
     
    Das Buch "Basiswissen E-Business" von Dr. Tilo Hildebrandt hat einen Umfang von ca. 250 Seiten. Die Schriftgröße ist relativ klein, so dass die Lektüre ein bisschen länger dauert, als man zunächst vermuten würde. Insgesamt würde ich den Stoffumfang des Moduls trotzdem mit unterdurchschnittlich beschreiben.
     
    Kapitel 1 - Rahmenbedingungen
     
    Kapitel 1 "Rahmenbedingungen des Web-Business" war für mich am interessantesten, weil der Autor hier viele Schritte zurück geht. Es gibt z.B. einen kleinen Ausflug in die Medientheorie, wenn betrachtet wird, wie mündliche Überlieferung, schriftliche Kommunikation und in Abgrenzung dazu elektronische Medien die Art der Informationsaufnahme und -Verarbeitung beeinflussen. Das geht in die Richtung von Marshall McLuhans "Das Medium ist die Botschaft". Schließlich wird die Entwicklung des E-Business auch wirtschaftshistorisch eingeordnet. Theoretischer Rahmen hierfür ist Kondratieffs Theorie der langen Wellen. Diese sind zyklische Schwankungen der Konjunktur mit deutlich längerer Periode als die bekannten Konjunkturzyklen. Sie werden laut Kondratieff angestoßen durch Basisinnovationen, die die Rahmenbedingungen des Wirtschaftens grundsätzlich verändern, zu großen Investitionstätigkeiten führen, aber auch bisherige Geschäftsmodelle ersetzen. Beispiele für solche Basisinnovationen sind Erfindungen wie die Dampfmaschine oder die Eisenbahn. Die These des Autors ist, dass das Internet eine solche Basisinnovation sein könnte, und somit der Beginn eines weiteren Kondratieffzyklus. Das passt zur allgemeinen Erwartung eines umfassenden gesellschaftlichen Wandels durch die Digitalisierung. Informationstechnologien senken dabei vor allem Transaktionskosten. Sie machen es z.B. schneller möglich, günstige Preise oder neue Lieferanten zu finden. Sie ermöglichen es auch, Produktionsprozesse noch stärker arbeitsteilig zu gestalten, weil der damit steigende Aufwand zur Koordination und Überwachung von Prozessen durch sie handhabbarer wird. Das führt z.B. zu einer immer stärkeren Spezialisierung.
     
    Dieses Kapitel hätte für mich sehr interessant sein können, denn eine allgemeine historische und gesellschaftliche Perspektive auf die Entwicklung meines Feldes hätte ich mir im Studium manchmal gewünscht. Auch in manchen BWL-Studiengängen wird ja inzwischen Wirtschaftsgeschichte oder Wirtschaftsethik gelehrt. Leider ist das Kapitel doch recht komprimiert geschrieben und könnte mir daher eher als Orientierung dienen, falls ich solche Themen durch eigene Lektüre einmal vertiefen wollte. Die folgenden Kapitel sind doch wieder aus einer betriebwirtschaftlichen Perspektive geschrieben. Aber immerhin schön, dass der Autor hier mal einen breiteren Rahmen skizziert hat.
     
    Kapitel 2 - Ertragsmodelle
     
    Im zweiten Kapitel "Ertragsmodell" geht es um direkte und indirekte Ertragsmodell im Web-Business. Sicher ist es sinnvoll, diese einmal explizit vorzustellen und die verschiedenen Geschäftsmodelle zu kategorisieren. Nun ist es so, dass seit vielen Jahren jedermann kostenlose und kostenpflichtige Dienste im Internet nutzt. Etwas bislang unbekanntes wird man hier also kaum erfahren. Immerhin kennt man die Beispiele für Ertragsmodelle so aus eigener Anschauung und ordnet sie in einen übergreifenden begrifflichen Rahmen ein.
     
    Kapitel 3 - Struktur des Web-Business
     
    Das dritte Kapitel "Struktur des Web-Business" stellt schließlich ein theoretisches Werkzeug oder Modell vor, mit dem sich verschiedene Aspekte des Web-Business untersuchen lassen: Die Web-Business Pyramide. 
    Diese ist für das Modul wichtig, denn sie bildet eine Art Klammer, die alle folgenden Kapitel zusammenhält. Immer wieder wird dort der Bezug zur Web-Business Pyramide hergestellt und sie stiftet auch einen Zusammenhang zwischen den Kapiteln.
     
    Die Pyramide hat vier Seiten, die in den folgenden Kapitel näher betrachtet werden. Die erste Seite ist dabei die Konversionsseite. Sie beschreibt die Rollenwechsel vom noch anonymen Besucher einer Web-Präsenz zum Stammkunden, der sich mit geringerem Aufwand ansprechen und motivieren lässt. Jede Rolle entspricht einer Stufe der Pyramide. Der Besucher wird zum Interessenten, indem er auf der Seite verweilt und sie erkundet. Er wird zum Kaufwilligen, indem er etwas in den Warenkorb legt und persönliche Informationen preisgibt. Er wird zum Käufer, indem er eine Bestellung ausführt. Und im besten Fall wird er zum Stammkunden, der die Seite künftig gezielt und mit Kaufabsicht aufsucht.
    Die Pyramidenform soll dabei verdeutlichen, dass jeweils nur ein kleiner Teil der Nutzer die nächste Stufe der Pyramide erreicht. Bildet man den Quotienten aus den Nutzerzahlen zweier aufeinanderfolgender Stufen, so erhält man eine Konversionsquote, eine Maßzahl dafür, wie gut der Übergang von einer Stufe zur anderen gelingt. Ziel des Betreibers einer Präsenz ist, Konversionsquoten zu steigern. Die folgenden Kapitel beschäftigen sich damit, wie dies geschehen kann. Eine gute Suchmaschinenoptimierung soll z.B. nicht einfach nur mehr Besucher auf die eigene Web-Präsenz lenken, sondern solche, für die das eigene Angebot relevant ist. Sonst verlassen die Besucher die Seite nach dem ersten Eindruck wieder. Interessieren sich die Besucher für die dargebotenen Inhalte, so wird die Usability der Seite wichtiger, damit sie auch dort bleiben.
     
    Die anderen Seiten der Web-Business Pyramide beschäftigen sich mit den Kostenarten, mit dem Marketing und mit den Prinzipien, die Entscheidungen des Webseiten-Betreibers leiten. Diese sind jeweils auf Stufen der Konversionsseite bezogen. Auf jeder Stufe gibt es also korrespondierende Kostenarten, Marketingschwerpunkte und leitende Prinzipien.
     
    Das Modell Web-Business Pyramide fand ich interessant. Leider ist das Buch ziemlich komprimiert geschrieben. Neben allgemein bekanntem Wissen stehen Formulierungen, die wohl eher für BWL-affine Leser verständlich sind.
     
    Kapitel 4 - Aufbau der Web-Präsenz
     
    Im Kapitel "Aufbau der Webpräsenz" werden Hinweise zur Gestaltung einer Web-Präsenz gegeben. Hier geht es nicht darum, wie so etwas technisch umgesetzt wird, sondern um Dinge wie Zielgruppenausrichtung, Corporate Identity, Arten der Führung durch die Seite und verschiedene Arten der inhaltlichen Ausrichtung. Die vermittelten Begrifflichkeiten fand ich zum Teil nützlich und interessant. Auch diese Kapitel waren aber für meinen Geschmack sehr dicht geschrieben. Von einem langsameren und expliziteren Vorgehen mit mehr Fallbeispielen hätte ich als Leser profitiert. Schlagworte dieses Kapitel sind z.B. der Primacy-Effekt oder der Halo-Effekt.
     
    Die restlichen Kapitel
     
    Die restlichen Kapitel "Verkauf im Web-Business", "Vertrieb im Web-Business", "Marketing im Web-Business" und "Potentiale im Web-Business" nehmen immer wieder Bezug auf das Modell Web-Business Pyramide. Das ist gut. Leider sind auch sie recht dicht geschrieben. Von Kapitel zu Kapitel werden oft ähnliche Konzepte wiederholt, wobei sich der Blickwinkel ändert. Das ist an sich kein schlechtes didaktisches Konzept. Leider wirkt die Umsetzung auf mich eher repetitiv und kann die gedrängte Darstellung innerhalb der Kapitel nicht ausgleichen.
     
    Insgesamt lässt mich das Lehrbuch unbefriedigt zurück. Viele Themen werden mir zu knapp vorgestellt. Natürlich wäre es empfehlenswert, eigenständig weitere Fachliteratur zu lesen, auf die im Lehrbuch auch verwiesen wird. Aber die Darstellung ist hier z.T. so knapp, dass es zumindest mir schwer fällt, zu erkennen, welche der angegebenen Quellen für mich lesenswert wären. Vielleicht macht sich hier bemerkbar, dass dies ein Lehrbuch für Studierende aus dem Studiengang Wirtschaftsinformatik ist, denen eine betriebswirtschaftliche Perspektive vertrauter ist.
     
    Sehr gut gefallen hat mir, dass im ersten Kapitel eine Einordnung in einen weiteren gesellschaftlichen und historischen Kontext versucht wurde. So etwas würde ich mir auch von anderen Autoren und in anderen Modulen wünschen.
     
    Tests und Aufgaben
     
    Die Tests waren für mich zum Teil hilfreich, mein Verständnis des Stoffes zu entwickeln. Leider waren die Lösungen spärlich kommentiert, so dass mir bei einem Fehler nicht immer klar war, warum ich falsch gelegen hatte. Mittlerweile halte ich kommentierte Testergebnisse für wünschenswert, auch wenn manche Autoren der Ansicht sind, unkommentierte Lösungen seien förderlicher für eigenständiges Denken. In einer Lehrveranstaltung würde ein Dozent zwischendurch Fragen stellen. Die Antworten würde er üblicherweise nicht nur mir "richtig" oder "falsch" bewerten, sondern inhaltlich darauf eingehen. Diese Art von Interaktion in einer Vorlesung fehlt im Fernstudium. Tests mit Verständnisfragen zum Stoff könnten die Nachfrage des Dozenten simulieren, gut kommentierte Lösungen seine Rückmeldungen.
     
    Die Aufgaben zielten mir zu sehr auf Reproduktion des Stoffes, z.B. durch Erklären von Konzepten und Begrifflichkeiten. Ein gewisser Transfer kam dadurch ins Spiel, dass man immer wieder konkrete Beispiele nennen sollte. Da konnte man dann auf bekannte Web-Präsenzen verweisen, auf denen dieses oder jenes Prinzip (hoffentlich gut) umgesetzt ist. Im Vergleich zu Modulen der Softwaretechnik oder Programmiermodulen kam mir aber hier das aktive Problemlösen zu kurz.
     
    Präsenzklausur
     
    Die Präsenzklausur war gutmütig gestellt, weil sich Art und Inhalte der Aufgaben z.T. recht eng an den Einsendeaufgaben orientierten. Wer alle Aufgaben macht und die erhaltenen Rückmeldungen verwertet, sollte gut vorbereitet sein.
     
    Fazit
     
    Dieses Modul wäre für meinen Studiengang nicht zwingend gewesen. Ich habe es belegt, um meine eher technische Sicht auf Web-Anwendungen um eine betriebswirtschaftliche Perspektive zu ergänzen. Das Modul ordnet viele Phänomene in einen begrifflichen Rahmen ein, die eigentlich jedem Nutzer des Webs bekannt sein sollten. Daher meine ich, man hätte an einigen Stellen tiefer schürfen dürfen. Nicht gut zurechtgekommen bin ich mit der sehr dichten Darstellung. Mehr Seiten hätte man z.B. nutzen können, um Aussagen durch mehr Fallbeispiele zu verdeutlichen. Interessant wäre z.B. gewesen, bei mehr Themen mehrere Web-Präsenzen gegenüber zu stellen und diese zu vergleichen. So etwas wäre auch eine schöne Einsendeaufgabe gewesen.
     
    Die Aufgaben hätten stärker den Aspekt Wissenstransfer und Problemlösung betonen dürfen. Statt bestimmte Prinzipien zu beschreiben und zu erklären, hätte man doch auch Konzepte für Web-Präsenzen entwickeln können, in denen sie umgesetzt werden. Aufgaben dieser Art gab es z.B. im Modul "Web-Design und -Ergonomie". Rückblickend betrachtet würde ich mich heute lieber für ein anderes Wahlpflichtmodul entscheiden, z.B. für das technischere Modul "ERP-Systeme".
     
    Gleichwohl bin ich nach diesem Modul nun "scheinfrei" und das ist natürlich ein schönes Gefühl. Weitere Module werde ich in diesem Blog nicht mehr vorstellen.
     
    Für diejenigen Leser, die sich für den Studiengang "Wirtschaftsinformatik" bei Springer Campus interessieren: Mein Blog deckt zwar recht viele Pflichtmodule dieses Studiengangs ab, aber es fehlen auch einige:
    - Grundlagen BWL
    - Strategisches Mangement und Controlling
    - Human Resources
    - Grundlagen Wirtschaftsinformatik
    - ERP-Systeme
     
    Vielleicht werden diese Lücken einmal von anderen Bloggern geschlossen.
     
    An diesem Punkt meines Studiums blicke ich nun zurück auf insgesamt 39 Präsenz-Klausuren und ähnlich viele Online-Abschlussklausuren und -Tests, auf hunderte Einsendeaufgaben und eine in jedem Fall vierstellige Zahl von Online-Tests. Ich bin nun froh, diesen Abschnitt meines Studiums hinter mir zu lassen. Ab nächste Woche werde ich mich auf meine Bachelorarbeit konzentrieren. Nun heißt es, "ohne Stützräder fahren" und "selbst die Balance halten", auch wenn im Hintergrund noch jemand steht, der meine Fahrversuche kritisch beobachtet und begleitet.
  8. kurtchen
    Heute habe ich in Heidelberg meine letzte Prüfung im Modul "Electronic Business" abgelegt. Da ich mir ziemlich sicher bin, bestanden zu haben, kann ich sagen: "Ich bin scheinfrei."
     
    Das ist ein gutes Gefühl, denn obwohl mir mein Studium große Freude gemacht hat, so habe ich - zumindest im Moment - keinen Appetit mehr auf Module, Einsendeaufgaben und Klausuren.
     
    Scheinfrei heißt natürlich nicht fertig. Die Bachelorarbeit steht noch an. Angemeldet ist sie inzwischen. Ein bisschen geschrieben habe ich auch schon. Die Zeit zur Erstellung einer Latex-Vorlage war gut investiert. Ich kann mich gut auf's Schreiben konzentrieren und das erzeugte PDF sieht ganz gut aus. Jetzt freue ich mich auch darauf, mit der Bachelorarbeit ein eigenes Thema erkunden zu dürfen und meinen Lernprozess selbstständig zu gestalten.
     
    Aber das geht erst nächste Woche wieder los. Ich gönne mir jetzt Kaffee und Kuchen in der Kantine. Ein paar Kommilitonen schreiben noch die nächste Prüfung, aber für mich beginnt nun mein Wochenende.
     
    Ein Modulbericht zu "Electronic Business" folgt noch, könnte diesmal aber etwas knapper ausfallen.
  9. kurtchen
    7. Semester - Wintersemester 2018/2019
    - Präsentieren
    - Text Mining
    - IT-Projektmanagement
     
    6. Semester - Sommersemester 2018
    - Multimedia
    - IT-Recht
    - Business Intelligence
    - Projektarbeit
     
    5. Semester - Wintersemester 2017/2018
    - Geschäftsprozessmanagement
    - BWL2
    - Aktuelle Webtechniken
    - Wissenschaftliches Arbeiten
    - Software-Management
    - Software-Testen
     
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Web-Engineering
    - Softwaretechnik 2
    - Softwaretechnik 3
    - Content Management Systeme (CMS)
    - Data-Mining
    - XML
    - BWL1
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Aktuell in Bearbeitung bei Springer Campus
    - Electronic Business
     
    Danach noch fehlende Pflichtmodule:
    - Bachelorarbeit
  10. kurtchen
    Ich befinde mich nun in der letzten Etappe meines Fernstudiums. Das dauert nun doch schon länger, als ich mir vorgenommen hatte, denn zwischenzeitlich hatte ich sogar gehofft, Ende 2018 fertig zu werden. 
     
    Rückblickend war diese Hoffnung nicht realistisch. Zu Beginn war ich schneller vorangekommen, als ich gedacht hätte. Die Module in den Kernbereichen des Informatikstudiums wie Mathematik, Programmierung, Softwaretechnik oder IT-Systeme fand ich inhaltich spannend. Entsprechend leicht fiel es mir, mich zum Lernen zu motivieren. Meine raschen Fortschritte dieser Zeit habe ich extrapoliert.
     
    Themen, die mich weniger interessiert haben (wie z.B. BWL), habe ich dagegen vor mir hergeschoben. Mein Lernfortschritt in solchen Modulen war zäher. Ohne Neugier auf die Inhalte fiel es mir schwerer, an den Themen dranzubleiben. Auch blieb mir der Stoff nicht so mühelos im Gedächtnis wie bei den Themen, die mich stark interessierten. Das hat meinen Studienfortschritt im letzten Drittel ausgebremst. Schließlich habe ich den Anstieg des fachlichen Niveaus unterschätzt. Module wie "Text Mining" waren spannend, aber den Erfolg musste ich mir hier mühsamer erarbeiten als in den ersten Semestern.
     
    Auch die Projektarbeit hat viel Zeit verschlungen. Die war meiner Meinung nach aber gut investiert. Ich konnte hier Wissen aus verschiedensten Modulen meines Studienganges verbinden und anwenden. Zugleich war es spannend, längere Zeit an einer Software zu arbeiten, die allmählich größer und unübersichtlicher wurde. Das hat mich immer wieder herausgefordert, Entwurfsentscheidungen erneut zu bewerten, um der wachsenden Komplexität Rechnung zu tragen. Die Inhalte vieler Module wurden dadurch noch einmal lebendig. Insofern war der fachliche Gewinn sehr hoch. Leider habe unterschätzt, wie viel Aufmerksamkeit und Zeit die Projektarbeit binden würde. Mein Plan, nebenbei noch regelmäßig Module zu bearbeiten und Klausuren zu schreiben, erwies sich als zu ambitioniert.
     
    Inzwischen bearbeite ich mein letztes Modul "Electronic Business". Es richtet sich an Wirtschaftsinformatiker. Dementsprechend betrachtet es das Thema Web-Business nicht durch eine technische sondern durch eine unternehmerische "Brille". Solche Module sind mir in meinem Studium schwer gefallen. Andererseits habe ich bewusst immer wieder auch solche Module im Wahlpflichtbereich belegt. Die Erfahrung, sich in Themen einzuarbeiten, die nicht auf den ersten Blick "zum Anbeißen" sind, gehört meiner Meinung nach zu einem Studium dazu. Ich sehe aber auch, dass ich im Vergleich zu Menschen, die für betriebswirtschaftliche Themen ein genuines Interesse aufbringen, langsamer bin. Es ist gut, solche Erfahrungen zu machen. Am Ende meines Studium will ich nicht nur meine Stärken sondern auch meine Schwächen besser kennen.
     
    Vor einigen Wochen habe ich schließlich meine Bachelorarbeit angemeldet. Diese soll nicht auf meiner Projektarbeit aufbauen, ist also auch nicht praxisbezogen. Die Projektarbeit war ja eine konstruktive Arbeit, die ein praxisbezogenes Problem lösen sollte. Dabei sollten zwar Erkenntnisse der Informatik zur Anwendung kommen und auch Techniken des wissenschaftlichen Arbeitens geübt werden, aber der Fokus lag natürlich auf den Anforderungen und der Anwendungsdomäne. Die Bachelorarbeit soll dagegen eine wissenschaftliche Fragestellung untersuchen. Ich hatte den Wunsch, hier thematisch wieder stärker im Kernbereich der Informatik als Strukturwissenschaft zu landen. Zur Bachelorarbeit werde ich einen eigenen Blogbeitrag verfassen, aber es soll um einen Vergleich zwischen objektorientierter und funktionaler Programmierung an einem Fallbeispiel gehen. Ich möchte einige Varianten des klassischen Travelling Saleman Problems mit evolutionären Strategien lösen, und zwar jeweils mit einer objektorientierten und einer funktionalen Implementierung.
     
    Unterschätzt habe ich den administrativen Vorlauf einer Bachelorarbeit. Der ist nämlich höher als bei der Projektarbeit. Zunächst einmal musste ich noch einen Zweitbetreuer finden, dessen Rolle mir anfangs nicht klar war. Inzwischen weiß ich: Der Zweitbetreuer begleitet zwar nicht den Entstehungsprozess der Bachelorarbeit, hat aber auf die Notengebung einen hohen Einfluss und ist auch Prüfer im Abschlusskolloquium. Hier übernahm das Studienbüro wieder eine "Lotsenfunktion". Das ist sehr wichtig, weil man als Fernstudierender die Professoren der FH Dortmund nicht so gut kennt wie ein Präsenzstudierender. Mir wurden zwei Betreuer vorgeschlagen, die ich auch beide schon bei einem Präsenztag erlebt hatte. Das war gut. Beide hatten bei mir einen sehr positiven Eindruck hinterlassen. Den Ausschlag gab, dass der eine Vortrag einen stärker algorithmischen Fokus hatte. Ich hatte den Eindruck, hier mit meinem Thema gut hinzupassen. Dies zeigt aus meiner Sicht noch einmal, dass die Präsenztage einen Wert haben, den man als Student in den ersten Semestern nicht unbedingt erkennt. Der Gedanke, bei diesem oder jenem Vortragenden meine Bachelorarbeit zu schreiben, drängte sich mir damals noch nicht auf. Dieses Ziel war noch zu weit, um greifbar zu sein.
     
    Der eigentliche Anmeldeprozess ist ebenfalls formaler als bei der Anmeldung zu Klausuren oder zur Projektarbeit. Das Anmeldeformular muss per Briefpost nach Dortmund geschickt werden, Erst- und Zweitbetreuer müssen es unterzeichnen und schließlich muss es auch ins Prüfungsamt. Hier geht also ein physischer Gegenstand über Schreibtische, wird mit der Hand angefasst und zu Fuß transportiert. Das macht sich in der Durchlaufzeit bemerkbar. Ich warte nun schon etwas mehr als 3 Wochen auf den Startschuss. Als Studierender auf einer Online-Plattform bin ich natürlich durch schnelle Reaktionszeiten verwöhnt. Aber vor dieser letzten Etappe lebe ich nun noch einmal in der älteren und langsameren analogen Welt, wo gut Ding Weile haben will. Vermutlich wird das mein anvisiertes Studienende noch mal ein paar Wochen nach hinten verschieben.
     
    Innerlich scharre ich schon ein bisschen mit den Hufen, aber zur Untätigkeit bin ich ja nicht verdammt. Denn so bearbeite ich Schritt für Schritt mein letztes Modul Electronic Business und habe dann hoffentlich Kopf und Hände frei, wenn es mit der Bachelorarbeit losgehen darf.
     
    Meine hoffentlich letzte Klausur ist im Mai. Für die Bachelorarbeit darf ich mir 6 Monate Zeit nehmen. Dann kommt noch das Kolloquium. Inzwischen spüre ich deutlich, dass ich in diesem letzten Abschnitt meines Studium nicht mehr ein extern auferlegtes Curriculum abarbeite, sondern eigenen fachlichen Interessen folge. Mein Denken und Handeln ist nicht mehr so kleinschrittig wie in den einzelnen Modulen, wo es jeweils um das nächste Kapitel, den nächsten Online-Test oder die nächste Einsendeaufgabe ging. Inzwischen geht es um ein eigenes fachliches Interesse. Ich selbst suche Mittel und Wege und muss entscheiden, in welche Richtung mich der nächster Schritt führen soll. Das ist schwieriger. Aber ich spüre dadurch auch ein Selbstbewusstsein, dass ich allein durch die erfolgreiche Bearbeitung von Modulen nicht gewinnen konnte.
     
    Was sehr schön ist: Ich genieße es im Moment, neben meinem Studium meinen fachfremden Beruf auszuüben. Die unverblümte und direkte Art der Kinder in meiner Einrichtung holt mich regelmäßig von meinen gedanklichen Höhenflügen zurück und erdet mich wieder ein bisschen.
  11. kurtchen
    Im März 2019 wird es in Dortmund keinen Präsenztag für Studierende in den IT-Studiengängen von Springer Campus geben. Grund dafür sind die geringen Teilnehmerzahlen der letzten Jahre. Darüber informierte uns das Studienbüro in den virtuellen Cafés unserer Studiengänge.
     
    Diese Entscheidung bedauere ich sehr. Leider kann ich die Gründe gut nachvollziehen. Ich erinnere mich noch lebhaft an meinen ersten Präsenztag im September 2015. Dieser war der letzte, bei dem Anwesenheitspflicht bestand. Entsprechend hoch waren die Teilnehmerzahlen. An diesem Tag wurde uns verkündet, dass die Teilnahme wegen einer Gesetzesänderung künftig freiwillig sei. Die Reaktion aus dem Plenum ließ große Zustimmung dafür erkennen. Auch ich fand das damals gut. Da ich nicht in der Nähe wohne, ist für mich die Teilnahme an einem Präsenztag in jedem Fall mit einer Übernachtung verbunden. Der Wegfall der Präsenzpflicht schien mir die Vereinbarkeit von Studium, Beruf und Familienleben zu verbessern. Es ist gut, eine Wahl zu haben.
     
    Ich habe mir trotzdem jedes Mal die Zeit genommen, nach Dortmund zu fahren, und zwar nicht allein wegen der Möglichkeit, am Präsenztag Prüfungen abzulegen. Leider gingen die Teilnehmerzahlen schnell zurück. Manchmal hatte ich den Eindruck, dass manche Studierende allein wegen der Prüfungen anreisten und die Vorträge ausfallen ließen.
     
    In der Summe standen nun anscheinend der Aufwand der Präsenztage und ihre Nutzung durch uns Studierende in keinem vernünftigen Verhältnis mehr. Darum soll es in diesem Jahr nur noch einen Präsenztag im September geben, an dem dann auch die Absolventenfeier stattfindet.
     
    Inzwischen stelle ich meine ursprüngliche Sichtweise auf die Befreiung von der Präsenzpflicht in Frage. Ich fand es damals gut, eine Wahl zu haben, aber die habe ich ja nun nicht mehr. Natürlich kann es viele gute Gründe geben, NICHT an einem Präsenztag teilzunehmen. Aber dass das Angebot so wenig genutzt wurde, spricht in meinen Augen dafür, dass viele Studierende die Vorzüge eines Präsenztages nicht ausreichend wahrnehmen. Nur zwei davon möchte ich hier noch einmal nennen:
    Die angebotenen Tutorien in Mathematik, die mir sehr geholfen haben, eine Lernstrategie für das vergleichsweise schwierige Modul Mathe2 zu entwickeln. Dabei wird gerade dieses Modul immer wieder als Herausforderung beschrieben. Früher oder später braucht man einen Betreuer für eine Projektarbeit und für eine Bachelorarbeit. Dieser Betreuer spielt eine wichtige Rolle im Prozess. Ich empfinde es als besonderen Nachteil eines Fernstudiums, dass wir die Professoren kaum in der Lehre erleben und so ein Gefühl dafür entwickeln können, bei wem wir gerne unsere Abschlussarbeit schreiben würden. Der Präsenztag war eine der wenigen Gelegenheiten dafür.  
    Ich habe gelesen, dass durch eine erneute Gesetzesänderung die Präsenzpflicht an Hochschulen in NRW wieder möglich werden soll. Über die Details bin ich nicht im Bilde. (Ich lebe auch nicht in NRW.) Als Fernstudierender bin ich eigentlich der Auffassung, das Studierende in hohem Maß selbst Verantwortung für ihren Lernprozess übernehmen müssen und dazu auch in der Lage sind. Und zwar unabhängig davon, ob sie Präsenz- oder Fernstudierende sind. Ich glaube, dass viele Menschen lernen und sich entwickeln wollen, aber nicht immer die Möglichkeiten dafür vorfinden, die zu ihrer Lebenssituation passen. Daher bin ich eigentlich stets dafür, externe Hürden, Vorgaben und Beschränkungen abzubauen, und stattdessen Gelegenheiten zu schaffen. Mit dem Beispiel unseres Präsenztages vor Augen denke ich darüber nach, ob mein Menschenbild nicht zu optimistisch ist. Ich kann nun zumindest nachvollziehen, dass Präsenzpflicht für viele Menschen ein bildungspolitisches Thema ist.
     
    Ich genieße es sehr, bei einem vergleichsweise kleinen Anbieter zu studieren. Auch wenn vieles doch per Telefon oder Mail geregelt wird, man kennt die Menschen am anderen Ende der Leitung. Das liegt auch an den Präsenztagen.
  12. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "IT-Projektmanagement" ist ein Pflichtmodul im Studiengang "B.Sc. Wirtschaftsinformatik" und wird dort auch dem Studienbereich Wirtschaftsinformatik zugerechnet. Vorgesehen ist es für das 4. Fachsemester. Formale Zugangsvoraussetzungen gibt es keine. Als inhaltliche Vorbereitung werden die Module "Geschäftsprozessmanagement" und "Software-Management 2" empfohlen. Ich meine, man könnte das Modul auch ohne diese Vorbereitung belegen. Web- und Medieninformatiker können dieses Modul im Wahlpflichtbereich belegen. Es gibt auch einen besonderen Anreiz, gerade dieses Modul zu wählen: Es ist Pflichtmodul für die Hochschulzertifikate "Requirements Engineer" und "Software-Manager".
     
    Persönliche Motivation
     
    Da ich Web- und Medieninformatik studiere, hätte ich dieses Modul nicht unbedingt belegen müssen. Nun war mir das Pflichtmodul "Software-Management 1" nicht leicht gefallen und auch die Klausur hätte besser laufen können. Darum hoffte ich, fachlich davon profitieren zu können, mich dem Thema Software-Management noch einmal aus einer anderen Perspektive zu nähern.
     
    Zum Lehrbuch
     
    Das Buch "Management von IT-Projekten" ist von Hans W. Wieczorrek und Peter Mertens. Es ist ein gebundenes Hardcover vom Springer Verlag aus der Serie Xpert.press. Im Modul verwendet wird die 4. Auflage von 2011. Sie hat einen Umfang von ca. 450 Seiten. Ich hatte das Glück, dass einer der Autoren mich als Tutor betreute.
     
    Das Buch behandelt sein Thema umfassend und aus vielen unterschiedlichen Perspektiven. In Kapitel 2 werden Grundbegriffe des Projektmanagements geklärt, Projektarten vorgestellt und Erfolgsfaktoren des Projektmanagements identifiziert. Kapitel 3 beschäftigt sich mit dem institutionellen Management von IT-Projekten. Hier geht es z.B. um Vor- und Nachteile verschiedener Projektorganisationsformen und auch um die Aufbauorganisation von Projekten. Schon nach diesen zwei Kapiteln wird deutlich, dass das Modul gegenüber dem Modul "Software-Management 1" eine stärker betriebswirtschaftliche Perspektive einnimmt. Ich finde, auch die Praxis bekommt ein etwas stärkeres Gewicht als im Lehrbuch von Herrn Balzert, dass dafür mehr Aufwand bei der scharfen Definition von Begriffen treibt.
     
    Kapitel 4 beschäftigt sich mit dem Vorgehen in IT-Projekten. Es geht um die Phasen der Projektinitialisierung und Projektdefinition. Dann geht es um mögliche Vorgehensmodelle, wobei auch agile Modelle eine Rolle spielen. Auch das Thema Prototyping wird behandelt. Insgesamt gibt es hier viel inhaltliche Überlappung mit dem Modul "Software-Management 1". Aber die Kapitel scheinen stärker aus der Perspektive der Praxis geschrieben zu sein. Mit dem Vorwissen aus dem Lehrbuch von Herrn Balzert war der präsentierte Stoff für mich gut lesbar. Ich hatte das Gefühl, hier viele Dinge noch einmal anders zu verstehen als beim ersten Anlauf. Insofern hatte ich schon hier den Eindruck, dass die Bearbeitung dieses Moduls sich für mich lohnte.
     
    Dem agilen Projektmanagement ist das Kapitel 5 gewidmet. Hier geht es unter anderem um das agile Manifest und Prinzipien agiler Entwicklung, aber auch um Voraussetzungen für den Einsatz agiler Modelle.
     
    Die Kapitel 6 und 7 beschäftigen sich mit der Planung von IT-Projekten und Techniken der Projektplanung. Projektmanagment wird als Regelkreis vorgestellt und Schritte und Phasen der Planung werden beschrieben. Neben der Listentechnik und den vielen bekannten Gantt-Diagrammen werden vor allem CPM-Netzpläne beschrieben, die auf der Graphentheorie basieren. Die Erstellung solcher Netzpläne sollte man für die Online-Klausur üben.
     
    Recht interessant war für mich das Kapitel zur Führung in IT-Projekten, wo es z.B. um soziologische Führungsmittel ging. Hier gab es z.T. sehr konkrete Hinweise, wie ein fairer Umgang mit Mitarbeitern aussehen müsste. Auch Themen wie Budgetierung, Steuerung und Controlling wurden behandelt.
     
    Für mich weniger zugänglich war das Kapitel 9 zur Aufwandsschätzung in IT-Projekten. Hier wurden verschiedene Methoden knapp vorgestellt. Es schafft somit einen Überblick. Leider wird nicht für alle Verfahren anschaulich gezeigt, wie sie im einzelnen funktionieren. Dass allerdings hätte den Umfang des Lehrbuches auch stark erhöht. Viele Schätzungen basieren auf dem Vergleich neuer Projekte (mit bislang unbekannten Kosten) mit abgeschlossenen Projekten (mit bekannten Kosten). Das setzt natürlich voraus, dass Projekte ordentlich dokumentiert und ausgewertet werden.
     
    Im Kapitel 10 geht es um die Wirtschaftlichkeit von IT-Projekten. Hier war mir das Tempo oft zu hoch. Es wird deutlich, dass die Autoren sich in einem betriebswirtschaftlichen Umfeld gut auskennen. Dabei setzen sie möglicherweise Begrifflichkeiten als allgemein bekannt voraus, die zumindest mir durchaus unklar waren. So habe ich zum Beispiel anhand der Ausführungen nicht begreifen können, was die Kapitalwertmethode ist. Allerdings war mein Tutor auf Nachfrage gerne bereit, mir dafür zusätzliches Übungsmaterial zur Verfügung zu stellen. Allgemein kann ich sehr empfehlen, Kontakt zu den Tutoren herzustellen und zu halten und sie als Ansprechpartner bei fachlichen Schwierigkeiten zu nutzen.
     
    Kapitel 11 gibt Tipps und Tricks für Leiter von IT-Projekten. Die folgenden Kapitel behandeln Subsysteme des Projektmanagements, Projektpolitik und stellen einen Rahmen für das Projektmanagement vor. Den Abschluss bildet, wie so oft bei Springer Campus, eine Fallstudie, die für meinen Geschmack noch ein bisschen mehr Raum hätte einnehmen dürfen.
     
    Insgesamt fand ich das Lehrbuch gut lesbar und praxisnah geschrieben. Obwohl ich bislang nicht im IT-Bereich arbeite, konnte ich einige Analogien zu Situationen in meinem beruflichen Alltag herstellen und so viele Ausführungen besser nachvollziehen. Die Materie an sich ist durchaus trocken, aber die Autoren behandeln den Stoff auf eine praxisorientierte Weise. Insgesamt habe ich von der Lektüre profitiert. Vieles, was ich beim Lesen des Lehrbuches von Herrn Balzert recht mühsam verstanden habe, fiel mir hier leichter. Das mag zum Teil an der inhaltlichen Überlappung liegen, aber ich glaube, dass Texthandwerk der Autoren leistet auch einen wichtigen Beitrag dazu.
     
    Tests und Einsendeaufgaben
     
    Die Tests habe ich selten auf Anhieb richtig lösen können. Gut gefallen hat mir, dass sie umfangreich kommentiert sind. So habe ich stets nachvollziehen können, warum meine erste Lösung falsch war. Oft habe ich gerade durch meine Fehler neue Einsichten in den Stoff gewonnen. Die Tests waren auf den Stoff der Kapitel bezogen und ergänzten ihn in sinnvoller Weise.
     
    Die Einsendeaufgaben zielten meist auf Reproduktion des Stoffes und waren somit relativ leicht lösbar. Hier hätte ich mir mehr Aufgaben gewünscht, die auf Anwendung abzielen und Transferleistungen beinhalten, denn das spielt in der Online-Klausur und in der Präsenzklausur natürlich eine Rolle.
     
    Die Rückmeldungen meines Tutors kamen zügig und waren konkret und hilfreich. Auf Nachfrage verwies mein Tutor auch auf zusätzliches Material, um z.B. das Erstellen von CPM-Netzplänen zu üben. Das erwies sich als sinnvoll und nützlich, denn erst in der Anwendung merkt man, ob man den Stoff verstanden hat. Allerdings hielte ich es deswegen für wünschenswert, wenn auch einige Einsendeaufgaben stärker auf Anwendung und Transfer abzielten.
     
    Online-Test und Online-Klausur
     
    Der Online-Test fiel mir recht leicht und passte gut zu den Aufgaben, die ich zuvor geübt hatte. Es war gut, dass ich zuvor mit zusätzlichem Material geübt hatte, auf das mich mein Tutor verwiesen hatte. Ich empfehle hier allen Studierenden, Kontakt mit dem Tutor zu suchen und auch konkret nachzufragen, wie und womit man üben kann. Es gibt im Netz viel Material, das frei zugänglich ist. Aber wenn man nicht im Dialog bleibt, entgeht einem womöglich die Chance, sich bestmöglich vorzubereiten. Leicht denkt man nach Lektüre der Kapitel, dass man alles verstanden hat und auch anwenden kann. Aber das kann trügerisch sein.
     
    Präsenzklausur
     
    Die Präsenzklausur lief für mich leider nicht gut. Die ersten Aufgaben fielen mir zwar leicht und ich konnte sie in weniger als der Hälfte der Zeit bearbeiten. Aber die letzte Aufgabe machte 40% der Punkte aus und war umfangreicher. Und ausgerechnet hier gelang es mir nicht, die Aufgabenstellung zu verstehen und die enthaltenen Hinweise zu verwerten. Am Ende war ich überzeugt, hier keinen einzigen Punkt erzielen zu können. So habe mich entschieden, alle bearbeiteten Aufgaben durchzustreichen, um mit null Punkten durchzufallen und einen neuen Anlauf nehmen zu können.
     
    Ursprung meiner Schwierigkeiten war ein Missverständnis. Ich hatte eine Auflistung von Werten falsch gelesen und so jeweils zwei durch ein Komma getrennte Werte als einen einzigen Wert mit Nachkommastellen aufgefasst, der dann völlig unrealistisch war. Leider waren diese Werte grundlegend für alle folgenden Arbeitsschritte. Offenbar war ich dann so aufgeregt, dass ich eine Art Tunnelblick entwickelt habe. Ich habe eine Stunde lang immer nervöser nach einer Möglichkeit gesucht, mit den unsinnigen Werten zu rechnen oder irgendeine sinnvolle Erklärung dafür zu finden. Ärgerlich daran ist, dass auch die letzte Aufgabe gut machbar gewesen wäre.
     
    An dieser Stelle zeigte sich wieder einmal der Wert einer guten tutoriellen Betreuung. Ich habe zu Hause umgehend meinen Tutor kontaktiert, weil ich zu diesem Zeitpunkt noch nicht verstanden hatte, was eigentlich schiefgelaufen war. Dementsprechend verunsichert war ich, auch im Hinblick auf eine Wiederholungsprüfung. Mein Tutor hat sehr umgehend reagiert und mit seiner Hilfe konnte ich verstehen und für mich reflektieren, was eigentlich passiert war. Für Außenstehende dürfte offensichtlich sein, dass ich dieses Mal die Nerven verloren hatte. Mir selbst war das zunächst gar nicht klar. Dies war meine 38. Klausur im Studiengang und bislang hatte ich unter Stress immer gut funktioniert und bis zum Schluss einer Klausur lösungsorientiert weiterarbeiten können. Möglicherweise habe ich mich wegen der stärker betriebswirtschaftlichen Perspektive des Moduls und dem Management-Fokus unsicher gefühlt.
     
    Jedenfalls habe ich mich nach der Klärung mit meinem Tutor wieder beruhigen und das Geschehene für mich einordnen können. Ich plane nun, einfach das nächste Modul zu bearbeiten und beim nächsten Klausurtermin die Wiederholungsklausur zu schreiben. Eigentlich sollte das klappen.
     
    Fazit
     
    Ursprüngliche Motivation für die Belegung dieses Moduls war, das Thema Software-Management noch einmal in den Blick zu nehmen. Und zwar nicht, weil ich mich für eine Tätigkeit mit diesem Schwerpunkt interessiere. Sondern eher, um die Perspektive eines Projektmanagers auf den Gesamtprozess besser verstehen zu können, auch wenn ich selbst lieber umsetzend als planend und führend tätig werden möchte. In meinem Arbeitsbereich habe ich die Erfahrung gemacht, dass ein wenigstens rudimentäres Verständnis für die Aufgaben des Managements die Kommunikation am Arbeitsplatz verbessert. In dieser Hinsicht hat sich das Modul für mich gelohnt. Das liegt in erster Linie am verständlich geschriebenen Lehrbuch und an der guten tutoriellen Betreuung.
     
    Obwohl das Projektmangement im Softwarebereich einige Besonderheiten hat, meine ich, dass ich einige Einsichten auch auf meinen gegenwärtigen Arbeitsbereich übertragen kann, der nichts mit IT zu tun hat. Möglichkeit zur Verbesserung sehe ich bei den Einsendeaufgaben. Diese könnte man um zwei bis drei komplexere Aufgaben ergänzen, die mehr Transfer und Anwendung erfordern.
     
    Um das Modul abschließen zu können, muss ich nun noch die Wiederholungsklausur bestehen. Ich werde hier im Blog berichten. Ich glaube, für meine persönliche Entwicklung ist es gar nicht schlecht, dass ich auch mal eine Klausur nicht bestanden habe. Mein Umgang damit war zunächst alles andere als gelassen. Für die Zukunft denke ich, dass ich an meiner Fähigkeit arbeiten muss, Rückschläge zu verdauen und mich bei eigenen Fehlern nicht gleich in Frage zu stellen. Das Phänomen, aus dem "kognitiven Tunnel" nicht mehr herauszufinden, ist auf jeden Fall Aufmerksamkeit und Reflexion wert. So etwas könnte ja auch in anderen Zusammenhängen passieren. Die nächste Chance, es besser zu machen, kommt Mitte März.
  13. kurtchen
    Das Modul "Präsentieren & Moderieren" wird in den IT-Studiengängen von Springer Campus dem Wahlkatalog 1 "Basiskompetenz Beruf" zugeordnet. Es gehört damit zu den Soft Skill-Modulen dieser Studiengänge. Andere Module aus diesem Katalog sind "Selbst- und Zeitmanagement", "Kreativitätstechniken", "Rhetorik" und "Soziale Kompetenz". Auch das Modul "Wissenschaftliches Arbeiten" gehörte in diese Gruppe, es ist aber inzwischen ein Pflichtmodul. Angehende Web- und Medieninformatiker wählen ein Soft Skill-Modul, die Wirtschaftsinformatiker zwei. Zu den Modulen "Rhetorik" und "Präsentieren & Moderieren" gehört aus naheliegenden Gründen eine mündliche Prüfung. Die Klausur fällt dafür nur einstündig aus.
     
    Normalerweise wählt man diese Module ganz zu Beginn des Studiums. Ich war mir unsicher, was ich hier belegen sollte, weil ich viele Themen interessant fand. Lediglich das Modul zu den Kreativitätstechniken hätte ich nicht belegen wollen, weil ich hier - bedingt durch meine Ausbildung - schon relativ viel kannte. Für das Modul Präsentieren habe ich mich entschieden, weil ich annahm, es sei eine gute Vorbereitung für die Präsentation der Bachelorarbeit. Die Entscheidung fiel gegenüber Rhetorik sehr knapp aus. Den Ausschlag für Präsentieren gab dann das Thema Umgang mit Präsentationsmedien, das im Modul Präsentieren natürlich stärker ausgeprägt ist. Rhetorik konzentriert sich stärker auf den mündlichen Vortrag und die Argumentation.
     
    Wer das Hochschulzertifikat "Requirements-Engineer" oder "Software-Manager" erwerben will, muss Präsentieren belegen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Moderieren, Präsentieren, Faszinieren" ist von Petra Motte. Es hat an die 300 Seiten und enthält viele Abbildungen, insbesondere in den Kapiteln zum Umgang mit Präsentationsmedien. Der Schreibstil unterscheidet sich natürlich deutlich von einem Informatik-Lehrbuch. Aber auch im Vergleich zum Modul Wissenschaftliches Arbeiten merkt man hier, dass man im Bereich der Soft Skills ist. Präsentation und Moderation haben viel mit der Person des Moderators zu tun, mit seiner Haltung, seiner Persönlichkeit, seinem Auftreten. Im wissenschaftlichen Arbeiten geht es stärker um etablierte Konventionen und Regeln. Das wirkt im Vergleich "faktisch". Beim Präsentieren geht es stärker darum, seine Persönlichkeit einzubringen, mit eigenen Stärken und Schwächen zu arbeiten. Das Buch ist daher im Vergleich zu einem Informatik-Lehrbuch eher in einem Tonfall verfasst, der den Leser persönlicher anspricht. Es zeigt eher Wege und Möglichkeiten auf als eine Handlungsanweisung vorzulegen.
     
    Deutlich wird dies zum Beispiel im Kapitel 3, in dem es um die Person des Moderators geht. Anhand von Photos (oder auf der Lernplattform auch kleinen Videos), werden Aspekte wie Körpersprache, Mimik und Gestik behandelt. Das Thema Umgang mit Lampenfieber spielt eine Rolle. Im Vergleich dazu geht es im Modul Wissenschaftliches Arbeiten stärker um das fachliche und die sachgerechte Aufbereitung der Inhalte. Hier steht mehr im Mittelpunkt, dass die Inhalte durch die Person des Präsentierenden zur Geltung kommen. Darum ist es sinnvoll, sich auch mit sich selbst und seiner eigenen Wirkung zu befassen.
     
    Im Kapitel 4 geht es um die Vorbereitung und Gliederung einer Präsentation. Hier geht es vor allem um einen gelungenen Spannungsbogen, der das Publikum weder über- noch unterfordert. Auch Themen wie Zeitmanagement und Umgang mit Störungen spielen eine Rolle. Die Perspektive ist stärker didaktisch. Im Vergleich zum Modul Wissenschaftliches Arbeiten wird hier stärker dem Umstand Rechnung getragen, dass Zuhörer eine begrenzte Aufnahmekapazität und Aufmerksamkeit haben. Sie können aus einem Vortrag aussteigen, wenn sie sich langweilen, ermüden oder sich überfordert fühlen. Diese Aspekte waren im Modul Wissenschaftliches Arbeiten weniger präsent als hier.
     
    Das recht ausführliche Kapitel 5 widmet sich den verschiedenen Präsentationsmedien. Nicht überraschend beginnt es mit der Bildschirmpräsenation oder dem, was man einen Beamer-Vortrag nennt. Hier geht es freilich nicht um konkrete Software-Produkte oder dem Umgang damit, auch wenn der Name PowerPoint fällt. Vielmehr geht es darum, die Vorzüge und Nachteile verschiedener Medien zu kennen und gegeneinander abzuwägen, um für jede Situation das geeignete Medium wählen zu können.
     
    Auch der vermeindlich altmodische Overhead-Projektor kommt vor, z.B. wegen der Möglichkeit Folien während des Vortrages zu bearbeiten. So etwas ist zwar heute auch mit digitalen Hilfsmitteln möglich, aber die Arbeit mit den Folienstiften hat eine hohe Unmittelbarkeit und ermöglicht zum Beispiel auch, Teilnehmer einzubeziehen, die im Umgang mit digitalen Medien wenig versiert und gehemmt sind.
     
    Noch unmittelbarer ist die Moderation mit einer Flipchart. Auch sie ermöglicht eine direkte Einbeziehung und Interaktion mit Teilnehmern, eignet sich allerdings eher für kleinere Gruppen. Mit dem Medium Whiteboard ist im Kapitel noch nicht das sogenannte interaktive Whiteboard sondern tatsächlich die weiße Tafel gemeint, die ebenfalls mit Folienstiften bemalt und mit Zetteln beklebt werden kann. Sie ist eher als Nachfolger der klassischen Kreidetafel zu sehen. Schließlich geht es um die Pinwand-Moderation, die ebenfalls viele Möglichkeiten zum aktiven Mitmachen und zur Arbeit in Kleingruppen bietet.
     
    Im Verlauf des Kapitels wird auch langsam ein Bogen zu Arbeitsformen geschlagen, bei denen nicht mehr der Vortrag des Moderators sondern die Beiträge der Teilnehmer im Mittelpunkt stehen. Auch wenn die mündliche Prüfung in diesem Modul ein Vortrag ist, hat es mir gut gefallen, dass hier interaktive Arbeitsformen mit Gruppen betont wurden, denn schließlich halten Informatiker nicht nur Fachvorträge.
     
    Das Kapitel 5 betont interaktive Methoden in der Moderation. Hier geht es um den Einsatz von Mind Maps, um Methoden des Brainstormings und Brainwritings und die Moderationsformen Open Space, World Café und Zukunftswerkstatt. Open Space ermöglicht es zum Beispiel, mit sehr großen Gruppen in einer Weise zu arbeiten, die den Austausch untereinander und das Sammeln fachlicher Beiträge der Teilnehmer unterstützt. Hier geht es nicht mehr darum, dass der Moderator als Wissender seinem Publikum Informationen vermittelt. Er soll vielmehr einen Austausch in Gang bringen, in dem die Teilnehmer ihr eigenes Wissen teilen und miteinander in Kommunikation kommen. Die Teilnehmer werden also eher zu Teilgebern. Sie und nicht der Moderator präsentieren Ergebnisse ihrer Arbeit in Kleingruppen.
     
    Im Rahmen dieses Kapitels kommt dann auch das sogenannte interaktive Whiteboard zur Sprache, dass ja mit großem finanziellen Aufwand an immer mehr Schulen Einzug hält. Ichpersönlich störe mich ein wenig an dem Begriff, weil er mir zu implizieren scheint, das klassische Whiteboard sei nicht interaktiv gewesen. Ein hohes Maß an Publikumsbeteiligung erreicht man nicht allein durch ein bestimmtes Medium sondern in erster Linie durch die Arbeitsform. Hier bieten klassische analoge Medien noch immer viele Vorteile, weil sie unmittelbar zu benutzen sind. Gerade für Menschen, die mit digitalen Medien weniger Erfahrung haben, sind sie "niedrigschwellig".
     
    Das letzte Kapitel wagt einen Blick in die Zukunft der Moderation. Hier geht es auch um eine wahrgenommenen Veränderung in der Rolle des Moderators, der heute stärker die Selbstlernkräfte seiner Teilnehmer aktivieren soll. Um Raum für Beiträge der Teilnehmer zu schaffen, muss der Moderator sich selbst stärker zurücknehmen.
     
    Tests und Aufgaben
     
    Die Einsendeaufgaben fordern einen in diesem Modul natürlich anders als in anderen Modulen im Informatikstudium, wo vor allem abstraktes Denken und Logik gefragt sind. Hier geht es eher ums Abwägen oder darum, sich in Situationen einzufühlen, Möglichkeiten und Wege zu skizzieren. Für mich war das eine willkommene Abwechslung, vor allem im Kontrast zum Modul "Text Mining", welches das abstrakte Denken sehr forderte. Insofern kann ich empfehlen, so ein Soft Skill-Modul mit einem als sehr schwierig empfundenen Modul zu kombinieren. Man zehrt dann beim Lernen von unterschiedlichen Ressourcen. So kommt man gut voran.
     
    Die Rückmeldungen meiner Tutorin kamen schnell. In diesem Modul wurde ich auch mal telefonisch betreut, weil ich eine Frage hatte, die auf diesem Wege besser zu klären war. Betreut wurde ich von der Autorin des Buches, der man anmerkt, dass sie für ihr Thema und ihren Beruf brennt.
     
    Klausur und mündliche Prüfung
     
    Schrifliche Einsendeaufgaben eignen sich bei diesem Modul natürlich nur bedingt zur Kontrolle des eigenen Lernerfolges. Als entscheidenden Baustein empfand ich darum die mündliche Prüfung. Hier ist ein (Beamer-)Vortrag zu einem Thema auszuarbeiten, dass mit Informatik nichts zu tun haben muss. Ich hatte z.B. ein Thema, bei dem es um die deutsche Sprache ging. Aus Gesprächen mit Kommilitonen weiß ich, dass die Themen oft beinhalten, eine eher offene Fragestellung zu beantworten, eine eigene Position zu einem Thema zu finden und argumentativ zu vertreten.
     
    Im Gegensatz zum Modul Wissenschaftliches Arbeiten reicht man hier keine Vorschläge ein. Man bekommt das Thema zwei Wochen vor der Prüfung vom Studienbüro. Es ist also ein "Überraschungei". Ich war ganz zufrieden mit dem, was ich bekommen habe.
     
    Für mich war es schön, mal zu einem ganz anderen Thema zu recherchieren. Und mir zu überlegen, wie ich das in begrenzter Zeit rüberbringe. Im Gegensatz zum Modul Wissenschaftliches Arbeiten, bei dem formale Korrektheit eine große Rolle spielt, geht es hier stärker darum, die Sache ein bisschen interaktiv zu gestalten. Für mich war jedenfalls die mündliche Prüfung die Messlatte dafür, ob ich aus dem Modul etwas mitgenommen haben. Mir hat es großen Spaß gemacht.
     
    Die Klausur dauert in diesem Modul nur eine Stunde. Sie war absolut fair gestellt. Leider war mir neben der Vorbereitung der mündlichen Prüfung und dem Lernen für Text Mining kaum Zeit geblieben, den Stoff des Lehrbuches in diesem Modul zu wiederholen. Das habe ich ein bisschen zu spüren bekommen. Mal sehen, wie sich das auswirken wird.
     
    Klausur und mündliche Prüfung gehen gleichermaßen in die Endnote ein. Das Ergebnis der mündlichen Prüfung erfährt man unmittelbar danach. Das ist auch schön, Feedback einmal so unmittelbar zu bekommen. Ich habe daraus noch ein paar Anhaltspunkte für die Präsentation meiner Bachelorarbeit mitgenommen, die ja nächstes Jahr fällig wird.
     
    Die mündliche Prüfung in diesem Modul erfordert allerdings auch viel Vorbereitungszeit. Man muss ziemlich schnell ein Thema recherchieren, das mit dem Studium und dem Modul nicht viel zu tun hat. Auch die Vorbereitung der Folien kostet Zeit. Schließlich möchte man üben, ob man mit der Zeit auskommen wird. Ich hätte rückblickend betrachtet die Klausur zu diesem Modul vielleicht eher auf den nächsten Termin schieben sollen, um mich voll auf eine Sache konzentrieren zu können. Vielleicht wollte ich diesmal zu viel auf einmal.
     
    Zu den mündlichen Prüfungen ist noch zu sagen, dass sie nur in Dortmund stattfinden. Es gibt zu jedem Prüfungstermin drei Slots am Vormittag. Mündliche Prüfungen müssen etwas früher angemeldet werden als schriftliche, weil der organisatorische Aufwand höher ist. Die Details dazu stehen in jeder Einladung zum Prüfungstag, die man als Studierender per E-Mail bekommt.
     
    Fazit
     
    Ich glaube schon, dass das Modul Präsentieren mir für die Verteidigung der Bachelorarbeit im nächsten Jahr noch einmal etwas bringen wird. Das war für mich ein Grund, es zu belegen. Es bisschen wehmütig bin ich auch, denn Rhetorik hätte mich schon auch interessiert. Der Schwerpunkt lag hier stärker auf dem Umgang mit Medien und auf interaktiven Arbeitsformen mit Gruppen. Im Modul Rhetorik spielt das Argumentieren anscheinend eine größere Rolle. Auch interessant! Aber man kann nicht alles machen.
     
    Allmählich wird es übersichtlich. Im Januar möchte ich noch die Module "IT-Projektmanagement" und "Electronic Business" abschließen. Die Klausuren möchte ich voraussichtlich in Heidelberg schreiben. Dann steht die Bachelorarbeit an. Insgesamt muss ich also nur noch einmal nach Dortmund reisen. (Vielleicht ein zweites Mal, um den nächsten Präsenztag mitzunehmen.) Schade, dass Springer Campus keinen Master anbietet, der an diesen Bachelor anschließt, denn die Anbindung an die staatliche FH Dortmund gefällt mir sehr.
  14. kurtchen
    Das Modul "Text Minining" kann in den Studiengängen von Springer Campus im Vertiefungsbereich (also als Wahlpflichtfach) belegt werden. Es ist auch Teil des Hochschulzertifikates "Junior-Data-Analyst". Um dieses Zertifkat zu erlangen, muss man allerdings auch eine Projektarbeit mit dem inhaltlichen Schwerpunkt Datenanalyse schreiben.
     
    Ich hatte mich für dieses Modul entschieden, weil ich auch Data Mining belegt hatte. Der Schwerpunkt dieses Moduls lag stark auf der Anwendung von Data Mining Techniken in einem betrieblichen Kontext. Es war also eher aus der Perspektive der Wirtschaftsinformatik geschrieben. Mich hätte mehr interessiert, wie die verschiedenen Techniken zur Wissensextraktion mathematisch und algorithmisch funktionieren. Das spielte eine vergleichsweise geringe Rolle. Die Beschreibung des Moduls "Text Mining" ließ erwarten, dass der Schwerpunkt hier anders gelegt sein würde; nämlich auf Mathematik, Statistik und Algorithmen. Insofern hoffte ich, in diesem Modul das zu finden, was ich eigentlich im Modul "Data Mining" gesucht hatte. Ich wurde nicht enttäuscht.
     
    Wer dieses Modul im Wahlpflichtbereich belegen möchte, sollte wissen, dass es inhaltlich zu den anspruchsvollsten Modulen im Studiengang gehört. Das Modul "Statistik" wird als fachliche Voraussetzung genannt. Das finde ich nachvollziehbar. In diesem Modul spielen auch einige Inhalte aus dem ersten Mathematik-Modul eine Rolle: Mengen, Relationen und Graphen. Das Modul ist recht mathematisch. Wer nach seiner letzten Mathe-Klausur froh war, keine Formeln mehr lesen zu müssen, sollte um dieses Modul eher einen Bogen machen. In der Beschreibung heißt es, das Modul "Data Mining" erlaube es, Querbezüge herzustellen. Das trifft es recht gut. Wer die hier beschriebenen Verfahren begriffen hat, kann sich gut vorstellen, wie man vergleichbares mit den strukturierten und halbstrukturierten Daten in Datenbanken machen kann. Für mich hat daher das Modul "Text Mining" einige der Inhalte aus Data Mining noch einmal neu "zum Leben erweckt".
     
    Beim Thema Text Mining berühren sich Informatik, Mathematik, Statistik und die Geisteswissenschaften. Gerade letzteres könnte für manchen Informatik-Studenten herausfordernd sein. So lässt es sich beispielsweise nicht vermeiden, ein wenig linguistische Terminologie zu lernen. Begriffe wie Phonem, Graphem, Morphem, Flexiv, Derivativ oder Allomorphe muss man sich erschließen, wenn sie aus Schulzeiten nicht mehr geläufig sein sollten. Beim Thema Text Mining muss der Informatiker den Geisteswissenschaften ein Stück weit entgegenkommen. Es ist sehr interessant, wie Informatik und Sprachwissenschaft sich gegenseitig fachlich bereichern können. In diesem Bereich tut sich gerade einiges. So bezeichnet der Begriff "digital humanities" die Nutzung computergestützter Verfahren und digitaler Wissensressourcen in den Geisteswissenschaften. Solche digitalen Ressourcen sind zum Beispiel die großen Mengen natürlichsprachlicher Texte im Internet.
     
    Das Lehrbuch
     
    Das Lehrbuch "Text Mining: Wissensrohstoff Text" von Gerhard Heyer, Uwe Qualsthoff und Thomas Wittig hat an die 350 Seiten. Mir liegt der 3. Nachdruck vom Mai 2016 vor. Ursprünglich erschienen ist es 2006. Nun könnte man meinen, das sei für ein Lehrbuch im Bereich Informatik ein stattliches Alter. Man muss sich aber klarmachen, dass es hier nicht um konkrete Implementierungen und Technologien geht, die schnell wieder aus der Mode kommen. Das Buch beschäftigt sich mit Konzepten, Methoden und Algorithmen. Solches Wissen hat eine deutlich höhere Halbwertszeit. Insofern bin ich bei diesem Modul nicht der Meinung, eine inhaltliche Aktualisierung sei nötig. In der Lernplattform und bei den Einsendeaufgaben wird allerdings manchmal auf Online-Ressourcen verwiesen, die in dieser Form nicht mehr existieren. Eine Bearbeitung der Aufgaben ist trotzdem möglich, aber hier wäre eine Aktualisierung sicher benutzerfreundlicher.
     
    Das Thema Text Mining ist komplex. Man braucht viele Konzepte, Begriffe und Verfahren, die wechselseitig stark voneinander abhängen. Daraus ergibt sich die Schwierigkeit, in welcher Reihenfolge man die Inhalte präsentiert. Es lässt sich bei diesem Thema nicht vermeiden, manche Themen mehrfach anzusprechen, weil man ein erstes Verständnis braucht, um sich weitere Konzepte zu erschließen, die dann erst ein vertieftes Verständnis der ersten Themen ermöglichen. So ist es auch in diesem Buch. Immer wieder tauchen Themen aus früheren Kapiteln auf und erscheinen nun in neuem Licht. Diese didaktischen Schleifen sind nötig, weil man den Stoff nicht im ersten Anlauf begreifen kann.
     
    Das Einführende Kapitel "Wissen und Text" gibt auch einen kleinen historischen Rückblick über die automatische Wissensverarbeitung. Hier geht es u.a. um den Ansatz der Expertensysteme, der auf Logik, Fakten und Regeln basierte (Klassische KI). Dieser Ansatz erwies sich als nicht so fruchtbar, wie ursprünglich erhofft. Expertensysteme blieben Insellösungen, die über eine gewisse Komplexität nicht hinaus kamen. Außerdem war ein hoher Aufwand zur Wissenserschließung nötig. Text Mining beschäftigt sich mit der (halb-)automatischen Erschließung von Wissen aus unstrukturiertem Text und bietet somit neue Lösungsansätze.
     
    Im Kapitel "Grundlagen der Bedeutungsanalyse" berühren sich Linguistik und Statistik. Es geht um drei sehr grundlegende Begriffe, die für das Verständnis des gesamten Moduls essentiell sind:
    syntagmatische Relationen paradigmatische Relationen semantische Relationen  
    Vereinfacht gesagt, bezeichnet die syntagmatische Relation das gemeinsame Auftreten zweier Wortformen in einem Satz. Im vorhergehenden Satz stehen also die Wortformen "Satz" und "Auftreten" in syntagmatischer Relation. Das alleine hilft aber nicht weiter. Interessanter ist die statistisch-signifikante syntagmatische Relation. Hierzu betrachtet man die relativen Häufigkeiten einzelner Wortformen im Korpus. Auf dieser Grundlage bestimmt man die Wahrscheinlichkeit dafür, dass zwei Wortformen in einem zufällig zusammengestellten Satz vorkommen. Interessant sind nun Paare von Wortformen, die im Korpus wesentlich häufiger in syntagmatischer Relation stehen, als dies statistisch zu erwarten gewesen wäre. Der Grund ist oft, dass es einen Bedeutungszusammenhang zwischen den Wortformen gibt. So werden zum Beispiel die Wörter Butter und Brot häufiger gemeinsam auftreten als etwa Butter und Schraube.
     
    Der betrachtete Ausschnitt muss nicht immer ein Satz sein. Für viele Anwendungen ist es interessant, benachbarte Wörter zu betrachten. Wörter die statistisch häufig gemeinsam auftreten, bezeichnet man als Kookkurrenzen. Das Finden von Kookkurrenzen ist die Grundlage der Bedeutungsanalyse.
     
    Die paradigmatische Relation hat einen höheren Abstraktionsgrad. Hierfür betrachtet man den globalen Kontext einer Wortform. Das ist einfach die Menge ihrer signifikanten Kookkurrenzen. So könnte z.B. ein Wort wie Brot Kookkurrenzen wie Butter, Marmelade, Bäcker, Wurst und Honig haben. Das Wort Semmel könnte ähnliche oder die gleichen Kookkurrenzen haben. Die Kookkurrenzen sind also Mengen von Wörtern. Man vergleicht nun für Paare von Wörtern diese Wortmengen mittels eines Ähnlichkeitsmaßes. Sind die Kookkurrenzen ähnlich, so sagt man, die Wörter stehen in paradigmatischer Relation. Dies dürfte bei Brot und Semmel der Fall sein. Man sucht also Wörter, die in ähnlichen Kontexten verwendet werden. Dies ist für die Bedeutungsanalyse sehr fruchtbar.
     
    Semantische Relationen findet man, indem man die globalen Kontexte vor Bestimmung der Ähnlichkeit nach verschiedenen Kriterien filtert. Auf diese Weise findet man Zusammenhänge wie Kategorie, Funktion, Maßeinheit, Qualifizierung oder Ersetzungsklassen von Wörtern. Logische Relationen sind besonders trennscharf. Sie erlauben das Ziehen von Schlüssen. Dazu gehören z.B. Ober- und Unterbegriffe oder Gegensatzpaare.
     
    Interessant ist hierbei, dass Logik aus der Perspektive der Bedeutungsanalyse nicht als grundlegend erscheint. Grundlegend sind die statistisch-signifikanten syntagmatischen Relationen, also das auffällig häufige gemeinsame Auftreten von Wortformen. Logische Relationen erscheinen erst auf relativ hohen Abstraktionsstufen (sozusagen als emergente Eigenschaft). Dies ist ein wichtiger Unterschied zu den klassischen Expertensystemen, bei denen die Logik grundlegend war. Mit der Bedeutungsanalyse lassen sich logische Beziehungen zwischen Begriffen durch statistische Verfahren extrahieren.
     
    Im Kapitel "Textdatenbanken" geht es um Datenstrukturen, die sich für die Verarbeitung sehr großer Mengen natürlich-sprachlicher Texte eignen. Diese sollen einerseits platzsparend sein, andererseits einen sehr schnellen Zugriff erlauben. So soll es beispielsweise möglich sein, bei einem Korpus aus hunderten Millionen Wörtern schnell zu überprüfen, ob ein bestimmtes Wort enthalten ist. Eine Datenstruktur, die sich dafür gut eignet, sind sogenannte Tries. Sie sind letztlich Baumstrukturen, wobei jeder Knoten für einen Buchstaben eines Wortes steht. Das interessante an einem Trie ist, dass die Zugriffszeit nicht von der Anzahl der enthaltenen Wortformen sondern allein von der Länge des gesuchten Wortes abhängt.
     
    Auch die Herausforderungen der Segmentierung von Texten sind ein Thema dieses Kapitels. So könnte man meinen, das Ende eines Satzes lasse sich leicht finden, weil deutsche Sätze auf einen Punkt enden. Denkt man einen Moment darüber nach, merkt man, dass die Sache wesentlich komplizierter ist. Nicht jeder Satz endet mit einem Punkt. Nicht jeder Punkt markiert das Ende eines Satzes. Zum Beispiel kann ein Algorithmus leicht eine Abkürzung mit einem Satzende verwechseln. Auch die Identifikation einzelner Wortformen kann durch zahlreiche Sonderfälle erheblich verkompliziert werden.
     
    Im Kapitel "Sprachstatistik" geht es zunächst um die Zipfschen Gesetze. Diese erlauben z.B., die Anzahl der verschiedenen Wortformen eines Textes relativ gut zu schätzen, wenn seine Länge und seine Sprache bekannt sind. Sehr wichtig für das Verständnis der folgenden Kapitel ist der Abschnitt zur Differenzanalyse. Diese beruht auf dem Vergleich einer Textsammlung allgemeinsprachlicher Texte (dem Referenzkorpus) mit einer Sammlung bestimmter Texte (Analysekorpus). Die bestimmten Texte könnten zum Beispiel Zeitungsartikel eines bestimmten Themenbereiches sein. Die Differenzanalyse sucht mit statistischen Methoden nach Wortformen im Analysekorpus, die wesentlich häufiger auftreten als im Referenzkorpus. Dies ist ein Hinweis darauf, dass diese Wortformen für den Text oder die Textgattung in besonderer Weise bedeutungstragend sind. Dies ist zum Beispiel eine Grundlage für die automatische Beschlagwortung von Texten.
     
    Relativ anspruchsvoll sind die Abschnitte zum probabilistischen Sprachmodell. Hier geht es um Hidden-Markov-Modelle. Sie sind endliche Automaten, deren Zustandsübergänge mit Wahrscheinlichkeiten versehen sind. Hidden-Markov-Modelle (HMMs) kann man vielfältig einsetzen, zum Beispiel in der Spracherkennung. HMMs können nämlich mehrdeutige Fälle durch Auswertung des Kontextes auflösen. Sie können z.B. entscheiden, welches von mehreren gleich oder ähnlich klingenden Wörtern gemeint ist.
     
    Spannend sind die Verfahren zur Visualisierung von Kookkurrenzen mit Graphen. Um Begriffe herum erscheinen Wortwolken mit Begriffen, die in einem inhaltlichen Zusammenhang stehen. Bei manchen Begriffen sind diese Wortwolken zusammenhängend. Bei anderen zerfallen sie in Cluster. Das sind dann oft mehrdeutige Begriffe. Ein Beispiel wäre der Begriff Maus. Er ist umgeben von einem Cluster aus Wortformen, die mit der Bedeutung Nagetier zusammenhängen. Ein weiterer Cluster steht für die Bedeutung Eingabegerät.
     
    Im Kapitel "Clustering" geht es um die entsprechenden Algorithmen. Gerade hier kann man vieles auf die Inhalte des Moduls "Data Mining" übertragen. Im Text Mining verwendet man Clustering-Algorithmen, um z.B. Dokumente mit ähnlichem Inhalt zu gruppieren. Es ist faszinierend, dass so etwas allein auf der Grundlage von Kokkurrenzen und Differenzanalyse möglich ist.
     
    Im Kapitel "Musteranalyse" geht es reguläre Ausdrücke, die ja jedem Informatiker geläufig sind. Diese eignen sich gut, um aus Texten bestimmte Informationen mit vergleichsweise geringem Aufwand zu extrahieren. Die Suche nach Morphem-Mustern eignet sich dagegen zur automatischen Extraktion von Fachbegriffen eines Fachgebietes.
     
    Die letzten beiden Kapitel beschäftigen sich mit "Hybriden Verfahren" und "Beispielanwendungen". Insbesondere im letzten Kapitel werden viele Inhalte aus den vorangegangenen Kapiteln im Anwendungskontext noch einmal präsentiert. Nicht zu vernachlässigen sind in diesem Modul die Anhänge, die z.B. linguistische Begriffe klären oder Stoff aus dem Modul Statistik wiederholen.
     
    Tests und Aufgaben
     
    Dass die Inhalte anspruchsvoll sind, merkte ich bei diesem Modul auch bei den Tests und Einsendeaufgaben. Selten gelang es mir, die Tests auf Anhieb richtig zu lösen. Gut war, dass die meisten relativ umfangreiche Kommentare enthielten, so dass man erklärt bekam, warum etwas falsch war. Das half ungemein. Es empfiehlt sich, die gleichen Tests nach ein paar Tagen zu wiederholen, um zu schauen, ob man den Stoff verinnerlicht hat.
     
    Bei allen Aufgaben dieses Moduls habe ich deutlich länger für die Bearbeitung gebraucht als angegeben. In vielen Aufgaben geht es darum, zu erklären, wie bestimmte Verfahren und Anwendungen des Text Minings funktionieren. Es geht um Methoden und Algorithmen. Ich musste die Kapitel schon sehr gründlich durcharbeiten, um den Stoff gut genug zu verstehen.
    Die Implementierung der Verfahren in einer konkreten Programmiersprache spielte im Modul dagegen keine Rolle. Das ist kein Kurs für Leute, die mal wieder etwas programmieren wollen. Es geht allerdings durchaus darum, bestimmte Algorithmen so gut zu verstehen, dass man sie implementieren könnte. Ich habe jetzt z.B. eine ganz gute Vorstellung davon, wie Clustering funktioniert. Das schöne daran ist: Wenn man das verstanden hat, könnte man alles mögliche clustern, nicht bloß Texte oder Wortformen. Das Modul hat für mich so ein paar Wünsche erfüllt, die mir im Modul zu Algorithmen und Datenstrukturen offen geblieben sind.
     
    Klausur
     
    Bei der Online-Klausur habe ich leider gemerkt, dass ich die Aufgaben zwar prinzipiell hätte lösen können, allerdings nicht in der zur Verfügung stehenden Zeit. Dazu hätte man die Konzepte und Methoden schon sehr verinnerlichen müssen, um Lösungen praktisch ohne Nachdenken hinschreiben zu können. Das lief bei mir eher mittelprächtig, weswegen ich der Präsenzklausur mit Sorge entgegen sah.
     
    Die Präsenzklausur war dann einfacher als gedacht. Aber das ist kein Modul, das man nebenbei macht. Es ist nötig, alle Einsendeaufgaben gründlich zu bearbeiten. Und man sollte das Feedback seines Tutors nutzen, um fachliche Lücken zu schließen.
     
    Die Rückmeldungen meines Tutors waren in diesem Modul z.T. recht umfangreich, was mir bei diesem Thema auch sehr geholfen hat. Nachdem mir in der Online-Klausur die Zeit davongelaufen war, bekam ich auch ein paar Hinweise, wie ich schneller werden könnte. Ich habe versucht, dass in der Präsenzklausur zu beherzigen und hoffe, dass ich etwas davon umsetzen konnte. Auf das Ergebnis warte ich noch.
     
    Fazit
     
    Dieses Modul hat mich leider sehr lange beschäftigt. Gebucht hatte ich es schon Anfang 2017. Ich hatte angenommen, das irgendwann "zwischendrin" zu bearbeiten. Aber es war zu anspruchsvoll, um es nebenbei zu schaffen. Ich habe dann zunächst geschaut, dass ich Pflichtmodule abarbeite. Dann hielt mich meine Projektarbeit auf Trab. Nach dem Sommer war ich ein bisschen genervt, dass ich Text Mining noch immer nicht abgeschlossen hatte. Ich hatte das Lehrbuch schon zwei Mal zu zwei Dritteln gelesen, hatte es aber immer wieder abbrechen müssen. Um das Modul fertig zu kriegen, musste ich nun abermals von vorne anfangen. Hilfreich war dabei, dass ich Text Mining mit dem Modul "Präsentieren" kombiniert habe, dass mich auf eine ganz andere Weise forderte. Noch mehr abstraktes Denken hätte ich parallel zu Text Mining nicht geschafft.
     
    Man kann also sagen, dass Text Mining für mich ein anstrengendes Modul war. Es war allerdings auch ein Modul, dass ich inhaltlich unheimlich interessant fand. Gerade weil es fachlich zwischen Informatik, Statistik und Sprachwissenschaft angesiedelt ist, was die Sache natürlich auch schwierig macht. Im Wahlpflichtbereich gibt es leichtere Optionen. Andererseits meine ich, dass die Module "Data Mining" und "Business Intelligence" erst mit diesem Modul "komplett" sind, weil eben hier die mathematische und algorithmische Perspektive betont wird. Das Modul ist klar für Studierende, die sich im Wahlpflichtbereich ein bisschen fordern wollen.
     
    Aktuell warten nur noch zwei gebuchte Module auf mich - IT-Projektmanagement und Electronic Business. In beide habe ich schon reingeschnuppert. Ich hoffe, diese beiden Module im Januar abschließen zu können. Danach sollte nur noch die Bachelorarbeit vor mir liegen.
  15. kurtchen
    14 Uhr - Vorlesung: "Smarte Gegenstände, hybride Produkte, disruptive Geschäftsmodelle, neue Arbeitsformen, Always on-Gesellschaft - wie Vernetzung und Digitalisierung Wirtschaft, Verwaltung und Gesellschaft verändern", Prof. Dr. Uschi Gröner, FH Dortmund
     
    Die letzte Vorlesung des Tages hielt Prof. Dr. Uschi Gröner vom Fachbereich Wirtschaft der FH Dortmund. Sie lehrt Betriebsinformatik und verteilte Informationssysteme. Da am Ende des Präsenztages meine Aufmerksamkeit schon etwas nachließ, waren meine Notizen dazu nicht mehr so detailliert. Insofern kann ich über ihren Vortrag nur skizzenhaft berichten.
     
    Ist-Zustand
     
    Frau Gröner begann mit einer Analyse des Ist-Zustandes. 81% der Bevölkerung sind Online. Das bedeutet im Umkehrschluss, dass immerhin noch 19% - also fast ein Fünftel der Bevölkerung - "Offliner" sind. 15-16 Millionen Deutsche sind NICHT im Internet. 94% davon sind älter als 50. Frauen stellen in dieser Gruppe die Mehrheit.
     
    Wie nimmt man diese Gruppe mit? Diese Frage ist relevant, denn gerade Führungskräfte sind oft ältere Mitarbeiter. Startups haben dagegen meist junge Mitarbeiter. Es fehlt oft an Kompetenzen, ältere Mitarbeiter und solche, die nicht so technikaffin sind, in Übergänge einzubinden.
     
    Weltweit sind ca. 4 Milliarden Menschen online. Wir befinden uns in der Phase der 4. industriellen Revolution. Wie sind wir dorthin gelangt?
     
    Blick zurück
     
    Frau Gröner lieferte einen knappen historischen Rückblick über die bisherigen 3 industriellen Revolutionen. (Im Modul "Electronic Business" wird dieses Thema ausführlicher behandelt.) Einen guten Überblick liefert in diesem Zusammenhang eine Timeline zur Geschichte der Digitalisierung, die man unter www.swisscom.ch finden kann.
     
    1. Industrielle Revolution
     
    Sie begann um 1784 mit der Nutzung von Wasser und Dampfkraft und war gekennzeichnet durch mechanische Produktionsanlagen, die harte körperliche Arbeit ersetzten. In diese Ära fallen auch Innovationen wie die Eisenbahn und der Photoapparat. (Die Eisenbahn eröffnet z.B. die Möglichkeit, auch weiter entfernte Märkte zügig zu beliefern.)
     
    2. Industrielle Revolution
     
    Sie begann um 1870 und ist gekennzeichnet durch die Nutzung elektrischer Energie, künstliches Licht (das z.B. Produktion rund um die Uhr ermöglichte), das Fließband, die Erfindung des Telefons. Es war die Ära der arbeitsteiligen Massenproduktion. Frau Gröner empfahl in diesem Zusammenhang den Spielfilm-Klassiker "Moderne Zeiten" von Charlie Chaplin. Er zeigt und parodiert die monotone Arbeit dieser Zeit.
     
    3. Industrielle Revolution
     
    Sie begann um 1969. Es ist die Ära der speicherprogrammierten Steuerung und der Miniaturisierung von Technik. Dies ermöglichte automatisierte Produktion durch elektronische Steuerung. In diese Phase fallen Innovationen wie E-Mail, Mikrosystemtechnik, Mikroprozessoren oder RFID. Durch Software können immer mehr Arbeitsprozesse automatisiert werden, z.B. im Rechnungswesen. Unternehmenskennzahlen sind erstmals zeitnah verfügbar. Vorher war der Jahresabschluss eines Vorjahres oft erst im August fertig. Auch das World Wide Web, GPS, Mobilfunk oder Skype werden dieser Epoche zugerechnet.
     
    4. Industrielle Revolution
     
    Sie findet gerade statt und ist gekennzeichnet durch die Verschmelzung von virtueller und realer Welt. Alles ist mit allem vernetzt. Es ist eine Ära der Sensorik und Robotik und der weltweiten Vernetzung von intelligenten Gegenständen (Internet of things, IOT). Menschen und Geräte sind "always on". Durch die Vernetzung aller Dienste entsteht Big Data. Intelligente Algorithmen übernehmen zunehmend Denkarbeit. Nutzer haben nicht nur Smartphones sondern zunehmend Smart Things.
     
    Konsequenzen von "always on"
     
    Der Mensch und seine Wünsche stehen im Mittelpunkt. Internetbasierte Dienste bieten ihren Nutzern enormen Komfort und enorme Preistransparenz. Nutzer erwarten, alles sofort und zum bestmöglichen Preis zu bekommen. Sie wollen personalisiert angesprochen werden (also z.B. nur Angebote bekommen, die für ihre Präferenzen und Bedürfnisse relevant sind).
     
    Interessant in diesem Zusammenhang ist die Infografik "60 Sekunden im Internet" auf de.statista.com.
     
    An dieser Stelle thematisierte Frau Gröner einen Widerspruch: Die oben erwähnten Erwartungen an schnelle und günstige Bedürfnisbefriedigung stehen im Widerspruch zu unserem Wunsch, nicht transparent zu werden. Dafür müssten wir allerdings lernen, bestimmte Dinge nicht mehr zu tun, oder darauf verzichten, bestimmte Dienste zu nutzen. Als Beispiel nannte sie Fitness-Tracker, die Bewegungsprofile erfassen. Selbstverständlich könnte man sich auch ohne solche Hilfsmittel fit halten.
     
    An dieser Stelle entspann sich eine kleine Diskussion unter den Zuhörern. Manche Studierende setzen ihre Hoffnung auf bessere Aufklärung und Bildung insbesondere jüngerer Nutzer. Wenn diese über Risiken informiert seien, würden sie bewusster mit der Preisgabe persönlicher Daten umgehen. Andere sahen das pessimistischer. So gibt es z.B. kostenpflichtige Alternativen zu Diensten wie WhatsApp. Diese werden aber wenig genutzt, obwohl sie nur wenig kosten. Frau Gröner verwies in diesem Zusammenhang darauf, dass die meisten Menschen inzwischen sehr viele Dienste nutzen. Selbst wenn pro Dienst nur überschaubare Beträge fällig würden, käme so im Monat doch eine nennenswerte Summe zusammen.
     
    Was ist Digitalisierung?
     
    Die Überführung analoger Werte in digitale Wert ist in diesem Zusammenhang nicht gemeint. Auch nicht die Automation, denn die gab es schon in der 3. industriellen Revolution. Auch die Kombination von Automation und Änderung des Geschäftsmodells ist noch nicht gemeint. Ein Beispiel dafür wäre eine digitale Überweisung und auch die gibt es schon länger.
     
    Gemeint ist vielmehr ein Paradigmenwechsel. Software und Hardware werden für völlig neue Geschäftsmodelle eingesetzt. Wenn diese neuen Geschäftsmodelle alte ersetzen, nennt man sie disruptiv. Oft decken solche Modelle aber auch einen bislang ungedeckten Bedarf.
     
    Ein Beispiel für solch ein neues Geschäftsmodell findet sich unter www.moovel.com. Daimler und BMW bündeln dort ihre Mobilitätsdienste. ÖPNV, car2go, mytaxi und Bahn werden in einer App verbunden. Man kann schnellste Routen über unterschiedlichste Verkehrsträger suchen, buchen und bezahlen. Das hat das Potential, Dienste, die nur einen Verkehrsträger abdecken, zu ersetzen.
     
    Warum macht ein Unternehmen wie Daimler so etwas? Wahrscheinlich weil man erwartet, dass künftig nicht das Auto im Mittelpunkt des Kundeninteresses steht sondern die Mobilität an sich.
     
    Bei einem disruptiven Geschäftsmodell ändern sich die Art der Leistungserbringung, die Leistung, das Produkt oder die Art der Bezahlung. Elektronische Zahlverfahren spielen dabei eine wichtige Rolle.
     
    Ein Beispiel für ein (künftiges) disruptives Geschäftsmodell wäre Carsharing mit fahrerlosen Autos. Die Fahrzeuge wären besser ausgelastet und man bräuchte weniger Platz für parkende Autos. Der Kunde "kauft" seine Fahrt zu Arbeit und nicht ein Fahrzeug, das die meiste Zeit ungenutzt herumsteht.
     
    Kennzeichnend für neue Geschäftsmodelle sind oft neue Erlösmodelle. Gängig ist inzwischen, dass neben Nutzern und Anbietern eines Dienstes noch Dritte involviert sind. Frühere Geschäftsmodelle folgten dem Muster: "Ich kaufe oder nutze, also muss ich auch bezahlen." Bei neuen Geschäftsmodellen zahlt die Leistung immer häufiger ein Dritter, weil er personalisierte Werbung platzieren will oder mit personenbezogenen Daten der Nutzer handeln möchte.
     
    Welche Technologien haben Bedeutung für die Wettbewerbsfähigkeit deutscher Unternehmen?
     
    Industrie 4.0: Maschinen und Gegenstände werden mit Hard- und Software gekoppelt. Es entsteht ein Cyber Physical System, z.B. eine Smart Factory, in der Maschinen miteinander kommunizieren. Sie rüsten sich z.B. schneller ein oder um, weil sie wissen, welche Teile von anderen Maschinen kommen. Big Data: Entsteht als Folge der Vernetzung aller Dienste und Geräte. Big Data bezieht sich auf das Volumen der Daten und auf die Geschwindigkeit ihrer Generierung, aber auch auf eine größere Datenvielfalt (Formate, unstrukturierte und halbstrukturierte Daten). Real-Time Analytics ermöglicht die Auswertung solcher Daten in Echtzeit und somit schnellere Entscheidungen. Predictive Analysis versucht, auf der Grundlage vorhandener Daten in die Zukunft zu blicken. Prescriptive Analysis geht noch einen Schritt weiter, indem automatisiert Handlungsempfehlungen gegeben werden. Im Zusammenhang mit Big Data entstehen neue Berufsfelder mit Bezeichnungen wie Data Scientist, Datenanalyst, Datenarchitekt, Datenwissenschaftler. Die Datenmengen sind in den Unternehmen oft längst da. Die Unternehmen bekommen nun aber neue Möglichkeiten, die vorhandenen Daten zu nutzen. Augmented Reality: Techniker bekommen bei Reparaturen Hilfestellungen in ihr Sichtfeld eingeblendet. Robotik: Ein Beispiel für eine neue Robotik-Anwendung ist Pepper, ein humanoider Roboter, der z.B. in Verkaufräumen oder an Empfangstischen eingesetzt werden könnte. Ein anderes Beispiel sind Roboter für die letzte Meile im Logistikbereich. Blockchain: Mit dieser Technologie lassen sich Daten fälschungssicher ablegen. Estland nutzt dies z.B. für Bürgerdaten. 3D-Druck: Ein Beispiel wären 3D-Drucker, die ein Wohnhaus bauen können. Spracheingabe-Systeme: Viele Nutzer haben bereits solche Sprachassistenten. Diese müssen sich an ihre Nutzer anpassen, indem sie trainiert werden. Das geht mittlerweile meist recht schnell.  
    Was sind Folgen der Digitalisierung?
     
    Die Arbeit wird sich verändern: Microsoft hat in München ein Gebäude, in dem nur Arbeitsplätze für zwei Drittel der Mitarbeiter zur Verfügung stehen. Der Rest ist im Home Office. Auch Digitale Nomaden sind ein Beispiel für veränderte Arbeit. Es gibt Plattformunternehmen ohne Produktionsmittel: Sie haben schon heute produzierende Unternehmen als Börsenchampions abgelöst. Börsenwert und Anzahl der Beschäftigen entkoppeln sich. Für vergleichbare Leistungen werden viel weniger Beschäftigte gebraucht. Ein vergleichbarer oder sogar höherer Börsenwert lässt sich mit weniger Beschäftigten generieren. Der IT-Fachkräftemangel spitzt sich in allen Branchen zu.  
    9 von 10 Unternehmen halten die Digitalisierung für eine Chance.
     
    Im Verlauf des Vortrages kam es immer wieder zu kleinen Diskussionen. Gerade über das Thema "Folgen der Digitalisierung" hätten wir noch lange sprechen können. Leider endete nicht nur diese interessante Vorlesung sondern auch der Präsenztag. Gerade Studierende, die eine weitere Anreise hatten, mussten ihre Anschlüsse bekommen.
     
    Fazit (zum Präsenztag):
     
    Der Präsenztag war wieder mal sehr schön. Bei Kaffee und Kuchen, Snacks und Getränken gab es immer wieder Gelegenheit, mit anderen Studierenden, Mitarbeitern des Studienbüros und der Hochschule ins Gespräch zu kommen. Auch wenn der Studiengang gewachsen ist, die im Vortrag unserer Absolventen beschriebene familiäre Atmosphäre ist noch immer spürbar. Ich freue mich auf den nächsten Präsenztag. Falls ich gut vorankomme, könnte es mein letzter werden. Bei dem Gedanken mischt sich auch ein bisschen Bedauern in meine Vorfreude.
  16. kurtchen
    13 Uhr - Vorlesung: "Don't believe the Hype - Ein Blick in den Dschungel der Web-Entwicklung", Prof. Dr. Sven Jörges, FH Dortmund
     
    Web-Entwicklung früher und heute
     
    Professor Jörges begann seinen Vortrag zunächst mit einem Blick zurück auf die Anfänge der Web-Entwicklung. In den 2000er Jahren reichten Grundkenntnisse in HTML und PHP, um mit Web-Entwicklung Geld zu verdienen. Damals wurden viele Studierende quasi über Nacht Web-Entwickler. Herr Jörges visulisierte diese Phase mit dem Sinnbild einer weiten grünen Wiese. Es war noch überall Platz und man konnte sich leicht orientieren. Heute ist Web-Entwicklung im großen Maßstab eine komplexe Sache. Herr Jörges visualisierte die aktuelle Situation mit dem Sinnbild Dschungel.
     
    4 Aspekte des Sinnbildes Dschungel
     
    Ein Dschungel ist gekennzeichnet durch überschießendes Wachstum. Das zeigt sich z.B. in Userzahlen, in der Anzahl von Anfragen und vielem mehr. Einen Eindruck davon vermittelt die Seite The Internet in Real-Time. Eine Konsequenz daraus ist, dass die Skalierbarkeit von Web-Anwendungen heute extrem wichtig ist. Ein zweiter Aspekt des überschießenden Wachstums ist die Bedeutung von Plattformen. Früher genügten einem Unternehmen eigene Web-Seiten. Um heute wahrgenommen zu werden, ist es wichtig, auf vielen Plattformen präsent zu sein. Ein dritter Aspekt des Wachstums ist die steigende Vielfalt von Endgeräten und Formfaktoren. In den 2000er Jahren wurde auf Startseiten oft der Hinweis eingeblendet, für welche Bildschirmauflösung sie optimiert war. Heute muss eine Web-Anwendung auf allen Geräten vom Smartphone bis zum Desktop PC gut benutzbar sein. Am besten sollte sie auch auf einer Smartwatch funktionieren. Das macht Web-Entwicklung komplizierter. Ein vierter Aspekt des Wucherns ist die unüberschaubare Vielfalt an Frameworks. Diese bieten natürlich einen stabilen Rahmen mit Basisfunktionen. Man muss nicht bei Null anfangen und kann dadurch schneller entwickeln. Außerdem helfen gute Frameworks, Standardfehler zu vermeiden. Aber die Vielfalt ist inzwischen so überwältigend, dass der Einstieg dadurch schwierig wird. Für welches Framework soll man sich entscheiden?  
    Einen Eindruck dieser Vielfalt vermittelt der Wikipedia-Eintrag Comparison of Web Frameworks. Das schnelle Entstehen neuer Technologien wird auch humorvoll aufgegriffen, z.B. durch die Seite Days since last javascript framework. Auf www.heise.de findet man auch das witzige Quiz "JavaScript oder Metal Band". Auch der nicht ganz erst gemeinte Begriff "JavaScript fatigue" zeigt, dass die sich erweiternde Auswahl neuer Technologien mittlerweile als überfordernd wahrgenommen wird.
     
    Gerade in diesem Zusammenhang passt das Sinnbild des Dschungels, denn im Dschungel ist es schwierig, sich zu orientieren und seinen Weg zu finden. Einsteiger im Bereich Web-Entwicklung fragen sich heute:
    Was soll ich eigentlich lernen? Womit fange ich an? Welches Wissen hält länger als eine Woche?  
    Web-Seite vs. Web-Anwendung vs. Desktop-Anwendung
     
    An dieser Stelle spielte Herr Jörges mit uns ein kleines Quiz-Spiel, dass mich an die alte Kindersendung "1, 2 oder 3" erinnerte. Er zeigte uns am Beamer eine Szene und wir sollten raten: Ist es eine Web-Seite, eine Web-Anwendung oder eine Desktop-Anwendung?
     
    Die ersten Beispiele waren noch einfach zuzuordnen, z.B. Fefes Blog oder Google Docs. Der bekannte Editor Visual Studio Code wird lokal installiert, ist also eigentlich eine Desktop-Anwendung. Er ist aber mit dem Framework Electron erstellt, das es ermöglicht, Desktop-Anwendungen mit den Web-Technologien HTML, CSS und Javascript zu programmieren. Ein schönes Beispiel war auch das Spiel HexGL. Es ist ein Racing Spiel im Stil des Klassikers Wipeout. Vor einigen Jahren hätte man es noch für ein Konsolenspiel halten können. Es basiert aber auf JavaScript und ist eine Web-Anwendung, die im Browser läuft. Die letzte Quizfrage richtete sich auf die Anwendung, mit der der Beamervortrag präsentiert wurde. Man hätte auf PowerPoint tippen können. Tatsächlich sahen wir eine Web-Seite, die mit dem Framework reveal.js erstellt worden war.
     
    Das Fazit dieses Spiels? Man kann die Dinge nicht mehr so leicht kategorisieren wie früher. Web-Anwendungen, Web-Seiten und Desktop-Anwendungen sind voneinander nicht mehr so klar abgegrenzt. Die Grenze zwischen Web und Native oder Web und Desktop verschwimmt zusehends. Abgesehen von Spezialisten für Embedded Systems kommt bald kein Entwickler mehr ohne Web-Technologien aus.
     
    Ein Beispiel dafür sind GUI-Frameworks für Java. Swing ist abgekündigt. Der designierte Nachfolger JavaFX ist ebenfalls abgekündigt. Aber wohin geht die Reise? Oracle weiß es selbst nicht. Womöglich braucht man in Zukunft gar kein klassisches GUI-Framework für den Desktop.
    Herr Jörges versuchte sich an dieser Stelle noch einmal an einer Definition der Begriffe Web-Seite, Web-Anwendung, Desktop-Anwendung, wohl wissend, dass die Unterscheidungskriterien nicht mehr scharf und nicht mehr dauerhaft sein können.
     
    Was tun?
     
    Herr Jörges meint: Es gibt Wege durch den Dschungel. Im letzten Abschnitt seiner Vorlesung gab er zwei konkrete Tipps, um wieder Orientierung zu gewinnen.
     
    Tipp 1: Go back to the roots!
     
    Man sollte die Grundlagen kennen und beherrschen. Die 3 wichtigsten Web-Technologien sind HTML, CSS und Javascript. Man sollte also HTML(5) gut kennen. Laut Herrn Jörges beinhaltet das sehr viel mehr Wissen, als eine einführende Lehrveranstaltung an einer Hochschule vermitteln kann. Diese kann einen Überblick und einen Einstieg verschaffen. Dann sollte man aber in die Tiefe gehen. CSS kann ebenfalls sehr komplex werden. Schließlich ist es wichtig, Javascript gut zu beherrschen, denn diese Sprache hat ihre "Untiefen". Der Tipp, JavaScript zu lernen, gilt ausdrücklich auch für Entwickler, die sich von Sprachen wie Typescript oder Frameworks wie React angezogen fühlen.
     
    Die Sprache Javascript hat sich in den vergangenen Jahren stark weiterentwickelt. Frameworks, die früher essentiell waren, verlieren dadurch schnell an Bedeutung. Als Beispiel nannte Herr Jörges jQuery oder Bootstrap. jQuery war z.B. für DOM-Manipulation und für AJAX unerlässlich. Doch diese Dinge kann man inzwischen standardmäßig mit der DOM-API machen. Bootstrap hat man gerne für Raster verwendet. So etwas geht jetzt auch mit CSS Grid Layouts. Man braucht also Frameworks nicht mehr unbedingt.
     
    Herr Jörges empfiehlt Einsteigern, sich von Frameworks zunächst fernzuhalten und stattdessen die Tiefen und Möglichkeiten der 3 Basistechnologien auszuloten. Es gibt zur Zeit viele Web-Seiten und Blog-Posts mit Titeln wie  "You might not need jQuery". (Für jQuery kann man ein beliebiges Framework oder eine beliebige Library einsetzen.) Eine Google-Suche nach so etwas führt auf Artikel, die aufzeigen, wie man vergleichbare Funktionalität mit Basistechnologien realisieren kann.
     
    Tipp 2: Das Handwerk beherrschen
     
    Web-Engineering ist eine Ingenieursdisziplin. Es gibt Prinzipien und Methoden. Das wird im Web und beim Hype um die nächste Technologie schnell vergessen.
     
    In den Software-Technik Vorlesungen lernen Studierende z.B. das Model View Controller Muster (MVC) kennen. Es entstand schon in den 70er Jahren. Für die junge Disziplin Informatik ist es also steinalt. Es ist aber immer noch extrem relevant. Inzwischen existiert es in unzähligen Varianten:
    MVVM = Model View View Model MVP = Model View Presenter MVI = Model View Intent und so fort...  
    Igor Minar, bekannt für seine Arbeit an Angular, hat eine weitere schöne Variante definiert: "... I hereby declare AngularJS to be MVW framework - Model-View-Whatever. Where Whatever stands for "whatever works for you".
     
    Wenn man MVC versteht, versteht man auch seine Varianten. In ähnlicher Weise profitieren angehende Entwickler davon, andere Grundmuster der Softwaretechnik zu lernen.
     
    Laut Herrn Jörges sollten diese beiden Tipps bereits genügen, sich im Dschungel der Web-Entwicklung zu orientieren.
     
    Q&A:
     
    Eröffnet sich nicht mit Web-Assembly die Möglichkeit, künftig in beliebigen Sprachen für den Browser zu entwickeln?
    Herr Jörges meinte, dass er das für die Zukunft halte. Aber noch sei es nicht soweit. Einstweilen sei es empfehlenswert, JavaScript zu lernen.
     
    Ist geplant, dass Curriculum im Sinne der drei genannten Basistechnologien weiter zu entwickeln?
    Herr Jörges bekräftigte, dass seine Pläne für die Studiengang in diese Richtung gehen, auch im Licht der anstehenden Reakkreditierung. Allerdings sei es nicht immer leicht, solche Pläne im gewünschten Tempo umzusetzen. Dies sei in einem reinen Präsenzstudiengang tatsächlich etwas leichter. (Dort müssen die Inhalte z.B. nicht für eine Lernplattform aufbereitet werden.)
  17. kurtchen
    Wie üblich war vor dem Präsenztag - also am Freitag, den 28.09.2018 - auch ein Prüfungstag mit der Möglichkeit, bis zu drei schriftliche Prüfungen zu schreiben. Ich selbst konnte leider erst am Freitagabend anreisen. Darum musste ich meine Prüfung Samstags um 08:30 Uhr schreiben. Der Raum war gut gefüllt; es scheint also noch andere Studierende zu geben, die am Freitag nicht ohne weiteres für eine Prüfung freinehmen können. Bei mir stand das Modul "Business Intelligence" auf dem Plan. Darüber habe ich anderer Stelle berichtet.
     
    Ein Prüfungstermin ist natürlich immer eine gute Gelegenheit, mit anderen Studierenden ins Gespräch zu kommen, z.B. über zurückliegende oder bevorstehende Module. Dies hat mir oft geholfen, Module sinnvoll miteinander zu kombinieren. Da nun nicht mehr so viele Module vor mir liegen, erfahre ich hier natürlich nicht mehr so viel relevantes.
     
    Im September 2015 war ich zum ersten Mal in Dortmund, um "Grundlagen der Informatik 1" zu schreiben, also die Klausur zum einführenden Java-Kurs. Ich weiß noch gut, wie aufregend das damals alles war. Um mich herum lauter "alte Hasen", die in ihrem Studium schon weit fortgeschritten und sich lebhaft austauschten. Jetzt bin ich einer von denen, die vor dem Endspurt stehen. Wie schnell die Zeit vergangen ist.
     
    Nach der Prüfung gab es wie üblich ein Frühstücksbuffet. Dann begann der offizielle Teil.
     
    11-12:30 Uhr - Aktuelles für Studierende
     
    Diesen Teil übernahmen Frau Arens aus dem Studienbüro und Prof. Dr. Sven Jörges, der sich uns bei dieser Gelegenheit vorstellte. Herr Jörges hat seit dem 01.03.2018 eine Professur für Web-Engineering und Softwaretechnik am Fachbereich Informatik. Insbesondere ist er unser neue Studiengangsleiter.
     
    Infos aus dem Studienbüro
     
    1. Reakkreditierung
     
    Herr Jörges informierte über den laufen Reakkreditierungsprozess für die beiden Studiengänge WMI und WI. Die zuständige Akkreditierungsagentur ist die AQAS. Die von ihr erstellen Gutachten lassen sich online abrufen unter:
    www.aquas.de -> Programmakkreditierung -> Ergebnisse Akkreditierungsverfahren BA/MA
     
    Hier findet man also auch die Ergebnisse der letzten Akkreditierung unserer Studiengänge. Und eines Tages hoffentlich das Ergebnis der Reakkreditierung.
     
    Der Antrag ist inzwischen abgegeben. Nächster Schritt wäre eine Begehung durch eine Gutachtergruppe. Diese besteht aus Professoren anderer Hochschulen, Vertretern aus der Industrie, aber auch aus Absolventen und Studierenden. In diesem Zusammenhang sucht die FH Dortmund Studierende, die bereit wären, an der Begehung teilzunehmen. Ein genauer Termin steht noch nicht fest, wird uns aber bekannt gegeben. Interessierte Studierende dürfen sich beim Studienbüro melden. Laut Herrn Jörges kann es gut sein, dass die Gutachter den Studierenden ziemlich konkrete Fragen stellen: "Können Sie im Beruf brauchen, was sie hier lernen?" - "Wie gut können Sie das Online-Studium mit ihrer Berufstätigkeit verbinden?"
     
    Die Evaluierung im März diesen Jahres war ein wichtiger Baustein zur Reakkreditierung. Die Ergebnisse lagen aus und konnten eingesehen werden.
     
    Prüfungstermine und Prüfungsmodalitäten
     
    Hierüber informierte Frau Arens. Die Prüfungstermine für 2018 stehen in der Lernplattform im virtuellen WMI-Café. Die Termine für 2019 folgen noch.
     
    Auf mehrfache Nachfrage sollen ab März 2019 parallel zum Präsenztag in Dortmund auch Prüfungen in München angeboten werden. Bislang war es so, dass man an den Präsenztagen nur Prüfungen in Dortmund ablegen konnte. Studierende aus dem Raum München, die nicht nach Dortmund anreisen konnten, verpassten so zwei Mal im Jahr eine Prüfungsmöglichkeit. Dieses Problem soll nun der Vergangenheit angehören.
     
    Eigentlich sollte es längst bekannt sein, aber Frau Arens wies wegen gelegentlicher Nachfragen noch einmal ausdrücklich darauf hin: Die in der Einladung zu den Prüfungen genannte Deadline für die spätestmögliche Anmeldung gilt!
     
    Mündliche Prüfungen können nach wie vor ausschließlich in Dortmund abgenommen werden. Sie finden grundsätzlich am Freitag statt. Es gibt drei Slots am Vormittag. Bei der Vergabe gilt: "Wer zuerst kommt, mahlt zuerst." Zu beachten ist auch: Die Anmeldefrist für mündliche Prüfungen ist knapper als für schriftliche. Dafür muss nämlich ein Prüfer der Uni Dortmund eingeplant werden, während bei schriftlichen Prüfungen eine Klausuraufsicht genügt. Frau Arens empfiehlt daher, sich zügig an Studienbüro zu wenden, wenn eine mündliche Prüfung ansteht.
     
    Klausuren sollen innerhalb von 6 Wochen korrigiert werden. Oft geht es schneller. (Im Schnitt dauerte es bei mir so um die 3 Wochen.) Das Studienbüro leitet Ergebnisse umgehend an die Studierenden weiter. Wenn man nach 6 Wochen noch nichts gehört hat, darf man sich an Studienbüro melden.
     
    Bescheinigungen
     
    Einen Notenspiegel oder eine Leistungsübersicht kann man kurzfristig im Studienbüro anfordern. Unmittelbar vor Präsenz- oder Prüfungstagen kann es ein bisschen länger dauern.
     
    Studienbescheinigungen stellt nicht das Studienbüro aus sondern die FH. Man beantragt sie über die ODS (Online Dienste für Studierende).
     
    Absolventen
     
    An diesem Präsenztag waren fünf Absolventen zu feiern. Leider konnten nur zwei von ihnen nach Dortmund anreisen und uns über ihre Erfahrungen berichten.
     
    Unsere erste Absolventin ist in der Wasserwirtschaft tätig und hatte ihre Bachelorarbeit in diesem beruflichen Umfeld verfasst. Leider durfte sie nicht über Inhalte ihrer Arbeit sprechen. Gleichwohl sprach sie über den Prozess der Anfertigung einer Bachelorarbeit und die damit verbundenen Herausforderungen und Strategien zur Bewältigung. Hier sind einige ihrer Tipps:
    Frühzeitig nach einem Thema Ausschau halten. Ein Jahr Vorlauf schadet nicht. Intrinsische Motivation ist wichtig. Den roten Faden nicht aus dem Auge verlieren. In der Recherchephase Quellen sofort erfassen. Sonst weiß man nachher nicht mehr, woher man was weiß. Dann hat man doppelte Arbeit, die Quelle wieder zu finden. Ein geringer zeitlicher Abstand zwischen Projekt- und Bachelorarbeit ist günstig. Man ist im Flow. Insbesondere ist man im wissenschaftlichen Arbeiten. Außerdem gab sie allgemeine Tipps zum Fernstudium:
    Sich Ziele setzen. Sich feste Lernzeiten vornehmen, z.B. an 5 Tagen pro Woche lernen. Sich zu jedem Prüfungstermin für mindestens eine Prüfung anmelden. So hat man stets das Gefühl, dass es voran geht. Sich Belohnungssystem ausdenken, z.B. nach jeder Prüfung einen Tag frei nehmen, um etwas Schönes zu machen. Direkt nach der Modulbuchung einen Zeitplan für das Modul machen. Der Kontakt zu anderen Studierenden ist wichtig. Unsere zweite Absolventin hatte eine Web-Anwendung zur Eignungsprüfung von Winterfahrzeugen erstellt. Auch sie berichtete nicht über ihre Bachelorarbeit. Stattdessen reflektierte sie den Verlauf ihres gesamten Studiums. Da sie eine Studierende "der ersten Stunde" war, hatte sie noch den Gründer unseres Studienganges - Professor Helmut Balzert - erlebt. Sie berichtete vom Start des Studienganges mit ca. 20 Studierenden in damals noch sehr familiärer Atmosphäre. Neue Module entstanden. Während anfangs nur Prüfungen in Dortmund möglich waren, kamen später weitere Prüfungszentren hinzu. Damals waren Präsenztage noch Pflicht! Der Studiengang wuchs und irgendwann kannte nicht mehr jeder jeden. Die familiäre Atmosphäre blieb allerdings erhalten, nicht zuletzt durch die Arbeit des Studienbüros.
     
    Zuletzt berichtete sie, was aus dem Studium neben fachlichem Input für ihre Persönlichkeitsentwicklung mitgenommen hatte:
    Keine Angst vor Neuem. Schritt für Schritt Schwieriges schaffen. Herausforderungen leben. Auch mal über den Tellerrand schauen. Infos zu Projekt- und Bachelorarbeit
     
    Es ist üblich, dass an Präsenztagen auch das Thema Projekt- und Bachelorarbeit aus verschiedenen Blickwinkeln beleuchtet wird. Herr Jörges beschäftigte sich diesmal insbesondere mit den Unterschieden zwischen Projekt- und Bachelorarbeit. Beiden gemeinsam ist, dass innerhalb einer zeitlichen Frist ein bestimmtes Thema selbstständig bearbeitet wird. Die Projektarbeit soll dabei eine konstruktive und problembezogene Arbeit sein. Sie ist also eher ingenieursmäßig, auch wenn bei der Problemlösung wissenschaftliche Erkenntnis und wissenschaftliche Methoden der Recherche eine große Rolle spielen. Im Vergleich dazu ist die Bachelorarbeit in erster Linie eine wissenschaftliche Arbeit, auch wenn sie eine konstruktive Arbeit sein kann, bei der ein praktisches Problem gelöst wird. Mehr noch als bei der Projektarbeit spielen die Methoden wissenschaftlichen Arbeitens und der wissenschaftlichen Recherche die tragende Rolle.
     
    An der FH Dortmund hat man überwiegend positive Erfahrungen mit Bachelorarbeit, die auf einer Projektarbeit aufbauen. Dabei muss aber klar sein: Die Bachelorarbeit ist eine eigenständige Arbeit, kann also die Projektarbeit nicht beinhalten. Gelegentlich gibt es Studierende, die erwarten, mit ihrer Projektarbeit schon einen Baustein für ihre Bachelorarbeit in der Hand zu halten. Das geht natürlich nicht. Die Bachelorarbeit trägt ja ihren eigenen Workload und wird eigenständig bewertet. Möglich ist freilich, in der Bachelorarbeit die eigene Projektarbeit zu referenzieren, um die dort geleistete Arbeit inhaltlich weiter zu entwickeln.
     
    Zur Themenfindung berichtete Herr Jörges, dass diese lange dauern könne. Auch Recherche und Einlesen ins Thema gehören dazu. Letztlich geht es in dieser Phase darum, den Kern der Fragestellung zu identifizieren. Themen für die Projektarbeit kann man oft im eigenen Betrieb finden, selbst wenn man gar nicht im IT-Bereich arbeitet. Auch Herr Jörges betonte die Bedeutung eines eigenen Interesses am Thema. Dies hilft als innere Antriebsquelle durch schwierige Phasen der Arbeit. Ein Vorteil einer Arbeit im Betrieb ist, dass man häufig noch einen kompetenten Ansprechpartner für Ort findet, der den Prozess begleiten kann.
     
    Für die Bachelorarbeit ist die wissenschaftliche Fragestellung noch viel wichtiger. Hierzu gehört auch eine Recherche zum Stand der Forschung. Manchmal wird man dabei leider feststellen, dass die eigene Forschungsfrage schon beantwortet wurde. Man könnte aber die eigene Frage weiter zuspitzen und zum Beispiel einen neuen Gesichtspunkt untersuchen, der bislang noch nicht beachtet wurde.
     
    Beim Finden eines Betreuers kann das Studienbüro finden. Oft geht es nach der Vermittlung eines Betreuers noch nicht los. Es gibt meist eine Startphase, die sich hinziehen kann, weil klar wird, dass das Thema doch noch nicht eingrenzt und geschärft ist. In dieser Phase entstehen oft eine Art Abstract, eine vorläufige Gliederung der Arbeit, eine Auflistung von Zielen, eine Erklärung der eigenen Motivation und Vorgehensweise. Erst wenn das geklärt ist, wird "die tickende Uhr" in Bewegung gesetzt. Manche Betreuer wünschen sich auch Exposé von ca. 4 Seiten. Die Startphase ist wichtig, damit sich nicht mitten in der Bachelorarbeit herausstellt, dass Problemstellung und Struktur der Arbeit unklar oder gar untauglich sind.
     
    Für die Erstellungsphase liefert das Modul "Wissenschaftliches Arbeiten" die nötigen Grundlagen. Die sind sehr wichtig, denn für die meisten Studierenden ist die Erstellung einer wissenschaftlichen Arbeit eine ein- bis zweimalige Erfahrung in ihren Leben. Sehr wichtig ist in diesem Zusammenhang das korrekte Referenzieren von Quellen.
     
    Essentiell ist außerdem, Kontakt zum Betreuer zu halten. Es klingt trivial, aber es kommt immer wieder vor, dass Studierende ihre Arbeit anmelden und abgeben, ohne Kontakt zu ihren Betreuer gesucht zu haben. Das geht fast nie gut. Üblich sind Draft-Versionen, zu denen der Betreuer Feedback gibt. Von Studierenden wird erwartet, dass sie den Kontakt zu ihrem Betreuer aktiv suchen und aufrecht erhalten. Viele Professoren sind sehr beschäftigt, darum ist es empfehlenswert, als Studierender selbst aktiv zu werden.
     
    Hochschulzertifikate
     
    Wie an Präsenztagen üblich, wurden die erreichten Hochschulzertifikate ausgeteilt.
     
    Question & Answers
     
    Hier wurde zunächst eine Frage an die Absolventen gerichtet.
     
    Womit soll man seine Bachelorarbeit schreiben? Mit LaTeX? Oder mit Word?
    LaTeX ist ein tolles Werkzeug und kann einem viel Arbeit ersparen. Allerdings ist die Einarbeitung aufwendig. Wer LaTeX kann, soll es nutzen. Wer es zu Beginn der Bachelorarbeit noch nicht kann, soll Word benutzen. Sich zeitgleich zur Bachelorarbeit in LaTeX einarbeiten ist nicht realistisch.
     
    Die weiteren Fragen betrafen Module und Studienorganisation.
     
    Das Modul "Multimedia" ist inhaltlich veraltet? Wann kommt eine neue Version?
    Ein neuer Kursautor wird derzeit gesucht. Die Aktualität der Module ist Thema bei der Akkreditierung und bei manchen Modulen ist klar, dass die aktualisiert werden müssen. Leider ist es nicht immer einfach, Autoren zu finden. Auch unterschätzen Autoren selbst oft den Zeitaufwand für das Schreiben eines Buches.
     
    Das Modul "Web-Anwendungen 1" ist in Bearbeitung. Kann man es buchen?
    Man kann es buchen, erhält aber dann die bisherige Version des Moduls.
     
    Was machen Studierende der Wirtschaftsinformatik, wenn sie für ein Hochschulzertifikat ein Modul buchen wollen, dass im Curriculum ihres Studienganges nicht vorgesehen ist?
    Solche Module kann man über das Studienbüro als Zusatzmodule buchen. Solche Module können auf der Bachelor-Urkunde aufgeführt werden.
     
    Kritik: Aufgrund der Modulkombinationen ist es für Studierende der "Web- und Medieninformatik" relativ leicht, schon während ihres Studiums Hochschulzertifikate zu erlangen. Für die Wirtschaftsinformatiker ist das schwieriger.
     
    Hiermit endete der Teil "Aktuelles für Studierende".
     
    Parallel fand in einem angrenzenden Hörsaal ein Tutorium zu den Inhalten des Moduls "Mathe2" statt. Hier ging es im Lineare Algebra und Analysis. Erfahrungsgemäß macht dieses Mathemodul Studierenden am meisten Sorgen, weshalb Tutorien dazu an fast jedem Präsenztag stattfinden. Da ich es schon hinter mir habe, habe ich es nicht besucht und kann auch nichts näheres dazu sagen.
     
    Im weiteren Verlauf des Tages gab es zwei Vorträge über Web-Entwicklung und Digitale Transformation. Darüber werde ich in folgenden Beiträgen berichten.
  18. kurtchen
    Zur Rolle des Moduls im Studiengang

    Das Modul "Business Intelligence" ist ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort ist es auch dem Studienbereich "Wirtschaftsinformatik" zugeordnet. Studierende der "Web- und Medieninformatik" dürfen es im Vertiefungsbereich belegen. Den Wirtschaftsinformatikern wird empfohlen, dieses Modul zusammen mit "Human Resources" und einem weiteren Wahlpflichtmodul im 6. Fachsemester zu belegen. Es ist also vorgesehen, dieses Modul im gleichen Semester zu bearbeiten wie die Bachelorarbeit. Dies erklärt vielleicht den vergleichsweise niedrigeren Bearbeitungsaufwand.
     
    Formale Voraussetzungen gibt es keine, so dass das Modul theoretisch auch schon im ersten Fachsemester gebucht werden dürfte. Als inhaltliche Voraussetzungen werden "Data Warehouse & Data Mining" sowie "BWL2" genannt. Dies erscheint mir sinnvoll. Business Intelligence hat eine große inhaltliche Überlappung mit dem Modul Data Mining, nimmt aber noch stärker eine betriebswirtschaftliche Perspektive ein. Mehr noch als im Modul Data Mining liegt also der Fokus darauf, wie man Methoden der Business Intelligence für den Erfolg eines Unternehmens nutzen kann. Die Implementierung dieser Methoden in einer konkreten Programmiersprache ist nicht Thema des Moduls. Es betrachtet Business Intelligence aus Anwender- bzw. Nutzerperspektive. Das Modul Data Mining ist eine nützliche Vorbereitung, weil man dadurch schon viel über die Funktionsweise analytischer betrieblicher Informationssysteme (im Vergleich zu operativen Systemen) weiß. BWL2 ist nützlich, weil es viele inhaltliche Bezüge zwischen dem Lehrbuch zur Unternehmensführung aus BWL2 und den Methoden der Business Intelligence gibt.
     
    Zum Lehrbuch
     
    Das Lehrbuch "Basiswissen Business Intelligence" ist von Christoph Engels und lag mir in der 2. Auflage von 2015 vor. Es hat nur ca. 150 Seiten, gehört aber zu den Lehrbüchern mit kleinerer Schrift und engerem Druck, was die Seitenzahl etwas relativiert. Der Stoffumfang erscheint mir im Vergleich zu anderen Modulen geringer. Allerdings ist das Buch ziemlich dicht geschrieben und treibt sein Thema konsequent voran. Viel Redundanz gibt es hier nicht. Es ist in drei Teile gegliedert:
    Die betriebswirtschaftliche Sicht Die Methoden der Business Intelligence Die Werkzeuge der Business Intelligence  
    Teil 1 beginnt mit einem Kapitel zur "multidimensionalen Perspektive". Hier geht es im wesentlichen um den Unterschied zwischen operativen und analytischen Informationssystemen. Operative Systeme sind z.B. durch häufige Schreibzugriffe und eine starke Datensatzorientierung ausgezeichnet. Sie unterstüzten die alltäglichen Geschäftsprozesse des Unternehmens. Ein Beispiel für ein operatives Informationssystem wäre z.B. ein Bestellsystem. Analytische Informationssysteme verdichten Daten aus operativen Systemen (und anderen Quellen), um Führungskräfte bei unternehmerischen Entscheidungen zu unterstützen. Sie helfen also z.B. bei der Steuerung des Unternehmens und bei der Planung.
     
    Weitere Kapitel behandeln Kennzahlensystem, Performance Management, Planungskoordination, externes Rechnungswesen, Konzernkonsolidierung, Zielkostenrechnung und Kampagnen. Das Tempo in diesen Kapiteln ist hoch und der Stoff geht nicht in die Tiefe, behandelt also z.B. keine Spezialfälle. Die Intention scheint vielmehr zu sein, einem Überblick über mögliche Anwendungskontexte von Business Intelligence zu vermitteln. Um die allgemeinen Konzepte bildlicher und konkreter werden zu lassen, werden sie gelegentlich durch Beispiele aufgelockert. Diese stammen vor allem aus der Tourismusbranche. Solche Fallbeispiele werden in den folgenden Teilen des Lehrbuches häufiger und umfangreicher. Touristik bleibt dabei das gemeinsame Thema.
     
    Teil 2 behandelt Methoden der Business Intelligence. Hier geht es zunächst um klassisches Reporting und im Kontrast dazu OLAP (Online Analytical Processing). Für OLAP wird ein multidimensionaler Datenwürfel aufgebaut, der durch die grundlegenden Operationen Slicing, Dicing und Drill down unmittelbar erkundet und untersucht werden kann, um in den aggregierten Daten operativer Systeme unbekannte Zusammenhänge und Muster zu entdecken, die sich unternehmerisch nutzen lassen. Die verschiedenen Nutzungsszenarien stehen im Fokus dieses Kursteils. So wird beispielsweise vorgestellt, wie sich Lift Charts nutzen lassen, um bei Werbekampagnen einen effizienten Werbemitteleinsatz zu erzielen. Wichtig ist auch die Arbeit mit Szenarios. Hierbei unterscheidet man zwischen Predictive Analytics und Prescriptive Analytics. Während man mit Predictive Analytics künftige Situationen anhand bisheriger Entwicklungen vorhersagen möchte, zielt Prescriptive Analytics auf einen künftig wünschenswerten Zustand und wie dieser zu erreichen wäre. Die Fallbeispiele aus der Touristik werden nun umfangreicher und unterstüzten das Verständnis der Konzepte gut. Kapitel zur Visualisierung und zur Präsentation aggregierter Unternehmensinformation in Form von Geodaten runden diesen Kursteil ab. An diesem Punkt hat man eine Vorstellung davon, welche Methoden der Business Intelligence zu den einzelnen Anwendungskontexten des ersten Kursteils passen.
     
    Im Teil 3 geht es dann stärker um die technische Seite der vorgestellten Methoden. Interessant war zum Beispiel das Kapitel über In-Memory Computing in Verbindung mit Kompressionsverfahren, über hybride Datenhaltung (mit spaltenorientierten Datenbanken) und Parallelverarbeitung. Diese Techniken beschleunigen die Analyse aggregierter Unternehmensdaten enorm, so dass man Methoden der Business Intelligence zunehmed in Echtzeit anwenden kann. In den folgenden Kapiteln wird es formaler und theoretischer, denn nun geht es z.B. um multidimensionale Datenmodelle und ihre Realisierung mit verschiedenen Datenbanktypen. Hier spielt auch formale Notation eine große Rolle.
     
    In den letzten Kapiteln wird es wieder konkret. Hier wird die Arbeit mit einem OLAP-System im Text und durch Videos vorgestellt. Ein Fallbeispiel zum Data Warehouse der TUI rundet diesen Kursteil ab.
     
    Einsendeaufgaben
     
    Die Einsendeaufgaben erschienen mir oft recht knapp, konzentrierten sich aber das das wesentliche des vermittelten Stoffes. Man konnte mit ihnen also feststellen, ob man das jeweilige Kapitel verstanden hatte. Die Aufgabentypen waren so unterschiedlich wie der vermittelte Stoff: Konzepte erklären, unternehmerische Situationen einordnen, kleine Rechenaufgaben, Zeichnen von Diagrammen. Sie passten gut zu den Inhalten. Für meinen Geschmack hätte es aber etwas mehr sein dürfen. Interessant waren die letzten Aufgaben. Diese ergänzten die Videos zur Arbeit mit einem OLAP-System. Hier musste man Verständnisfragen beantworten. Dabei musste ich oft zurückspulen, um genauer zu sehen, was der User macht. Nicht selten habe ich bei der Bearbeitung feststellen müssen, dass ich beim ersten Zuschauen doch noch nicht ganz begriffen hatte, was dort ablief. Diese Aufgaben waren etwas umfangreicher und zwangen einen, genauer hinzuschauen. Mein Tutor äußerte in diesem Zusammenhang, dass mittlerweile auch brauchbare Open Source Werkzeuge verfügbar seien, so dass man künftig die Videos durch praktische Übungen an entsprechenden Systemen ersetzen könnte. Schade, dass das noch nicht so weit ist, denn die Idee finde ich gut.
     
    Die Korrekturen kamen schnell, was die zügige Bearbeitung des Moduls erleichterte. Die Rückmeldungen durch meinen Tutor hätten zum Teil ausführlicher ausfallen dürfen. Aber wenn ich einmal etwas nicht verstanden und konkret nachgefragt hatte, bekam ich stets Antworten.
     
    Präsenzklausur
     
    Die Klausur hatte 10 Aufgaben, die Stoff aus allen Kursteilen abdeckten. Die Aufgabentypen waren dabei recht unterschiedlich. Es gab reine Wissenfragen, Aufgaben, bei denen man etwas erklären sollte, Zuordnungsaufgaben, Aufgaben zur multidimensionalen Modellierung und kleinere Rechenaufgaben. (Bei der Klausur ist kein Taschenrechner erlaubt.) Insgesamt war es eine recht abwechslungsreiche Klausur, die gut zum Modul passte.
     
    Fazit
     
    Wirtschaftsinformatik ist ein Thema, mit dem ich nicht sofort warm geworden bin. Ursprünglich hatte ich das Modul Data Mining belegt. Dabei hatte ich mir erhofft, in erster Linie etwas über mathematische und statistische Grundlagen des Data Minings und ihre Implementierung in Code zu erfahren. Stattdessen nahm das Modul aber eine betriebswirtschaftliche Perspektive ein, was mir anfangs gar nicht gefiel. Im Laufe der Zeit merkte ich aber, dass die Wirtschaftsinformatik eine eigene fachliche Perspektive hat, die auch interessant ist. Darum war ich damals neugierig, auch noch das Modul Business Intelligence zu belegen, das noch einen Schritt weiter in diese Richtung geht.
     
    Meine Leidenschaft für Wirtschaftsinformatik habe ich noch nicht entdeckt, aber es war bereichernd, hier noch einmal einen Blick über meinen persönlichen Tellerrand werfen zu können. Gleichwohl vermute ich, dass angehende Web- und Medieninformatiker dieses Modul seltener wählen werden. Für die Wirtschaftsinformatiker ist es ja ohnehin Pflicht. Für die Zukunft wäre es wünschenswert, interaktive Übungen mit einem freien OLAP-System in das Modul aufzunehmen.
  19. kurtchen
    Die Projektarbeit
     
    Das Modul Projektarbeit ist für das 5. Fachsemester vorgesehen. Es ist ein Pflichtmodul sowohl für die angehenden Web- und Medieninformatiker als auch für die Wirtschaftsinformatiker. Wie bei fast allen Modulen wird der Workload mit 5 ECTS bewertet. Ich habe in der letzten Zeit über einzelne Module berichtet, bei denen ich fand, dass der Workload etwas zu großzügig bewertet war. In dieses Modul sind bei mir deutlich mehr als die angesetzten 150 Arbeitsstunden geflossen. Aus Gesprächen mit Kommilitonen weiß ich, dass es auch anderen so geht. Rückblickend würde ich also sagen: Manche Module machen etwas weniger Arbeit, andere mehr. Unterm Strich gleicht sich das aus. Ich würde allerdings vermuten, dass die Projektarbeit für ALLE Studierenden ein ordentliches Stück Arbeit wird. Insofern würde ich dazu raten, für dieses Modul deutlich mehr Zeit einzuplanen.
     
    Viele Studierende entwickeln ihre Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Dabei bleibt die Bachelorarbeit natürlich eine eigene wissenschaftliche Arbeit. Ich habe mich bislang dagegen entschieden, das so zu machen. Bachelorarbeit und Projektarbeit sollen in meinem Fall also nichts miteinander zu tun haben.
     
    Voraussetzungen
     
    Die inhaltlichen Voraussetzungen hängen bei diesem Modul stark davon ab, was für ein Thema man sich aussucht. Grundsätzlich soll die Projektarbeit in Zusammenhang mit belegten Modulen des eigenen Studienganges stehen. Ich möchte hier ein paar Module nennen, die für jede Projektarbeit wichtig sein sollten:
    wissenschaftliches Arbeiten Softwaretechnik 1-3  
    Das Modul "Wissenschaftliches Arbeiten" ist wichtig, weil die Projektarbeit formalen Kriterien genügen muss. Die Projektarbeit ist insofern schon eine Art Testlauf für die Bachelorarbeit.
     
    Die Module "Softwaretechnik 1-3" sind wichtig, weil die Projektarbeit in der Regel eine konstruktive Arbeit sein wird, d.h. man wird ein Problem durch Entwurf und Implementierung eines Software-Systems lösen. Dazu gehört natürlich eine Analyse der Problemdomäne und ein entsprechendes Requirements Engineering. Da objektorientierte Programmierung das derzeit vorherrschende Programmierparadigma ist, wird sich daran wahrscheinlich eine objektorientierte Analyse und ein objektorientierter Entwurf anschließen. Diese Dinge lernt man in den Modulen zur Softwaretechnik.
     
    Themenfindung
     
    Im Gegensatz zu anderen Modulen, bei denen die Inhalte durch Lehrbuch und Lernplattform vorgegeben sind, hat man im Modul "Projektarbeit" ein Vorschlagsrecht. Tatsächlich war ich etwas überrascht, nachdem ich das Modul gebucht hatte. Ich hätte erwartet, dass in der Lernplattform ein neuer Bereich freigeschaltet würde, wo noch einmal eine knappe Anweisung zur Themenfindung und weiteren Vorgehensweise gegeben wird. Das ist aber nicht der Fall. Stattdessen wird darauf gesetzt, dass die grundsätzliche Arbeitsweise durch das Modul "Wissenschaftliches Arbeiten" bekannt ist.
     
    Die genauere (auch zeitliche) Planung wird mit dem Betreuer vereinbart. Um einen Betreuer zu finden, braucht man aber zunächst ein Thema, denn das Studienbüro versucht, einen Betreuer zu vermitteln, der das gewählte Thema gut betreuen kann. Insofern muss man hier den ersten Schritt selber tun. Ein Blick auf die Homepage der FH Dortmund kann bei der Themenfindung helfen. Manche Professoren des Fachbereichs Informatik listen auf, was für Arbeiten in ihr Forschungs- und Lehrgebiet fallen. Leider betreuen nicht alle Professoren auch Studierende aus den Online-Studiengängen. Das liegt vermutlich daran, dass der Online-Studiengang "Web- und Medieninformatik" inhaltlich ein etwas anderes Profil hat als die Präsenzstudiengänge, wo man sich z.B. auch mit medizinischer Informatik oder technischer Informatik beschäftigen kann.
     
    Die Themenfindung hatte mir im Vorfeld viele Sorgen gemacht, denn im Gegensatz zu den meisten meiner Kommilitonen arbeite ich nicht im IT-Bereich. Mein Arbeitsbereich hat sogar besonders wenig Berührungspunkte damit. Die Chancen, dass mir am Arbeitsplatz ein gutes Thema über den Weg läuft, standen also schlecht Ich musste aktiv nach einem Anwendungskontext für mein Projekt suchen. Den fand ich an der örtlichen Universität.
     
    Dort findet Grundlagenforschung zur sogenannten biologischen Uhr statt. Dafür werden Organismen in einer Umgebung gehalten, in der sie einem künstlichen Tag-Nacht-Rhythmus ausgesetzt sind. Beispielsweise wird der Tag-Nacht-Rhythmus beschleunigt oder verlangsamt oder stundenweise verschoben. Bislang wird das durch Mikrocontroller gesteuert. Diese arbeiten Skripte ab, die in einem Texteditor erstellt werden. Schneller und komfortabler ginge es mit einem graphischen Editor. Ein bisschen komplexer als eine einfache Zeitschaltuhr ist das ganze schon. Verschiedene Farben sollten unabhängig voneinander geschaltet werden können. Man möchte verschiedene Übergangsfunktionen definieren können. Insbesondere der Umgang mit dem Thema Zeit kann verwirrend sein. Man muss Tage beschleunigt oder verlangsamt ablaufen lassen können. Für manche Experimente ist aber auch wünschenswert, Tage in mehr oder weniger als 24 Stunden zu unterteilen. Tage haben also eine virtuelle Dauer, die sich auf ihre interne Einteilung in Stunden bezieht, und eine reale Dauer, die sich auf die Zeit bezieht, in der sie abgefahren werden.
     
    Das Problem lösen könnte eine Kombination aus einem graphischen Editor auf dem Desktop und einer Steuersoftware auf einem Raspberry Pi. Da biologische Uhren eine gewisse Zeit brauchen, um sich an äußeren Rhythmen zu synchronisieren, können die Experimente 8-10 Wochen dauern. Eine hohe Zuverlässigkeit der Steuersoftware ist also nötig.
     
    Das Projektthema gefiel mir aus zwei Gründen:
    Den Anwendungskontext biologische Grundlagenforschung fand ich spannend. Da die Steuersoftware auf einem Raspberry Pi läuft, an den PWM-Treiber und Sensoren angeschlossen werden, hat das Projekt auch den Aspekt physical computing. Das spielte im Studiengang keine Rolle, war aber ein Thema, auf das ich neugierig war.  
    Im Mittelpunkt des Projektes stand aber die Entwicklung eines grafischen Editors für Lichtskripte. Dabei spielten GUI-Programmierung und Grafik eine Rolle. Daraus ergaben sich erste Bezüge zu Modulen des Studienganges. Und siehe da:  Auch das bei vielen Studierenden ungeliebte Modul "Mathe 2" konnte ich gebrauchen, weil ich mich an verschiedenen Stellen mit Koordinaten-Transformationen beschäftigen musste, die durch Zoomen, Scrollen oder Änderung der Fenstergröße entstehen. Lineare Algebra kann also durchaus nützlich sein.
     
    Finden eines Betreuers
     
    Hier habe ich zunächst auf eigene Faust einen möglichen Betreuer angeschrieben und ihm mein Thema vorgestellt. Dann wollte ich die Projektarbeit beim Studienbüro anmelden. Dort war man von meiner Vorgehensweise wenig begeistert. Das Studienbüro übernimmt nämlich üblicherweise eine Lotsenfunktion und hilft den Studierenden so, einen Betreuer zu finden, der zum Projektthema passt. Das überraschte mich, weil unsere Studiengangskoordinatorin keine Informatikerin ist. Mir war also anfangs nicht ganz klar, wie sie mir bei der Vermittlung helfen sollte.
     
    Nach einigem Überlegen war ich dann aber gewillt, die vorgeschlagene Beratung und Vermittlung zu nutzen. So kam es zu einem längerem Telefonat zwischen mir und unserer Studiengangskoordinatorin, bei dem ich meine Projektidee vorstellte. Es zeigte sich, dass ich völlig falsch eingeschätzt hatte, worauf es bei so einer Vermittlung ankommt. Die Studiengangskoordinatorin kennt die Professoren. Sie hat einen Überblick, wer von wem mit welchem Thema betreut wurde und wie das ganze ausgegangen ist. Sie weiß auch, wer aktuell Zeit hat, noch weitere Studierende aufzunehmen. Und sie kann gut einschätzen, wer zu wem passt. Beim Finden eines Betreuers spielen also neben "harten" fachlichen Kriterien auch "weiche" soziale und organisatorische Kriterien eine große Rolle. Und genau dabei kann die Studiengangskoordinatorin helfen. Für Fernstudierende ist das sogar besonders wichtig.
     
    Nach nach einigen E-Mails habe ich ein persönliches Beratungsgespräch mit meinem Betreuer vereinbart. Ich würde empfehlen, für solch ein Gespräch nach Dortmund zu reisen, weil man so in kurzer Zeit viel klären kann, was online langwierig und missverständlich ist. Es zeigt sich doch deutlich, dass Mimik, Gestik, Artikulation, Stimmungen und andere Faktoren sehr viel zu einer gelingenden Kommunikation beitragen. Jedenfalls hatte ich nach dem Gespräch eine klare Vorgehensweise im Kopf und konnte damit beginnen, einen Zeitplan für mein Projekt zu erarbeiten.
     
    Formale Anmeldung des Projektes
     
    Die folgende Kommunikation mit meinem Betreuer lief per E-Mail. Hier schrieb ich zunächst eine Vorstellung meines Projektes, entwarf eine Vorgehensweise, eine Gliederung der Arbeit und stellte einen Zeitplan auf. Nachdem das Form angenommen hatte, meldete ich die Arbeit formal an. Ab jetzt tickte die Uhr. Ab Anmeldung stehen 3 Monate zur Verfügung. Es ist daher günstig, vorher einen möglichst konkreten Plan zu formulieren und diesem mit seinem Betreuer abzustimmen.
     
    Als grobe Richtlinie für den Umfang wurden mir an die 50 Seiten genannt. Bei mir wurden es deutlich mehr, aber das war dem Thema geschuldet.
     
    Zum Ablauf des Projektes
     
    Hier möchte ich nicht allzu sehr ins Detail gehen, weil die Einzelheiten stark vom Projektthema abhängen, also nicht unbedingt auf andere Studierende übertragbar sind. Folgende Artefakte entstanden in etwa dieser Reihenfolge:
    Analyse der Problemdomäne Analyse der Nutzergruppe Glossar Lastenheft handschriftliche Skizzen des UIs Mock-up des UIs UML-Klassendiagramme des Datenmodells UML-Klassendiagramme im Rahmen des objektorientierten Entwurfs UML-Paketdiagramm Modellierung als Zustandsautomat eine XML-Schema-Definition Java-Quellcode JavaDoc  
    Schön wäre gewesen, dem Thema Tests noch Raum zu geben. Allerdings passte das zeitlich nicht mehr in den Rahmen und die Arbeit war ja auch schon recht umfangreich.
     
    In den ersten Wochen schickte ich meinem Betreuer einzelne Textbausteine und erhielt dazu auch Feedback. Wie in der Vorbesprechung angekündigt, zog er seine Unterstützung allmählich zurück, um mich dann etwa ab der Hälfte des Projektes möglichst selbstständig arbeiten zu lassen. Ab diesem Zeitpunkt hätte ich weiter Hilfestellung bekommen können, wenn ich ausdrücklich darum gebeten hätte. Aber hier ging es darum, zu zeigen, wie ich alleine zurecht komme. Diese Vorgehensweise erschien mir didaktisch sinnvoll.
     
    Die Rückmeldungen durch meinen Betreuer kamen sehr zügig. Neben dem fachlichen Aspekt spielten die Konventionen wissenschaftlichen Arbeitens eine große Rolle. Gerade hier waren seine Rückmeldungen hilfreich.
    Die Erstellung der Artefakte und das Schreiben der eigentlichen Projektarbeit wechselten sich ab. Die Arbeit entstand also abschnittsweise und war so auch eine Dokumentation des Projektverlaufes. Eine große Rolle spielte es, getroffene Entscheidungen zu reflektieren, zu begründen und gegen andere mögliche Entscheidungen abzuwägen. Dabei war es auch immer wieder nötig, Kompromisse einzugehen, um das Projekt in der vorgegebenen Zeit zu einem Abschluss führen zu können. Andererseits war es mir stellenweise auch möglich, Themen zu erkunden, die mich besonders interessiert haben.
     
    Stand am Ende des Projektes
     
    Am Ende des Projektes gab es einen lauffähigen Prototypen des grafischen Editors mit den wesentlichsten Funktionen. Außerdem gab es einen Prototypen der Steuersoftware auf dem Raspberry Pi, der zunächst als Kommandozeilenanwendung funktionierte, die per SSH aufgerufen wurde. Mit dieser Kombination ist es nun möglich, Lichtskripte zu erstellen und Tests mit dem Raspberry Pi durchzuführen. Das ist für die Nutzer wichtig, weil diese sehen wollen, dass der Raspberry Pi Lichtprogramme zuverlässig über 8-10 Wochen ausführen kann. Sollte das der Fall sein, wäre die nächste Entwicklungsstufe ein grafischer Client, um Lichtskripte auf entfernte Raspberry Pi Steuerrechner zu laden und deren Ausführung zu überwachen. Die Steuersoftware müsste dafür zum Server einer verteilten Anwendung ausgebaut werden.
     
    Der Aspekt physical computing spielte im Projekt eine geringere Rolle als erhofft, weil ich den größeren Teil der Entwicklungszeit für den graphischen Editor verwenden musste. Würde ich das Projekt für meine Bachelorarbeit fortführen, würden die nächsten Projektschritte mehr mit dem Raspberry Pi, mit Sensoren und mit Netzkommunikation zu tun haben. Aber für die Bachelorarbeit möchte ich ja etwas anderes machen.
     
    Wissenschaftliches Arbeiten
     
    Wissenschaftliches Schreiben spielt für eine Projektarbeit eine große Rolle. Hilfreich war für mich, dass ich mir schon im Modul "Wissenschaftliches Arbeiten" eine Dokumentenvorlage erstellt hatte. Das war damals keine formale Anforderung, um das Modul gut abzuschließen, aber diese investierte Zeit lohnte sich für mich. Ich konnte meine Vorlage leicht für die Erfordernisse der Projektarbeit erweitern und glaube, sie auch für die Bachelorarbeit gut weiterverwenden zu können.
     
    Benutzt habe ich LibreOffice. Gelegentlich höre ich die Meinung, dass Informatiker ihre Arbeiten per se mit LaTex schreiben. Und dass Office-Software für längere Dokumente per se ungeeignet sei. Ich bin mit LibreOffice gut zurecht gekommen und plane bislang, das auch für meine Bachelorarbeit einzusetzen. Allerdings enthielt meine Projektarbeit auch relativ wenige mathematische Formeln, sonst wäre LaTex wahrscheinlich geeigneter gewesen. Wichtig war, sich gute Vorlagen zu erstellen, um dann Verzeichnisse für Abbildungen, Codebeispiele und Tabellen auch automatisch erzeugen zu lassen.
     
    Häufig gehört habe ich auch, man solle eine eigene Software zur Literaturverwaltung einsetzen, z.B. Zotero. Ich habe für die Projektarbeit an die 20 Quellen referenziert. Bei diesem Umfang sehe ich noch nicht, dass sich der Zeitaufwand für die Einarbeitung in solch eine Software rentiert. Das würde bei einer Arbeit mit deutlich mehr Quellen natürlich anders aussehen.
     
    Gegen Ende des Projektes sollte man in jedem Fall einen Puffer von einer Woche einplanen, z.B. für Korrekturen. Auch das Drucken und Binden der Arbeit braucht seine Zeit. Ich habe im CopyShop gemerkt, dass viele Studierende auf den letzten Drücker kommen und am liebsten noch am selben Tag ihre gebundene Arbeit mit nach Hause nehmen wollen. In Uni-Städten kann das aber zu bestimmten Zeiten problematisch werden, z.B. kurz vor Beginn eines neuen Semesters. Wenn man sich unnötigen Stress ersparen will, ist es daher gut, ein paar Tage Spielraum zu haben.
     
    Einreichen der Arbeit
     
    Die Arbeit wird zwei Mal ausgedruckt und ringgebunden. Sie muss zusätzlich als PDF auf CD oder DVD gebrannt und hinten eingeklebt werden. Wenn man die Arbeit per Post noch Dortmund schickt, gilt das Datum auf dem Einlieferungsbeleg als Abgabedatum. Das Studienbüro bestätigt den fristgerechten Eingang per Mail. Wenn nach ein paar Tagen keine Bestätigung kommt, sollte man also stutzig werden.
     
    Das Ergebnis kam in meinem Fall nach weniger als 3 Wochen. Ich bin zufrieden damit. Gut fand ich, dass die Rückmeldungen zu Beginn meines Schreibprozesses und die abschließende Bewertung zueinander passten. Ich finde also, dass mir die Kriterien, die an eine Projektarbeit angelegt werden, transparent vermittelt wurden. Und zwar nicht nur im Vorfeld durch das Modul "Wissenschaftliches Arbeiten" sondern auch in der Betreuung.
     
    Fazit
     
    Die Projektarbeit hat viel Spaß gemacht, weil ich Themen aus verschiedenen Modulen verbinden konnte, länger selbstständig an einem Thema arbeiten konnte und weil eigene Ideen gefragt waren. Gut gefallen hat mir auch die Betreuung durch meinen Professor, die anfangs noch recht intensiv war und dann in didaktisch sinnvoller Weise zurückgefahren wurde, so dass ich auch mal "ohne Stützräder" fahren musste. Interessant und bereichernd war auch die Interaktion mit den Wissenschaftlern, die Editor und Steuersoftware einmal nutzen sollen.
     
    Auch das wissenschaftliche Schreiben als solches hat mir Spaß gemacht. Die Erfahrungen damit werden mir sicher noch nützlich sein. Ich glaube, nun eine realistischere Vorstellung davon zu haben, was mich in der Bachelorarbeit erwartet. Darauf freue ich mich, aber ich habe auch ganz schönen Respekt davor. Wenn ich mein Studium erfolgreich abschließen will, werde ich mir meine Zeit sehr gut einteilen müssen.
     
    Leider hat die Projektarbeit viel mehr Zeit verschlungen, als ich erwartet hätte. Ich hatte gehofft, nebenbei noch ein bis zwei Module abschließen zu können, musste aber einsehen, dass das nicht realistisch war.
     
    10 Tipps zur Projektarbeit
     
    Wählt ein Thema, auf das ihr Lust habt. Die Projektarbeit kostet ungewöhnlich viel Zeit. Wenn man nur darauf aus ist, die nächsten 5 ECTS abzuhaken, kann das demotivierend wirken. Darum ist es wichtig, auch eine intrinsische Motivation aus der Arbeit selbst zu ziehen. Fangt rechtzeitig mit der Suche nach dem Thema an. Ein Semster Vorlauf schadet nicht. Wenn man mit suchendem Auge durch die Welt geht, sieht man auch Gelegenheiten, die man vorher nicht wahrgenommen hätte. Allerdings laufen einem gute Gelegenheiten nicht unbedingt sofort über den Weg. Schaltet man das suchende Auge rechtzeitig ein, so gibt man dem Zufall eine Chance. Nehmt die Beratung durch das Studienbüro in Anspruch. Man betreut dort viele Studierende und hat daher einen besonderen Blickwinkel, den ihr nicht haben könnt. Trefft euren Betreuer. Von Angesicht zu Angesicht kann man in kurzer Zeit viel klären. Grenzt euer Thema gut ein. Es wird in der Projektarbeit nicht möglich sein, ein Thema erschöpfend zu behandeln. Was für ein Ziel kann man also in 12 Wochen realistisch erreichen? Macht einen Plan. Erstellt eine Gliederung und überlegt euch, wann ihr wie weit gekommen sein wollt. Behaltet euren Plan im Blick. Belegt "Wissenschaftliches Arbeiten" nicht ganz zu Beginn eures Studiums sondern im 4. Fachsemester, wenn die Projektarbeit in Sicht kommt. Nehmt das Modul ernst. Es ist nicht nur ein Pflichtmodul, das 5 ECTS bringt. Haltet Kontakt zu eurem Betreuer. Schickt Bausteine der Projektarbeit und nutzt das Feedback, das ihr bekommt. Macht euch vorher eine gute Dokumentenvorlage. Plant am Ende ein paar Tage Puffer für Korrekturen und Druck ein.
  20. kurtchen
    Das Modul IT-Recht ist bei Springer Campus ein Pflichtmodul in den beiden Studiengängen Web- und Medieninformatik sowie Wirtschaftsinformatik. Laut Studienplan ist es für das erste Fachsemester vorgesehen. IT-Recht ist außerdem ein Pflichtmodul der wissenschaftlichen Weiterbildung "Software-Manager".
     
    Ich bin im Studium schon recht weit fortgeschritten und habe das Modul im ersten Semester nicht belegt, weil ich erst einmal schauen wollte, ob ich mit Fächern wie Mathematik oder Programmierung zurecht kommen würde. Die Beschäftigung mit Recht kannte ich ein bisschen aus meiner Ausbildung. Dort ging es zwar um ganz andere Gebiete des Rechts, aber immerhin habe ich damals den Eindruck gewonnen, dass ich mich mit solchen Fragen auseinandersetzen kann, auch wenn es mich nicht unbedingt brennend interessiert. Insofern habe ich die Belegung dieses Modul anfangs vertagt und es später irgendwie aus den Augen verloren. Jetzt, im letzten Abschnitt meines Studiums, war mir aufgefallen: "Da fehlt doch noch ein Pflichtmodul!"
     
    Also war das Thema jetzt einfach "dran".
     
    Das Lehrbuch
     
    Das Buch "IT-Recht" von Axel Sodtalbers, Christian Volkmann und Andreas Heise liegt mir in einer Auflage von 2010 vor. Sein Umfang ist mit 315 Seiten für ein Lehrbuch bei Springer Campus etwas unterdurchschnittlich. Gegliedert ist das Buch in drei Teile. Zunächst geht es um Softwarerecht, dann E-Commerce-Recht und schließlich Datenschutzrecht. Gerade beim letzten Thema hat es ja mit der DSGVO viele Neuerungen gegeben. So viel sei vorweg genommen: Acht Jahre sind speziell bei diesem Thema eine lange Zeit. Dieser Teil des Lehrbuches müsste inhaltlich dringend überarbeitet werden.
     
    Teil 1 - Softwarerecht
     
    Dieser Teil beginnt mit dem Thema Urheberrecht. Es geht darum, wer überhaupt Urheber ist, wie man einer wird und wieso Software unter das Urheberrecht fällt (aber z.B. das Design einer Blumenvase im allgemeinen nicht). Auch die Themen Patentrecht und Halbleiterschutz werden angerissen. Bei Software sind gegenüber anderen geistigen Schöpfungen wie z.B. einem Roman ein paar Besonderheiten zu beachten. Zum einen wird Software von Entwicklern meist im Rahmen eines Dienst- oder Arbeitsverhältnisses erstellt. Die Entwickler sind dann zwar Urheber, aber das Recht zur wirtschaftlichen Verwertung ihrer Schöpfung hat ihr Arbeitgeber. Zum anderen wird Software heute überwiegend in Teams entwickelt. Das gilt schon für kleine Independent Games. Die Zeiten, in denen ein pfiffiger Programmierer im Alleingang einen großen Spielehit oder eine revolutionäre neue Office-Anwendung entwickeln konnte, liegen eine Weile zurück. Es gibt also meistens viele Miturheber.
     
    Software wird programmiert, weil man sie nutzen und verwerten möchte. Dazu werden Verträge geschlossen. Insofern spielt das Vertragsrecht eine wichtige Rolle. Interessant war für mich, dass auch bei Individualsoftware im allgemeinen ein Kaufvertrag und nicht etwa ein Werkvertrag zustande kommt. Wenn man etwas verkauft, so unterliegt man der Gewährleistung. Wenn man möchte, kann man durch einen zusätzlich geschlossenen Vertrag darüber hinaus gehende Garantien geben. Kaufverträge enthalten oft AGBs, die jedoch - wenn sie schlecht verfasst sind - unwirksam sein können. Es ist juristisch schwierig, insbesondere die Rechte von Verbrauchern durch ABGs wirksam einzuschränken.
     
    Alle diese Themen sind eigentlich allgemeines Recht. Verwiesen wird im Lehrbuch vor allem auf das BGB. Das ist allerdings ein Aspekt des Kurses, der mir gut gefallen hat. Vieles im IT-Recht ist zunächst einmal allgemeines Recht, das in einem speziellen Kontext angewendet wird. In manchen Fällen hat dieser Kontext starke Auswirkungen, in anderen nicht. Jedenfalls lernt man in diesem Lehrbuch durchaus ein paar Dinge, über die man als Bürger und Verbraucher ohnehin informiert sein sollte. (Aber leider oft nicht ist!) Insofern ist dies zwar ein Modul für Informatiker, es hat aber eine gewisse allgemeinbildende Komponente. So etwas schätze ich sehr.
     
    Die Fallbeispiele und Übungsaufgaben sind in der Regel in einem IT-Kontext angesiedelt. Meist zielen die Aufgaben darauf ab, zu zeigen, welches allgemeine Recht hier Anwendung findet. Neben der reinen Aufzählung wird dabei natürlich auch eine Begründung und eine Abwägung erwartet.
     
     
    Dieses Zitat wird dem US-Journalisten Dan Rather zugeschrieben. Software erledigt in der Regel routinemäßig anfallende Tätigkeiten automatisiert. Das hat eine unangenehme Folge. Arbeitet sie fehlerhaft, wird der Fehler oft tausendfach wiederholt, was den Schaden in die Höhe treibt. Software wird auch in sicherheitskritischen Bereichen eingesetzt. Zur Steuerung medizinischer Geräte oder zur Steuerung von Maschinen, von denen eine erhebliche Unfallgefahr ausgeht. Insofern ist der Bereich Haftung bei Softwarefehlern für die Hersteller sehr wichtig. Hier ist zu beachten, dass man insbesondere bei Schäden für Leib und Leben die Haftung nicht grundsätzlich durch einen Vertrag ausschließen kann. Und der Hersteller einer Software haftet nicht nur gegenüber seinen Kunden, mit denen er einen Vertrag hat, sondern um Umständen auch gegenüber Dritten, die durch einen Fehler seiner Software geschädigt wurden. Mit neuen Anwendungen wie dem autonomen Fahren wird dieses Thema sicher noch drängender werden. Das autonome Fahren ist übrigens bereits Teil einer Übungsaufgabe, wenn auch im Zusammenhang mit einer Straßenbahn und nicht mit einem Auto.
     
    Bleibt noch der für mich besonders spannende Bereich der Open Source Software. Hier geht es darum, verschiedene Arten von Open Source Lizenzen zu unterscheiden. Wer quelloffenen Code in einem eigenen Produkt verwendet muss je nach Lizenz unterschiedliche Dinge beachten. Gut, sich einmal mit so etwas zu beschäftigen.
     
    Dieser erste Teil des Moduls hat mir insgesamt gut gefallen. Ich konnte dem Text gut folgen, fand die Fallbeispiele nachvollziehbar und gut ausgewählt. Tests und Übungsaufgaben erschienen mir gut darauf abgestimmt.
     
    Teil 2 - E-Commerce-Recht
     
    In diesem Teil ging es zunächst noch einmal um das Vertragsrecht, diesmal im Zusammenhang mit E-Commerce. Der Gesetzgeber berücksichtigt, dass Kunden im Zusammenhang mit dem Online-Handel weniger Möglichkeiten haben, Ware vor Abschluss eines Vertrages zu prüfen und sich ein Bild vom Verkäufer einer Sache zu machen. Darum hat der Gesetzgeber mit dem Fernabsatzgesetz und dem Telemediengesetz dem Käufer zusätzliche Rechte verschafft und den Verkäufern und Anbietern umfangreiche Informationspflichten auferlegt. Da heute praktisch jeder Waren im Internet bestellt, dürfte dieses Kapitel für jeden relevant und interessant sein.
     
    Im nächsten Abschnitt geht es um Urheberrecht im Internet. Hier dreht es sich um Themen wie Schutz des Designs einer Webseite, Raubkopien geschützer Inhalte aber auch um das Recht auf Privatkopie. Neben dem Urheberrecht spielt bei Webinhalten auch das Markenrecht, das Domainrecht und das Wettbewerbsrecht eine Rolle. Hier landet man schnell bei einem ungeliebten aber wichtigen Thema: "Was gehört in ein Impressum?"
     
    Bei allem Ärger über den Abmahnirrsinn versteht man nach diesen Kapiteln immerhin etwas besser, was die grundlegende Idee hinter den einschlägigen und oft lästig erscheinenden Gesetzen ist.
     
    Recht spannend ist das Thema der Verantwortlichkeit im Internet, insbesondere wenn es um Inhalte geht, die Rechte verletzen. Das spielt ja auch hier im Forum eine Rolle. So ist zum Beispiel unser Forumsbetreiber Herr Jung als Access-Provider rechtlich nicht verpflichtet, jeden Post VOR seiner Veröffentlichung auf Rechtsverletzungen hin zu überprüfen. Das entbindet ihn aber nicht von seiner Pflicht, entsprechende Inhalte bei Bekanntwerden eines Rechtsverstoßes zu entfernen. Es gibt hier im Forum ja einige Regeln, die Teilnehmer zu beachten haben. Insbesondere gibt es auch Konsequenzen, wenn Regeln nicht eingehalten werden. Dies dient natürlich zum Teil auch dazu, eine gewisse "Forumskultur" zu erhalten. Fernstudium-Infos soll ja einerseits themenbezogen bleiben und andererseits sollen sich Nutzer auch wohl fühlen können. Aber ein Teil der Regeln und Konsequenzen dürfte eben auch damit zu tun haben, dass Herr Jung als Forumsbetreiber nicht für Rechtsverstöße seiner Nutzer haften möchte. Das entsprechende Kapitel im Lehrbuch schafft ein erstes Bewusstsein für diese Problematik.
    Kurz gestreift werden Fälle mit Berührung zum Ausland, was ja beim Anbieten von Waren, Leistungen und Inhalten im Netz häufig der Fall ist.
     
    Bis hierhin gefielen mir Lehrbuch, Tests und Aufgaben ausgesprochen gut. Stellenweise bemerkte ich bei meinen Recherchen zu Einsendeaufgaben, dass manche Gesetze und Verordnungen inzwischen durch neuere ersetzt waren. Das betrifft zum Beispiel weite Teile der BGB-InfoV, die inzwischen durch das EGBGB abgelöst wurde und eigentlich nur noch für Reiseverträge relevant ist. Das finde ich aber gar nicht schlimm. Recht ist ein menschliches Artefakt. Es entwickelt sich durch Gesetzgebung und Rechtsprechung. Schadet gar nicht, wenn man das als Studierender beim Bearbeiten eines Moduls in angemessener Dosierung zu schmecken bekommt.
     
    Teil 3 - Datenschutzrecht
     
    Leider finde ich die Dosierung im letzten Teil des Buches nicht mehr angemessen. In den letzten Wochen und Monaten hat vermutlich jeder Leser an seinem Mail-Eingang gemerkt: Die DSGVO ist in Kraft getreten und bringt z.B. neue Informationspflichten mit sich. Leider spielt sie im Lehrbuch keine Rolle. Ich versuche zunächst mal, diesem letzten Teil des Kurses etwas positives abzugewinnen, was durchaus gelingt.
     
    Geklärt werden zunächst einmal verschiedene Begrifflichkeiten im Zusammenhang mit Datenschutz, die als konzeptionelle Grundlage nicht verkehrt sind. Insbesondere begreift man bei Lektüre der Kapitel schnell: Nach bisherigem Datenschutzrecht sind eigentlich formulierte Ansprüche wie Auskunft über gespeicherte Daten, Löschung, Sperrung oder auch Berichtigung von falschen Daten für einen Betroffenen praktisch nur selten durchzusetzen. Das liegt daran, dass die bisherigen Datenschutzgesetze viele Ausnahmen formulierten. Tatsächlich fiel es mir beim Lesen der Gesetze oft schwer, unter den ganzen Ausnahmen auch noch meine Rechte zu entdecken. Insofern kann man sagen: Der bestehende Datenschutz ließ zu wünschen übrig. Und das, obwohl sich mit dem Internet die Möglichkeiten der missbräuchlichen Nutzung von Daten potenziert haben. Dafür schafft das Kapitel also ein Bewusstsein.
     
    Nun hätte ich gerne gewusst, ob das alles mit der DSGVO aus Betroffenensicht besser wird. Immerhin haben ja Firmen, Vereine und öffentliche Einrichtungen viel Arbeit damit, die neuen Regeln umzusetzen. Steht dem auch ein Nutzen für mich gegenüber? In diesem Modul erfährt man es leider nicht. Dafür ist es zu alt.
     
    Immerhin glaube ich, nach der Lektüre dieses Kursteils begrifflich besser gerüstet zu sein, Texte zur DSGVO zu lesen und zu verstehen. Das ist zwar auch ein Ergebnis, aber insgesamt finde ich das bei diesem Thema zu wenig. Insofern wäre es dringend Zeit, dass Lehrbuch in diesem Punkt auf einen aktuellen Stand zu bringen. Denkbar wäre auch, entsprechende Kapitel zumindest auf der Online-Plattform zügig nachzurüsten.
     
    Ob es entsprechende Pläne gibt, weiß ich nicht. Aber stünde ich noch am Anfang meines Studiums, würde ich mich vor Belegung des Modul einmal danach erkundigen. Um dann gegebenenfalls die Belegung noch zu verschieben.
     
    Tests, Einsendeaufgaben und Online-Klausur
     
    Über die tutorielle Betreuung kann ich mich nicht beschweren. Die Korrekturen kamen sehr zügig, auch bei der Online-Klausur. Die Tests haben für mich viele unklare Punkte noch einmal ausgeleuchtet. Die Einsendeaufgaben gefielen mir gut, auch und gerade im Hinblick auf die Präsenzklausur. Den Abschlusstest fand ich zu leicht bzw. nicht umfangreich genug. In der zur Verfügung stehenden Zeit hätte man durchaus etwas mehr verlangen dürfen, zumal diese Tests ja automatisch ausgewertet werden, also keinen Korrekturaufwand verursachen. Gut gefallen hat mir dagegen die Online-Klausur, weil die Aufgaben das gesamte Modul gut abdeckten und die Themen zum Teil auch vernetzten. Die Online-Klausur gibt auch in diesem Modul einen Vorgeschmack auf Art und Umfang der Aufgaben in der Präsenzklausur, ohne dieser vorzugreifen. So sollte es sein.
     
    Präsenzklausur
     
    Ob ich bei der Präsenzklausur auch geliefert habe, wird sich zeigen müssen. Im Vergleich zu den Einsendeaufgaben gab es nämlich einen großen Unterschied: Bei den Einsendeaufgaben konnte ich im Internet nach Gesetzen suchen und mir auch Kommentare oder Urteile durchlesen. Das half dabei, die Fallbeispiele zu beurteilen. Das ging in der Klausur natürlich nicht. Dort war ich auf das angewiesen, was mir auf Papier zur Verfügung stand. Interessant fand ich, dass das Thema Datenschutz keine große Rolle spielte. Vielleicht wird ja auf diese Weise berücksichtigt, dass die entsprechenden Kapitel im Lehrbuch nicht mehr aktuell sind. Ansonsten deckten die Aufgaben den Stoff sehr breit ab. Viele Aufgaben verbanden auch den Stoff verschiedener Kapitel im Lehrbuch. Es hat mir gut gefallen, dass so unterschiedliche Gesichtspunkte zu berücksichtigen waren. Insgesamt war es eine Klausur, die durchaus auch ein bisschen Spaß gemacht hat.
     
    Fazit
     
    Insgesamt bin ich nun aber froh, mein letztes Pflichtmodul einer schriftlichen Prüfung abgehakt zu haben. Es hat mir mit Sicherheit nicht geschadet, mich wieder einmal mit dem Thema Recht zu beschäftigen, aber Neigung und Interesse richten sich bei mir dann doch auf andere Dinge. Insbesondere sitzt mir das Thema Projektarbeit um Nacken. Hier muss ich nun rasche Fortschritte machen, um die gesetzte Abgabefrist auch einzuhalten. Habe ich einmal freie Zeit, so kreist mein Denken um mein Projekt und nicht so sehr um das Lehrbuch des nächsten Moduls.
     
    Darum habe ich auch ein wenig abgewogen, ob ich mir die Zeit für einen umfangreichen Modulbericht nehmen sollte. Zwei Punkte haben mich dazu bewogen:
    Bislang habe ich für jedes Modul, das ich belegt habe, auch einen Bericht geschrieben. Vor Aufnahme meines Studiums habe ich nach genau solchen Informationen gesucht und sie nicht gefunden. Das war für mich die wesentliche Motivation, diesen Blog anzufangen.
    Insofern habe mich entschieden, die Sache "durchzuziehen". Allzu viele Beiträge müssen es ja nun nicht mehr werden.
     
    Sollte ich IT-Recht bestanden haben, so bleiben mir tatsächlich nur noch 2 Pflichtmodule: Das Projekt und die Bachelorarbeit. Ich befinde mich nun also im letzten Abschnitt meines Studiums, wo es nicht mehr um Aneignung von Wissen geht, sondern darum, dieses anzuwenden und eigenständig neue Themen zu erkunden. Darauf fühle ich mich durch mein bisheriges Studium tatsächlich vorbereitet und ich freue mich auch darauf.
  21. kurtchen
    Hier kommt die Fortsetzung meines Berichts über den Springer Campus Präsenztag am 10.03.2018.
     
    12:15 Uhr - Vortrag: Big Data, Prof. Dr. Uwe Schmitz, FH Dortmund
     
    Ich gebe die Inhalte des Vortrages auf der Grundlage eigener Notizen in knapper Form wieder.
     
    Ausgangssituation
    Es ist zu erwarten, dass Industrie 4.0 die Industrieproduktion verändern wird. Es fallen massenhaft strukturierte Daten aus operativen Informationssystemen an. Hinzu kommen massenhaft unstrukturierte Daten, z.B. aus sozialen Netzwerken. Viele der anfallenden Daten bleiben noch ungenutzt.  
    Was kennzeichnet Big Data?
    Volume (Umfang): Das Datenvolumen steigt jedes Jahr im den Faktor 40. Variety (Vielfalt): Es gibt eine Vielfalt der Formate und der Quellen. Daten können strukturiert, unstrukturiert und halbstrukturiert vorliegen. Strukturierte Daten kennzeichnen klassische Datenbanken. Unstrukturierte Daten sind z.B. Photos, Videos oder Audiodateien. Halbstrukturierte Daten sind z.B. E-Mails oder Word-Dokumente. Velocity (Geschwindigkeit): Hier geht es um die Geschwindigkeit, mit der Daten generiert und ausgewertet werden. Velocity hat zwei Aspekte. Zum einen die Geschwindigkeit, mit der Daten verarbeitet werden. Zum anderen die Geschwindigkeit, in der Daten sich ändern. Heute möchte man Updates möglichst in Echtzeit, d.h. die Geschwindigkeit der Verarbeitung soll mit der Geschwindigkeit der Veränderung Schritt halten. Veracity (Richtigkeit): Dies betrifft die Datenqualität. Man möchte wissen, mit welcher Wahrscheinlichkeit ein Wert valide ist. Beispielsweise müssen Stromerzeuger recht zuverlässig wissen, wie das Wetter der nächsten Tage wird, denn das beeinflusst Produktion und Verbrauch von Strom. Value (Mehrwert): Das Sammeln und Auswerten von Daten ist kein Selbstzweck. Die dazu nötigen Investitionen müssen sich lohnen.  
    Aktuell bedeutsame Datenquellen sind noch immer Transaktionsdaten, Protokolldaten, Ereignisdaten. Transaktionsdaten werden seit Jahrzehnten in klassischen relationalen Datenbanken erfasst. Auch Log-Dateien gibt es seit langem. Für die Zukunft werden große Zuwächse bei anderen Datenquellen prognostiziert, z.B. bei Social Media, Sensordaten oder Geodaten.
     
    Die gesammelten Daten sind potentiell in allen Unternehmensbereichen nützlich, also z.B. im Vertrieb, in Finanzen & Controlling, im Marketing, in der Produktion, der Logistik, im Supply-Chain-Management und im Kundenservice.
     
    Big Data Technologie leistet einen unverzichtbaren Beitrag für die Industrie 4.0. Zu nennen sind vier Bereiche:
    Smart Factory: Sensoren schaffen bessere Planungsfähigkeit. Smart Operations: Vernetzte Produktion ermöglicht flexible Steuerung der Produktion. Smart Service: Durch Vernetzung von Produkt und Hersteller und werden neue Dienstleistungen möglich. Smart Products: Hier gab es eine kleine Diskussion über die Frage, was ein smartes Produkt kennzeichnet.  
    Beispiel Netflix
     
    Die Plattform versucht vorauszusagen, was Nutzer künftig sehen wollen. Nutzerprofile werden dazu ausgewertet, z.B. Korrelationen, wann ein begonnener Film abgebrochen wurde. Auf diese Weise werden Präferenzen für Schauspieler, Inhalte, Themen und ähnliches für bestimmte Nutzergruppen ermittelt. Dies hat Auswirkungen auf die Produktion von Serien. Zum Beispiel wurde die bekannte Serie "House of Cards" auf der Grundlage solcher Nutzerdaten produziert. (Eigene Anmerkung: Natürlich haben Produzenten von Filmen und Serien immer versucht, den Geschmack ihrer Zielgruppen zu treffen. Neu erscheint mir hier, die Geschwindigkeit der Rückkopplung und die Verknüpfung von Informationen. Früher konnte man sagen, dass die Einschaltquoten für eine Serie zurückgegangen sind. Für jeden Zuschauer, der abspringt, kann man heute sagen, was er stattdessen geschaut hat.)
     
    Big Data Technologien verändern die Datenhaltung, den Datenzugriff, die analytische Verarbeitung, die Datenintegration und die Visualisierung.
     
    Beispiel Datenhaltung
     
    In-Memory-Datenbanken laden bei Programmstart den kompletten Datenbestand in den Hauptspeicher. Dies erhöht die Geschwindigkeit der Verarbeitung erheblich. Die Datenbankserver müssen dann natürlich besonders gegen Stromausfälle gesichert werden, z.B. durch Akkus. In zeitlichen Abständen gibt es Backups auf nicht-flüchtige Datenspeicher (Save Points). Diese Datenbanken können viele Terrabytes umfassen. Aufgrund der hohen Geschwindigkeit entfällt der bisherige ETL-Prozess. (ETL steht für Extract, Transform, Load. Bislang mussten Daten aus operativen Systemen aufbereitet und verdichtet werden, bevor man sie analysieren konnte. In-Memory-Datenbanken sind schnell genug, um direkt auf den vollständigen operativen Datenbeständen zu arbeiten.) Vorteile sind z.B. schnelle Reaktion auf Preisschwankungen, schnelle Sperrung bei Missbrauchsverdacht, schnelle Reaktion auf aufkommende Gerüchte (Shitstorm-Erkennung!), Verringerung von Out-of-shelf-Problemen, positiveres Image durch schnellere Reaktion auf Kundenanfragen. Ein Beispiel für eine In-Memory-Datenbank wäre SAP Hana.
     
    Beispiel Sentiment-Analyse
     
    Bei der Sentiment-Analyse geht es darum, wie eine Person zu etwas steht. So gibt es mittlerweile Standard-Extraktoren für Posts auf Plattformen wie Twitter und Facebook über standardisierte Schnittstellen. Diese ermitteln z.B. Korrelationen zwischen Schlüsselwörtern und Adjektiven wie "successful" oder "bad". Auf die Weise kann man nicht nur schnell ermitteln, wie ein Produkt, ein Service oder eine Organisation wahrgenommen wird, sondern auch, wie diese Wahrnehmung sich aktuell verändert. Das kann man im Marketing und in der Öffentlichkeitsarbeit nutzen.
     
    Anforderungen
     
    Um Big Data nutzen zu können, muss man verschiedene Arten von Anforderungen erfüllen:
    Technische Anforderungen: Dazu zählen z.B. Skalierbarkeit, um mit dem rasanten Wachstum der Bestände Schritt halten zu können, aber auch Schnittstellen, um Daten aus immer vielfältigeren Quellen verknüpfen zu können. Personelle Anforderungen: Es erweist sich als schwierig, Mitarbeiter mit den nötigen Kompetenzen zu beschaffen. Dazu später mehr bei den Herausforderungen. Organisatorische Anforderungen: Man braucht Regelungen zum Umgang mit den neuen Daten. Auch Regelungen zum Datenschutz sind wichtig. (Wie man in jüngerer Zeit immer wieder erleben muss, kann sorgloser Umgang mit Kundendaten den Ruf eines Unternehmens nachhaltig schädigen.) Projektspezifische Anforderungen: Hier geht es darum, Business-Cases zu finden, also Möglichkeiten, durch Analyse und Verknüpfung von Daten einen Mehrwert zu erzeugen. Dies könnten Einsparungen in der Produktion sein, eine schnellere Bereitstellung von Diensten als Mitbewerber, eine gezieltere Ansprache von Kunden durch Werbung, eine bessere Planung des Produktportofolios und vieles mehr.  
    Herausforderungen beim Einsatz von Big Data
     
    Der Einsatz und die Einführung von Big Data Technologien ist mit verschiedenen Herausforderungen verbunden:
    Fehlendes analytisches Know-How: Ideale Mitarbeiter haben Kenntnisse in Statistik, BWL und Informationstechnologie. Die Person, die diese Fähigkeiten kombiniert, nennt man Data Scientist. Offen bleibt die Frage, wie wahrscheinlich es ist, diese Kompetenzen tatsächlich häufig genug vereint in einer Person zu finden. Voraussichtlich wird man eher interdisziplinäre Teams bilden müssen. Datenschutz: Hier geht es einerseits darum, was Unternehmen dürfen und müssen, und andererseits darum, wie Kunden auf Sicherheitslecks reagieren. Fehlendes technisches Know-how Datensicherheit: Wie verhindert man z.B. unauthorisierten Zugriff? Kosten Fehlender Business-Case Die Geschäftsprozesse sind nicht reif genug für den Einsatz von Big Data  
    Wie etabliert man Big Data in einem Unternehmen?
     
    Dafür gibt es das BITKOM-Vorgehensmodell:
    Assessment: Eine Ist-Analyse erfasst, was die aktuellen Daten sind und wie die aktuelle Systemlandschaft aussieht. Readyness: Neue Datenquellen werden eingebunden. Die Datenquellen werden vereinheitlicht. Implementierung und Integration: Die eigentliche Einführung einer Big Data Applikation. Konsilidierung und Migration Nutzung der neuen Daten Reportung und Predictive Analytics: Hier geht es um die Gewinnung neuer Einsichten, indem man unbekanntes und ungenutztes Wissen in den zusammengeführten Datenbeständen entdeckt. End-to-End-Prozesse: Man wandelt die gewonnenen Einsichten in Vorteile, indem man neue und bessere Geschäftsprozesse konzipiert und einführt. Im Grunde wird erst durch diesen Schritt der Nutzen realisiert. Optimierung und Tuning: Hier geht es um die Frage, wie eine künftige und bessere Systemlandschaft aussehen könnte. Damit schließt sich ein Kreis und die Phasen können erneut durchlaufen werden.  
    Erwarteter Nutzen
     
    Durch den Einsatz von Big Data erwartet man vielfältigen Nutzen:
    Bessere Informationen über das Informations- und Konsumverhalten der Kunden Bessere Steuerung von Marketing und Vertrieb Optimierte Logistik Einschätzung von Marktpotentialen und Business Cases Höhere Renditen durch optimierte Preisgestaltung: Das ist ein heißes Eisen. Technisch betrachtet, könnten Algorithmen eine Prognose erstellen, wie viel ein Kunde für ein Produkt oder eine Leistung zu zahlen bereit oder in der Lage ist. Sie könnten dann einen individuellen Preis je nach Größe des Geldbeutels und Ausgabenbereitschaft machen. (Eigene Anmerkung: Rechtlich ist das problematisch. Bekannt wurde zum Beispiel, dass Disneyland Paris unterschiedliche Preise je nach Herkunftsland der Kunden nahm.) Wettbewerbsvorteile durch genauere Marktkenntnis  
    Reifegrad-Modelle
     
    Reifegrad-Modelle beantworten die Frage: Ist mein Unternehmen reif genug, um Big Data Technologien einsetzen zu können? Ein Beispiel ist das Business Intelligence Maturity Model von Steria Mummert Consulting. Es unterscheidet fünf Stufe der Reife.
    Lokale Daten, bezogen auf bestimme einzelne Aufgaben Informationsinseln, z.B. nach Unternehmensbereichen Informationsintegration, d.h. die Daten sind unternehmensweit vernetzt Informations-Intelligence, d.h. die Daten sind logisch integriert Informationsgetriebenes Unternehmen  
    Zur Person
     
    Prof. Dr. Uwe Schmitz betreut im Online-Studiengang B.Sc. Wirtschaftsinformatik die Module "Strategisches Management & Controlling" und "Grundlagen BWL".
     
    Soweit zum ersten Vortrag des Präsenztages.
     
    13:30 Uhr - Vortrag: DevOps, Dr. Hendrik Neumann (W3L AG)
     
    Nach einer Pause gab es ab 13:30 Uhr einen weiteren Vortrag zum Thema "DevOps" von Dr. Hendrik Neumann (W3L AG), der ebenfalls interessant und aufschlussreich war. Allerdings machte sich an diesem Punkt bemerkbar, dass ich am gleichen Tag auch noch eine zweistündige Klausur geschrieben hatte. Die Qualität meiner Notizen war leider nicht mehr ausreichend, um die Inhalte hier detailliert wiederzugeben.
     
    Fazit
     
    Wichtig war wie immer auch der informelle Austausch mit anderen Studierenden. In Kombination mit dem gebotenen Programm war es die lange Anfahrt nach Dortmund wert. Allmählich kommt für mich die Zielgerade in Sicht. Allzu oft werde ich wohl nicht mehr Gelegenheit haben, an einem Präsenztag teilzunehmen. Mindestens einmal fahre ich aber noch nach Dortmund, wahrscheinlicher sogar zweimal. Ich werde hier im Blog berichten.
  22. kurtchen
    Bei Springer Campus sind Präsenztage zugleich auch Prüfungstage. Am Freitag, dem 09.03.2018 gab es drei Slots für schriftliche Prüfungen. Außerdem konnte man am Vormittag auch mündliche Prüfungen ablegen.
     
    Ich bin am Freitag angereist, hatte aber keinen Prüfungstermin. Stattdessen hatte ich Gelegenheit vis-a-vis mit dem Professor zu sprechen, der meine Bachelorarbeit betreuen soll. Das erwies sich als ausgesprochen nützlich, weil man in der direkten Kommunikation vieles doch schneller klären kann als per E-Mail. Ein Ergebnis dieses Gespräches ist, dass ich nun auch meine Projektarbeit von ihm betreuen lassen möchte.
     
    Die Projektarbeit und die Bachelorarbeit bauen bei mir thematisch nicht aufeinander auf. Deswegen war ich ursprünglich der Ansicht, hier verschiedene Betreuer wählen zu können. Inzwischen ist mir klar geworden, dass die Projektarbeit eine weitere Chance ist, sich mit den Anforderungen wissenschaftlichen Arbeitens in der Informatik vertraut zu machen. Das ist für meine Bachelorarbeit natürlich nützlich und auch weitgehend unabhängig vom jeweils behandelten Thema. Ich hoffe, dass die kontinuierliche Betreuung durch EINEN Professor mir helfen wird, Rückmeldungen und Erfahrungen aus der Projektarbeit für meinen letzten Schritt zu nutzen.
     
    Meine Klausur im Modul "Multimedia" hatte ich erst für Samstag, den 10.03.2018 angemeldet. Zwischen 8:30 und 10:30 Uhr war ich fällig. Der eigentliche Präsenztag ging dann nach einer kurzen Kaffeepause um 10:45 Uhr los.
     
    10:45 Uhr - Aktuelles für Studierende
     
    Frau Kreissig berichtete über neue Entwicklungen und Themen aus dem Studium. Zeitgleich lief nebenan eine Infoveranstaltung über die Studiengänge Web- und Medieninformatik, Wirtschaftsinformatik, Biologie, Chemie und Elektrotechnik. Wie üblich stellte Frau Kreissig zunächst das Team von Springer Campus vor. Anschließend ging es um die Ergebnisse der Umfrage. 160 Studierende wurden befragt. Es gab 36 Rückläufer. Ich gebe nur einige wenige für mich markante Ergebnisse wieder.
     
    Als Studienmotivation wurde natürlich die Erlangung des Bachelors besonders häufig genannt. Aber noch häufiger wurde ein Interesse an persönlicher Weiterentwicklung angegeben. Vielleicht unterscheidet sich ja die Studienmotivation von Fernstudierenden, die in der Regel schon eine berufliche Qualifikation haben, an diesem Punkt von Präsenzstudierenden, für die es meist darum geht, einen ersten berufsqualifizierenden Abschluss zu erlangen.
     
    Von den Studierenden geschätzt wurde besonders die organisatorische Betreuung durch das Studienbüro, die festen Ansprechpartner und die inhaltliche Begleitung durch die Tutoren der Module. Auch die hohe Flexibilität im Studiengang wurde postiv bewertet.
     
    Kritik gab es an der mangelnden Aktualität einzelner Module. Bei bestimmten Modulen gab es auch den Wunsch nach einem höheren Praxisbezug. Hier sollte man vielleicht im Hinterkopf haben, dass die meisten unserer Studierenden einschlägig beschäftigt sind und somit Theorie im Studium und Praxis im Beruf nebeneinander erleben. Dies ermöglicht womöglich Vergleiche, die typische Studienanfänger an Präsenzhochschulen so nicht ziehen können.
     
    Nach einem kurzen Überblick über die Prüfungstermine bis zum nächsten Präsenztag im Sepember 2018 stelle Frau Kreissig neue Dozenten vor. Prof. Dr. Barghorn von der Jade-Hochschule (Wilhelmshaven, Oldenburg, Elsfleth) wird künftig Web-Design betreuen. Dr. habil. Andrea Hermann betreut Softwaretechnik 1 und 2. Prof. Dr. Uwe Schmitz übernimmt Strategisches Management & Controlling. Dieses Modul kann somit  wieder belegt werden. Dr. Hartwig übernimmt Softwaremanagement 1 und 2 sowie Selbst- und Zeitmanagement. Andrea Hermann betreut außerdem als Tutorin Wissenschaftliches Arbeiten.
     
    Die Vorbereitungen für die Reakkreditierung der Studiengänge Web- und Medieninformatik sowie Wirtschaftsinformatik laufen. In diesem Zusammenhang dürfen die Studierenden damit rechnen, weitere Fragebogen zu erhalten.
     
    Studierende wenden sich besonders häufig mit Fragen zum wissenschaftlichen Arbeiten an das Studienbüro. Aus gutem Grund ist das Modul Wissenschaftliches Arbeiten inzwischen ein Pflichtmodul. Das Studienbüro unterstützt bei der Suche nach Betreuern für die Projekt- und Bachelorarbeit. (Aus eigener Erfahrung kann ich sagen, dass diese Vermittlung sehr hilfreich ist. Präsenzstudierende kennen die Professoren aus den Lehrveranstaltungen und haben deshalb vielleicht schon eine Idee, wer sie bei einem bestimmten Thema gut betreuen könnte. Als Fernstudent profitiert man davon, dass die Mitarbeiter des Studienbüros eine Lotsenfunktion übernehmen, denn sie kennen die Professoren vor Ort.)
     
    Wer gerne eine Projektarbeit oder seine Bachelorarbeit auf dem Präsenztag präsentieren möchte, ist eingeladen, sich an das Studienbüro zu wenden. (In diesem Zusammenhang erinnere ich mich gerne an die Präsentation einer Bachelorarbeit auf dem letzten Präsenztag, aus der ich für mich viel mitgenommen habe. Ich finde es ungemein nützlich, etwas über die Erfahrungen von Studierenden zu lernen, die einen Schritt weiter sind als man selbst.)
     
    Gesellschaftliches Engagement im Fernstudium
     
    Ein besonderer inhaltlicher Schwerpunkt an diesem Präsenztag war das Thema "Gesellschaftliches Engagement". Laut Frau Kreissig kommt dieses Thema in Fernstudiengängen oft zu kurz. Präsenzunis bieten ihren Studierenden viele Möglichkeiten, sich außerhalb ihres eigenen Studienganges zu engagieren. Neben Veranstaltungen des Studium generale, die den engen Horizont des eigenen Studienfachs erweitern und ergänzen sollen, gibt es vielfältige Möglichkeiten, sich in der studentischen Selbstverwaltung und in studentischen Gruppen zu engagieren. Dies trägt einerseits dazu bei, das eigene Qualifikationsprofil um soziale, organisatorische und kommunikative Kompetenzen zu ergänzen. Aber unabhängig von diesem qualifizierenden Aspekt ist gesellschaftliches Engagement per se wünschenswert, auch für Fernstudierende.
    Frau Kreissig stellte als Beispiel einige Projekte und Initiativen vor, die der Springer Verlag unterstützt. Diese sind zum Teil regional (z.B. am Standort Heidelberg), zum Teil international. Wer sich dafür interessiert, findet nähere Informationen auf der Springer Homepage. Darum überspringe ich diesen Teil hier.
     
    Interessanter und für mich als Fernstudierenden konkreter fand ich die Frage, was für Möglichkeiten Fernstudierende selbst haben, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ein bisschen skeptisch war ich schon, denn viel zeitlichen Spielraum sehe ich durch die Doppelbelastung von Beruf und Studium eigentlich nicht mehr. Frau Kreissig hat jedoch einige Möglichkeiten vorgestellt, die z.T. sogar einen gewissen Bezug zur Lebenssituation Studium haben. Ein paar möchte ich hier wiedergeben:
     
    Projekt- und Bachelorarbeit: Man könnte seine Projekt- oder Bachelorarbeit nicht in einem Unternehmen sondern in einer Non-Profit-Einrichtung oder einem sozial oder gesellschaftlich relevanten Bereich machen. (Hier fühle ich mich an den Studiengang Sozialinformatik der Hochschule Fulda erinnert, für den ich mich ja ursprünglich einmal interessiert hatte. Dort gehört zum Curriculum ein Softwareprojekt im sozialen Bereich. Die Idee finde ich zumindest nachdenkenswert, denn eine Projekt- und Bachelorarbeit muss man ja ohnehin schreiben.) Citizen Science: Viele wissenschaftliche Disziplinen profitieren von der ehrenamtlichen Mitwirkung von Laien. Ein Beispiel ist die Astronomie. Nach einer kurzen Online-Schulung können interessierte Laien etwa helfen, Hubble-Aufnahmen zu kategorisieren, die bislang noch nicht von Algorithmen ausgewertet werden können. (Auch in der Biologie ist man - etwa für Zwecke des Artenschutzes - stark auf ehrenamtliche Naturbeobachter angewiesen.) Interessant finde ich hier den Wissenschaftsbezug des Engagements. Social Hackathons: Hier treffen sich ehrenamtliche Programmierer, um in einem begrenzten Zeitrahmen für ein soziales Projekt eine digitale Lösung zu programmieren, etwa eine Web-Anwendung oder eine Homepage. Das hat einen klaren Bezug zum Informatik-Studium und ist eventuell sogar eine Empfehlung für künftige Arbeitgeber.  
    Neben diesen Möglichkeiten mit Studienbezug stellte Frau Kreissig auch einige eher allgemeine Möglichkeiten vor, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ich möchte hier nur eine Möglichkeit wiedergeben, die wenig Zeit erfordert und potentiell lebensrettend sein kann. Wer alle zwei Jahre eine achtstündige Weiterbildung in Erster Hilfe besucht, kann sich am eigenen Arbeitsplatz als Ersthelfer zur Verfügung stellen. Unternehmen müssen ohnehin Ersthelfer ausbilden und benennen. Weil Mitarbeiter nicht nur am Arbeitsplatz sondern auch in öffentlichen und privaten Räumen unterwegs sind, profitieren indirekt auch Familien und die Gesellschaft davon, dass Menschen mit Kenntnissen in Erster Hilfe in der Nähe sind.
     
    Den Abschluss des Vortrags bildete eine Verlosung eines Buches über KI.
     
    Soviel zum Abschnitt "Aktuelles für Studierende". In einem meiner nächsten Beiträge möchte ich über den Vortrag "Big Data" von Prof. Dr. Uwe Schmitz berichten. Er betreut im Fernstudiengang das Modul "Strategisches Management & Controlling".
  23. kurtchen
    Einbettung in den Studiengang
     
    Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt.
     
    Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden.
     
    Das Lehrbuch
     
    Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste.
     
    Multimedia wird im Buch aus drei Blickwinkeln betrachtet:
    Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind.  
    Kapitel: Bild
     
    Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen.
     
    Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert.
     
    Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht.
     
    Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht.
     
    Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können.
     
    Kapitel: Audio
     
    Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht.
     
    Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können.
     
    Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden.
     
    Kapitel: Video
     
    Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton.
     
    Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen.
     
    Kapitel: 2D-Animation mit Flash
     
    Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten.
     
    Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann.
     
    Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden.
     
    Kapitel: 3D-Animation mit VRML
     
    Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte.
    Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein.
     
    Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt.
    Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt.
     
    Kapitel: Einsatz dynamischer Medien
     
    Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind.
     
    Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel.
     
    Die Einsendeaufgaben
     
    Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen.
     
    Die Präsenzklausur
     
    Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben..
     
    Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt.
     
    Fazit
     
    Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden. 
    Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen.
     
    Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.
  24. kurtchen
    Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager".
     
    Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde.
     
    Lehrbuch
     
    Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge.
     
    Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben.
     
    Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt.
     
    Inhalte & Themen
     
    Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab.
     
    Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat.
     
    Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2".
     
    Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden.
     
    Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt.
     
    Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen:
    sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten  
    Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren.
     
    Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen.
     
    Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt.
     
    Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie.
     
    Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl.
     
    Klausur
     
    In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht.
     
    Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben.
     
    Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK.
     
    Fazit
     
    "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen.
     
    Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.
  25. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "Software-Testen" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es wird dort dem Studienbereich "Softwaretechnik" zugerechnet. Formal darf das Modul jederzeit belegt werden, aber als fachliche Grundlage werden viele andere Module empfohlen: 
    Grundlagen der Informatik 1 Grundlagen der Informatik 2 Grundlagen der Informatik 3 Softwaretechnik 1 Softwaremanagement 1  
    Diese Empfehlung finde ich im Großen und Ganzen plausibel, auch wenn ich selbst das Modul "Softwaremanagement" nocht nicht belegt hatte. Aufgrund der vielfältigen Voraussetzungen wundert es nicht, dass die Belegung erst für das 5. Fachsemester empfohlen wird. Es ist also eines der letzten Pflichtmodule.
     
    Für den Studiengang "Wirtschaftsinformatik" ist das Modul nicht vorgesehen, nicht einmal im Wahlpflichtbereich. Es ist aber ein Baustein des Hochschulzertifikates "Software-Manager".
     
    Das Lehrbuch
     
    Das Buch "Basiswissen Testen von Software" von Torsten Cleff hat knapp 300 Seiten. Der Umfang ist für ein Modul bei Springer Campus also unterdurchschnittlich. Ziel des Lehrbuches ist, Grundwissen zu Testtechniken aber auch zu Prüftechniken zu vermitteln, so dass Fehler möglichst früh entdeckt und behoben werden. Die Erfahrung zeigt, dass die Kosten für die Behebung von Fehlern umso niedriger ausfallen, je früher ein Fehler entdeckt wird. Gemeint sind hier nicht nur Fehler im Quellcode, an die ich zu Beginn des Moduls als erstes gedacht habe. Fehler können auf allen Ebenen der Software-Entwicklung passieren, z.B. auch beim Erfassen von Anforderungen, bei der objektorientierten Analyse oder beim Entwurf, also bevor auch nur die erste Zeile Code geschrieben ist.
     
    Grundlagen
     
    Im ersten Teil des Buches werden vor allem Begriffe geklärt. Interessant war für mich z.B. die Unterscheidung von Teststufen, die jeweils mit Entwicklungsstufen eines Softwaresystems korrespondieren. Zu den vertraglichen Anforderungen an ein Software-Produkt gehört ein Abnahmetest, zur Produktdefinition ein Systemtest, zum Produktentwurf ein Integrationstest und zum Komponentenentwurf ein Komponententest.
     
    Nun ist klar, dass der Komponententest der erste Test ist, den man machen kann, wenn Quellcode vorliegt. Erst kann man die Integration von Komponenten testen und so fort. Die Teststufen folgen also in entgegensetzter Reihenfolge wie die Entwicklungsstufen. Visualisiert man diesen Ablauf, steigt man vom Anforderungsdokument Stufe um Stufe hinab bis zur Implementierung und arbeitet sich dann mit den Tests Stufe im Stufe wieder hinauf bis zu den Anforderungen. Der visualisierte Ablauf hat die Form des Buchstabens V, weshalb man auch vom V-Modell spricht.
     
    Interessant sind auch die verschiedenen Integrationsstrategien. Bei der Bottom-up Integration, baut und testet man zunächst Komponenten, die keine Dienste untergeordneter Komponenten in Anspruch nehmen. Dann baut und testet man die Komponenten, die auf diesen aufsetzen. So arbeitet man sich Stufe für Stufe nach oben. Ein Vorteil dieser Strategie ist, dass man keine Platzhalter programmieren muss. Der Nachteil ist, dass man das Zusammenspiel der Komponenten im Großen erst spät testen kann. Darum gibt es auch eine Top-down Integrationsstrategie. Hier werden möglichst bald Komponenten höherer Ordnung getestet. Da diese untergeordnete Komponenten brauchen, die noch nicht vorliegen, muss man viele Platzhalter programmieren. Dafür bekommt man früh einen Eindruck des Gesamtsystems aus Benutzersicht.
     
    Interessant waren auch die verschiedenen nicht-funktionalen Testverfahren. So werden z.B. bei einem Stresstest die definierten Leistungsgrenzen eines Systems bewusst überschritten, etwa um zu testen, ob das System nach einer Überlastung wieder in den Normalzustand zurückkehren kann.
     
    Testfälle entwickeln
     
    Diesen Kursabschnitt betrachte ich als den inhaltlichen Kern des Moduls. Der größte Anteil der Einsendeaufgaben aber auch der Aufgaben in der Online- und Präsenzklausur bezieht sich hierauf.
     
    Black-Box-Tests
     
    Zunächst geht es um spezifikationsorientierte Testtechniken. Komponenten sollen zu bestimmten Kombinationen von Eingabewerten eine Ausgabe entsprechend der Spezifikation liefern. Diese Tests werden auch als Black-Box-Tests bezeichnet, weil hier nicht interessiert, wie eine Komponente intern arbeitet. Es geht allein darum, ob sie zu gegebenen Eingaben die erwarteten Ausgaben liefert.
     
    Die erste derartige Testtechnik ist die funktionale Äquivalenzklassenbildung. Hier fasst man gleichwertige Eingabewerte zu einer Klasse zusammen, aus der man einen Repräsentanten auswählt. Getestet wird nur mit dem Repräsentanten, was den Testaufwand beträchtlich reduziert. Da die Erfahrung zeigt, dass Fehler vor allem an Klassen- und Intervallgrenzen auftreten, gibt es die Grenzwertanalyse. Hier wählt man als Repräsentanten Werte an den Grenzen eines Intervalls. Bei beiden Testtechniken ist wichtig, dass man gültige und ungültige Repräsentanten testet. Ungültige Repräsentanten sollten dann z.B. dazu führen, dass eine Exception geworfen wird.
     
    Der Entscheidungstabellentest eignet sich, wenn eine natürlich-sprachliche Testbasis vorliegt. Er ermöglicht, die verschiedenen Kombinationen von Eingangsbedingungen übersichtlich darzustellen. Oft ist es dann möglich, Fälle zusammen zu fassen und die Tabelle auf diese Weise stark zu vereinfachen. Auch dies kann den Testaufwand erheblich reduzieren.
     
    Bei der Ursache-Wirkungsanalyse visualisiert man die Beziehungen zwischen Ursachen und Wirkungen als Graph, dessen Kanten logische Verknüpfungen sind. Solche Graphen lassen sich in Entscheidungstabellen überführen.
     
    Beim zustandsbezogenen Test modelliert man ein System als Zustandsautomaten. So kann man die Historie des Systems in den Test einbeziehen. Das Zustandsdiagramm lässt sich in eine Zustandstabelle und in eine Zustandsmatrix überführen. Daraus lassen sich wiederum Testfälle ableiten. Interessant ist diese Testart z.B. für Systeme aus der Automatisierungstechnik.
     
    Auf höheren Teststufen gibt es den anwendungsfallbasierten Test. Ein konkreter Anwendungsfall wird als Use-Case-Diagramm modelliert. Auch hieraus lassen sich Testfälle ableiten.
     
    White-Box-Tests
     
    Während bei den spezifikationsorientierten Testtechniken nicht relevant ist, wie eine Komponente ihre Leistung erbringt (Black-Box-Test), muss man für die kontrollfluss-orientierten Testtechniken den Quellcode eines Programmes kennen. Darum werden diese auch als White-Box-Tests bezeichnet. Bei diesen Testtechniken visualisiert man den Kontrollfluss durch den Quelltext als Graph.
     
    Beim Anweisungsüberdeckungstest möchte man durch geschickte Auswahl möglichst weniger Testfälle sicherstellen, dass alle Anweisungen des Quellcodes ausgeführt werden. Beim Zweigüberdeckungstest sollen die Testfälle nicht nur alle Anweisungen (Knoten) des Graphen abdecken. Auch alle Zweige (Kanten) sollen mindestens ein Mal durchlaufen werden. Dieser Test ist also umfassender als der Anweisungsüberdeckungstest. Noch weiter geht der Bedingungsüberdeckungstest. Er beschäftigt sich mit der Kombination von Bedingungen, die erfüllt sein müssen, damit ein Zweig durchlaufen werden kann. Diese lassen sich z.B. wie eine Digitalschaltung visualisieren. Beim Pfadüberdeckungstest müssen nicht nur alle Kanten durchlaufen werden, sondern jeder mögliche Pfad vom Startpunkt bis zum Endpunkt eines Programmes. Die Zahl möglicher Pfade wächst oft sehr schnell. Entsprechend wächst auch die Zahl nötiger Testfälle.
     
    Erfahrungsbasiertes Testen
     
    Freies Testen ist ein erfahrungsbasiertes Verfahren. Die Testfälle basieren auf Testhypothesen eines erfahrenden Testers. Da hier die Intuition eine große Rolle spielt, sind solche Verfahren schlecht formalisierbar und nicht leicht in den Entwicklungsprozess zu integrieren. Sie werden daher meist nur ergänzend eingesetzt.
     
    Fehlerhypothesen lassen sich methodischer ableiten, wenn man auf der Grundlage bisher entdeckter Fehler Fehlerklassen bildet. Das sind Gruppierungen typischer Schwachstellen, die in vergangenen Tests an ähnlichen Systemen aufgefallen sind. Ein Beispiel für so eine Fehlerklasse wären etwa Fehler bei Klassen oder Datentypen. Konkrete Ausprägungen dieser Fehlerklasse wären dann z.B. Fehler bei Mehrfachvererbung, Typtransformationen oder fehlerhafte Deklarationen von Attributen oder Methoden. 
     
    Exploratives Testen ergänzt das erfahrungsbasierte Testen um ein Element der Analyse und Reflexion. Die dadurch gewonnenen Einsichten werden für die Entwicklung der nächsten Fehlerhypothesen genutzt. Auch dies ist ein Versuch, erfahrungsbasiertes Testen methodischer zu machen.
     
    Testen vs. prüfen
     
    Ein weiterer thematischer Schwerpunkt des Moduls sind Prüftechniken. Während bei Tests vorausgesetzt ist, dass man ein Testobjekt ausführen kann, wird bei einer Prüfung ein Artefakt der Softwareentwicklung nicht ausgeführt sondern inhaltlich nach formalen Kriterien kontrolliert. Dies hat verschiedene Vorteile:
    Nicht nur Quellcode kann geprüft werden, sondern auch Spezifikationen, Modelle, Dokumentationen oder andere Artefakte des Entwicklungsprozesses. Man benötigt keine Testumgebung, Testdaten oder Testtreiber Testen kann man erst, wenn Code vorliegt. Prüfen kann man dagegen in jeder Phase.  
    Entscheidend ist, dass man durch Prüfverfahren Fehler viel früher entdecken kann als durch Tests. Dadurch lassen sich Kosten vermeiden. Allerdings lassen sich durch Prüfungen nicht alle Arten von Fehlern entdecken. Zum Beispiel lassen sich Leistungskennzahlen auf diesem Weg nicht ermitteln, denn dazu müsste Code ausgeführt werden. Im Kurs behandelte manuelle Prüftechniken sind die Inspektion, das technische Review, der Walkthrough und das informelle Review.
     
    Softwaremaße
     
    Es gibt aber auch automatisierte Prüftechniken. So lassen sich z.B. mit geeigneten Werkzeugen sogenannte Softwaremaße bestimmen. Ein gängiges Maß ist sind zum Beispiel die Lines of Code (LOC), mit denen der Umfang eines Quellcodes angegeben wird. Dieses Maß ist nicht so selbstverständlich, wie es auf den ersten Blick scheint. LOCs können stark schwanken, je nachdem welche Formatierungskonventionen angewendet wurden. Dennoch werden LOCs häufig für grobe Umfangsschätzungen verwendet.
     
    Ein genaueres Umfangsmaß ist das Halstead-Maß. Dazu muss man zunächst alle Operanden und Operatoren eines Quellcodes auszählen. Die Anzahl unterschiedlicher Operatoren bezeichnet man mit N1, die der unterschiedlichen Operanden als N2. Operatoren sind z.B. Schlüsselwörter einer Programiersprache, Klammern aber auch Modifier, die die Sichtbarkeit einer Variable festlegen. Operanden sind z.B. Variablen oder auch boolesche Werte wie true oder false. Halstead bezeichnet nun die Summe N1+N2 als Vokabular eines Programmes. Als Volumen bezeichnet er die Summe N1+N2+log(N1+N2). Man kann sich vorstellen, dass das manuelle Auszählen von Operatoren und Operanden für Menschen eine mühselige Arbeit ist. So etwas kann automatisch von Werkzeugen erledigt werden, weshalb man in diesem Zusammenhang von automatisierten Prüftechniken spricht.
     
    Das McCabe Maß wird auch als zyklomatische Komplexität beschrieben. Um das McCabe-Maß berechnen zu können, muss man die Knoten und Kanten eines Kontrollflussgraphen auszählen und die Anzahl verbundener Kontrollflussgraphen bestimmen. McCabe liefert die maximale Zahl linear unabhängiger Programmpfade. Damit kann man abschätzen, wieviele Testfälle man für einen Zweigüberdeckungstest braucht.
     
    Es gibt auch Maße für Bindung und Kopplung von Komponenten.
     
    Problemmuster
     
    Problemmuster sind Anomalien im Quelltext, die erfahrungsgemäß die technische Qualität eines Programms senken. Sie lassen sich durch geeignete Werkzeuge aufspüren, damit sie überarbeitet werden können. Ein bekanntes Beispiel ist die Codedopplung. Wenn an verschiedenen Stellen des Programmes identischer Quellcode steht, muss man bei Änderungen alle entsprechenden Stellen finden. So etwas wird von einem Wartungsprogrammierer leicht übersehen. Meist ist es dann besser, solchen Code in einer eigene Komponente oder Methode zusammenzufassen. Das vermeidet Probleme bei künftiger Wartung. Im Kurs werden viele weitere Problemmuster vorgestellt, etwa mangelnder Polymorphismus, die Verletzung des Geheimnisprinzips, die Verwendung einfacher Typen, die zu Datenklumpen führt oder auch problematisch zusammengesetzte Datentypen.
     
    In den letzten Kapiteln geht es um das Management von Softwaretests sowie die Automatisierung von Tests. In diesem Zusammenhang werden auch ein paar Testwerkzeuge knapp vorgestellt.
     
    Online-Tests und Einsende-Aufgaben
     
    Die Tests decken die Inhalte des Moduls gut ab. Die Einsendeaufgaben konzentrieren sich vor allem auf die Kapitel zur Entwicklung von Testfällen. Aber auch das Entdecken von Problemmustern in Quellcode und die Bestimmung von Softwaremaßen spielt eine Rolle. Man vereinfacht Entscheidungstabellen, zeichnet Kontrollflussgraphen zum Quelltext, verbessert Anomalien in Quellcode, visualisiert komplexe Bedingungen als Digitalschaltung, zeichnet Zustandsautomaten, findet Testklassen, Repräsentanten und Testfälle. Die Aufgaben sind also recht vielfältig. Bei einigen Aufgabentypen hätte ein wenig mehr Übungsmaterial nicht geschadet. Die Aufgaben sind aber didaktisch geschickt gewählt, so dass sie zum Verständnis der vermittelten Konzepte beitragen. Insbesondere geben die Aufgaben einen guten Vorgeschmack auf das, was einen in der Online- und in der Präsenzklausur erwartet.
     
    Die Rückmeldungen meines Tutors kamen auch in diesem Modul sehr zügig. Sein Stil war manchmal etwas knapp, so dass ich gelegentlich noch einmal nachfragen musste. Das hat sich aber dann auch gelohnt und kleinere Unsicherheiten behoben. Ich hatte übrigens den gleichen Tutor wie im Modul "Grundlagen der Informatik 2" zu Beginn meines Studiums. Bei ihm habe ich objektorientiertes Programmieren gelernt. Ich habe mich sehr gefreut, gegen Ende meines Studiums noch einmal von ihm betreut zu werden.
     
    Präsenzklausur
     
    Die Aufgabentypen der Klausur ähnelten den Einsendeaufgaben, so dass man eigentlich gut vorbereitet sein sollte, wenn man alle Aufgaben bearbeitet und die Rückmeldungen seines Tutors genutzt hat. Wissensfragen zu den Prüftechniken spielten auch eine gewisse Rolle. Ich empfand das Arbeitspensum als angemessen für die Dauer der Klausur.
     
    Bei den Aufgaben zur Äquivalenzklassenbildung und Grenzwertanalyse wollte man den Studierenden anscheinend etwas Zeit ersparen, indem man Tabellen zur Verfügung gestellt hat, in die man z.B. Testfälle eintragen konnte. Das Layout dieser Tabellen war für mich allerdings ungewohnt und überraschend. Ich selber hätte meine Tabellen anders aufgebaut, so dass ich gelegentlich Lösungen in falsche Felder eingetragen habe, was ich dann wieder korrigieren musste. Das hat Zeit und Nerven gekostet. Nach der Klausur sprach ich mit einem Kommilitonen, dem es ähnlich ergangen war wie mir. Der hatte die zur Verfügung gestellten Tabellen gar nicht erst genutzt sondern sich lieber selbst welche gezeichnet. Diese Freiheit hätte ich mir auch nehmen sollen. Die dafür nötige Zeit hätte ich bestimmt mit Zinsen zurück bekommen. Wegen dieser Schwierigkeiten rechnete ich damit, ein paar Flüchtigkeitsfehler gemacht zu haben.
     
    Diese Sorge war anscheinend unbegründet. Das Klausurergebnis war erfreulich und spiegelte auch meinen subjektiven Eindruck wieder, den Stoff des Moduls im wesentlichen verstanden zu haben.
     
    Fazit
     
    Grundsätzlich finde ich es sehr sinnvoll, dass das Curriculum ein eigenes Modul zum Thema Testen enthält. Gut gefallen haben mir vor allem die Kapitel zur Entwicklung von Testfällen, weil ich hier die Einsendeaufgaben didaktisch klug gewählt und auch interessant und abwechslungsreich fand. Auch das Thema Problemmuster war für mich spannend. Es hat Spaß gemacht, in fremdem Quellcode nach problematischen Stellen zu suchen und sich bessere Lösungen zu überlegen. Weniger interessant waren für mich die Kapitel zu Prüftechniken und zum Management von Testfällen. Diese empfand ich als theoretischer und trockener, was sich bei diesem Stoff wohl auch nicht vermeiden lässt. Wegen dieser für mich etwas zäheren Abschnitte zählt Softwaretesten zwar nicht zu meinen Favoriten im Studienbereich Softwaretechnik, aber ich ziehe hier ein positives Fazit.
×
  • Neu erstellen...