Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    878
  • Benutzer seit

  • Letzter Besuch

Blogbeiträge von kurtchen

  1. kurtchen
    Zur Rolle des Moduls im Studium
     
    Das Modul "Electronic Business" ist bei Springer Campus ein Pflichtmodul für Studierende im Studiengang "B.Sc. Wirtschaftsinformatik". Dort wird es dem Studienbereich "BWL" zugeordnet. Empfohlen wird die Belegung im 5. Fachsemester. Als inhaltliche Voraussetzungen werden die Module BWL2, Geschäftsprozess-Management und Web-Programmierung empfohlen. Meiner Meinung nach lässt sich das Modul auch ohne dieses Vorwissen gut bearbeiten.
     
    Studierende im Studiengang "B.Sc. Web- und Medieninformatik" können das Modul im Wahlpflichtbereich belegen. Das habe ich getan, weil ich es für sinnvoll hielt, die durch das Studium vermittelten Kenntnisse in serverseitiger Programmierung auch mal in einen betriebswirtschaftlichen Rahmen einzuordnen. Denn am Ende wird eine Web-Anwendung programmiert, weil jemand Kosten senken, Prozesse optimieren und schlicht Erträge erzielen möchte.
     
    Manche Studierende belegen dieses Modul auch, weil es als nicht so umfangreich gilt. Von dieser Strategie würde ich abraten. Auch ein nicht so dickes Lehrbuch kann lang werden, wenn das inhaltliche Interesse fehlt. FH-Studiengänge sind traditionell stärker verschult. Es gibt vergleichsweise wenige Wahlmöglichkeiten. Ich würde daher empfehlen, hier nicht die Aufwandsminimierung in den Mittelpunkt zu stellen, sondern aus dem Angebot etwas zu wählen, dass man auch interessant findet.
     
    Das Lehrbuch
     
    Das Buch "Basiswissen E-Business" von Dr. Tilo Hildebrandt hat einen Umfang von ca. 250 Seiten. Die Schriftgröße ist relativ klein, so dass die Lektüre ein bisschen länger dauert, als man zunächst vermuten würde. Insgesamt würde ich den Stoffumfang des Moduls trotzdem mit unterdurchschnittlich beschreiben.
     
    Kapitel 1 - Rahmenbedingungen
     
    Kapitel 1 "Rahmenbedingungen des Web-Business" war für mich am interessantesten, weil der Autor hier viele Schritte zurück geht. Es gibt z.B. einen kleinen Ausflug in die Medientheorie, wenn betrachtet wird, wie mündliche Überlieferung, schriftliche Kommunikation und in Abgrenzung dazu elektronische Medien die Art der Informationsaufnahme und -Verarbeitung beeinflussen. Das geht in die Richtung von Marshall McLuhans "Das Medium ist die Botschaft". Schließlich wird die Entwicklung des E-Business auch wirtschaftshistorisch eingeordnet. Theoretischer Rahmen hierfür ist Kondratieffs Theorie der langen Wellen. Diese sind zyklische Schwankungen der Konjunktur mit deutlich längerer Periode als die bekannten Konjunkturzyklen. Sie werden laut Kondratieff angestoßen durch Basisinnovationen, die die Rahmenbedingungen des Wirtschaftens grundsätzlich verändern, zu großen Investitionstätigkeiten führen, aber auch bisherige Geschäftsmodelle ersetzen. Beispiele für solche Basisinnovationen sind Erfindungen wie die Dampfmaschine oder die Eisenbahn. Die These des Autors ist, dass das Internet eine solche Basisinnovation sein könnte, und somit der Beginn eines weiteren Kondratieffzyklus. Das passt zur allgemeinen Erwartung eines umfassenden gesellschaftlichen Wandels durch die Digitalisierung. Informationstechnologien senken dabei vor allem Transaktionskosten. Sie machen es z.B. schneller möglich, günstige Preise oder neue Lieferanten zu finden. Sie ermöglichen es auch, Produktionsprozesse noch stärker arbeitsteilig zu gestalten, weil der damit steigende Aufwand zur Koordination und Überwachung von Prozessen durch sie handhabbarer wird. Das führt z.B. zu einer immer stärkeren Spezialisierung.
     
    Dieses Kapitel hätte für mich sehr interessant sein können, denn eine allgemeine historische und gesellschaftliche Perspektive auf die Entwicklung meines Feldes hätte ich mir im Studium manchmal gewünscht. Auch in manchen BWL-Studiengängen wird ja inzwischen Wirtschaftsgeschichte oder Wirtschaftsethik gelehrt. Leider ist das Kapitel doch recht komprimiert geschrieben und könnte mir daher eher als Orientierung dienen, falls ich solche Themen durch eigene Lektüre einmal vertiefen wollte. Die folgenden Kapitel sind doch wieder aus einer betriebwirtschaftlichen Perspektive geschrieben. Aber immerhin schön, dass der Autor hier mal einen breiteren Rahmen skizziert hat.
     
    Kapitel 2 - Ertragsmodelle
     
    Im zweiten Kapitel "Ertragsmodell" geht es um direkte und indirekte Ertragsmodell im Web-Business. Sicher ist es sinnvoll, diese einmal explizit vorzustellen und die verschiedenen Geschäftsmodelle zu kategorisieren. Nun ist es so, dass seit vielen Jahren jedermann kostenlose und kostenpflichtige Dienste im Internet nutzt. Etwas bislang unbekanntes wird man hier also kaum erfahren. Immerhin kennt man die Beispiele für Ertragsmodelle so aus eigener Anschauung und ordnet sie in einen übergreifenden begrifflichen Rahmen ein.
     
    Kapitel 3 - Struktur des Web-Business
     
    Das dritte Kapitel "Struktur des Web-Business" stellt schließlich ein theoretisches Werkzeug oder Modell vor, mit dem sich verschiedene Aspekte des Web-Business untersuchen lassen: Die Web-Business Pyramide. 
    Diese ist für das Modul wichtig, denn sie bildet eine Art Klammer, die alle folgenden Kapitel zusammenhält. Immer wieder wird dort der Bezug zur Web-Business Pyramide hergestellt und sie stiftet auch einen Zusammenhang zwischen den Kapiteln.
     
    Die Pyramide hat vier Seiten, die in den folgenden Kapitel näher betrachtet werden. Die erste Seite ist dabei die Konversionsseite. Sie beschreibt die Rollenwechsel vom noch anonymen Besucher einer Web-Präsenz zum Stammkunden, der sich mit geringerem Aufwand ansprechen und motivieren lässt. Jede Rolle entspricht einer Stufe der Pyramide. Der Besucher wird zum Interessenten, indem er auf der Seite verweilt und sie erkundet. Er wird zum Kaufwilligen, indem er etwas in den Warenkorb legt und persönliche Informationen preisgibt. Er wird zum Käufer, indem er eine Bestellung ausführt. Und im besten Fall wird er zum Stammkunden, der die Seite künftig gezielt und mit Kaufabsicht aufsucht.
    Die Pyramidenform soll dabei verdeutlichen, dass jeweils nur ein kleiner Teil der Nutzer die nächste Stufe der Pyramide erreicht. Bildet man den Quotienten aus den Nutzerzahlen zweier aufeinanderfolgender Stufen, so erhält man eine Konversionsquote, eine Maßzahl dafür, wie gut der Übergang von einer Stufe zur anderen gelingt. Ziel des Betreibers einer Präsenz ist, Konversionsquoten zu steigern. Die folgenden Kapitel beschäftigen sich damit, wie dies geschehen kann. Eine gute Suchmaschinenoptimierung soll z.B. nicht einfach nur mehr Besucher auf die eigene Web-Präsenz lenken, sondern solche, für die das eigene Angebot relevant ist. Sonst verlassen die Besucher die Seite nach dem ersten Eindruck wieder. Interessieren sich die Besucher für die dargebotenen Inhalte, so wird die Usability der Seite wichtiger, damit sie auch dort bleiben.
     
    Die anderen Seiten der Web-Business Pyramide beschäftigen sich mit den Kostenarten, mit dem Marketing und mit den Prinzipien, die Entscheidungen des Webseiten-Betreibers leiten. Diese sind jeweils auf Stufen der Konversionsseite bezogen. Auf jeder Stufe gibt es also korrespondierende Kostenarten, Marketingschwerpunkte und leitende Prinzipien.
     
    Das Modell Web-Business Pyramide fand ich interessant. Leider ist das Buch ziemlich komprimiert geschrieben. Neben allgemein bekanntem Wissen stehen Formulierungen, die wohl eher für BWL-affine Leser verständlich sind.
     
    Kapitel 4 - Aufbau der Web-Präsenz
     
    Im Kapitel "Aufbau der Webpräsenz" werden Hinweise zur Gestaltung einer Web-Präsenz gegeben. Hier geht es nicht darum, wie so etwas technisch umgesetzt wird, sondern um Dinge wie Zielgruppenausrichtung, Corporate Identity, Arten der Führung durch die Seite und verschiedene Arten der inhaltlichen Ausrichtung. Die vermittelten Begrifflichkeiten fand ich zum Teil nützlich und interessant. Auch diese Kapitel waren aber für meinen Geschmack sehr dicht geschrieben. Von einem langsameren und expliziteren Vorgehen mit mehr Fallbeispielen hätte ich als Leser profitiert. Schlagworte dieses Kapitel sind z.B. der Primacy-Effekt oder der Halo-Effekt.
     
    Die restlichen Kapitel
     
    Die restlichen Kapitel "Verkauf im Web-Business", "Vertrieb im Web-Business", "Marketing im Web-Business" und "Potentiale im Web-Business" nehmen immer wieder Bezug auf das Modell Web-Business Pyramide. Das ist gut. Leider sind auch sie recht dicht geschrieben. Von Kapitel zu Kapitel werden oft ähnliche Konzepte wiederholt, wobei sich der Blickwinkel ändert. Das ist an sich kein schlechtes didaktisches Konzept. Leider wirkt die Umsetzung auf mich eher repetitiv und kann die gedrängte Darstellung innerhalb der Kapitel nicht ausgleichen.
     
    Insgesamt lässt mich das Lehrbuch unbefriedigt zurück. Viele Themen werden mir zu knapp vorgestellt. Natürlich wäre es empfehlenswert, eigenständig weitere Fachliteratur zu lesen, auf die im Lehrbuch auch verwiesen wird. Aber die Darstellung ist hier z.T. so knapp, dass es zumindest mir schwer fällt, zu erkennen, welche der angegebenen Quellen für mich lesenswert wären. Vielleicht macht sich hier bemerkbar, dass dies ein Lehrbuch für Studierende aus dem Studiengang Wirtschaftsinformatik ist, denen eine betriebswirtschaftliche Perspektive vertrauter ist.
     
    Sehr gut gefallen hat mir, dass im ersten Kapitel eine Einordnung in einen weiteren gesellschaftlichen und historischen Kontext versucht wurde. So etwas würde ich mir auch von anderen Autoren und in anderen Modulen wünschen.
     
    Tests und Aufgaben
     
    Die Tests waren für mich zum Teil hilfreich, mein Verständnis des Stoffes zu entwickeln. Leider waren die Lösungen spärlich kommentiert, so dass mir bei einem Fehler nicht immer klar war, warum ich falsch gelegen hatte. Mittlerweile halte ich kommentierte Testergebnisse für wünschenswert, auch wenn manche Autoren der Ansicht sind, unkommentierte Lösungen seien förderlicher für eigenständiges Denken. In einer Lehrveranstaltung würde ein Dozent zwischendurch Fragen stellen. Die Antworten würde er üblicherweise nicht nur mir "richtig" oder "falsch" bewerten, sondern inhaltlich darauf eingehen. Diese Art von Interaktion in einer Vorlesung fehlt im Fernstudium. Tests mit Verständnisfragen zum Stoff könnten die Nachfrage des Dozenten simulieren, gut kommentierte Lösungen seine Rückmeldungen.
     
    Die Aufgaben zielten mir zu sehr auf Reproduktion des Stoffes, z.B. durch Erklären von Konzepten und Begrifflichkeiten. Ein gewisser Transfer kam dadurch ins Spiel, dass man immer wieder konkrete Beispiele nennen sollte. Da konnte man dann auf bekannte Web-Präsenzen verweisen, auf denen dieses oder jenes Prinzip (hoffentlich gut) umgesetzt ist. Im Vergleich zu Modulen der Softwaretechnik oder Programmiermodulen kam mir aber hier das aktive Problemlösen zu kurz.
     
    Präsenzklausur
     
    Die Präsenzklausur war gutmütig gestellt, weil sich Art und Inhalte der Aufgaben z.T. recht eng an den Einsendeaufgaben orientierten. Wer alle Aufgaben macht und die erhaltenen Rückmeldungen verwertet, sollte gut vorbereitet sein.
     
    Fazit
     
    Dieses Modul wäre für meinen Studiengang nicht zwingend gewesen. Ich habe es belegt, um meine eher technische Sicht auf Web-Anwendungen um eine betriebswirtschaftliche Perspektive zu ergänzen. Das Modul ordnet viele Phänomene in einen begrifflichen Rahmen ein, die eigentlich jedem Nutzer des Webs bekannt sein sollten. Daher meine ich, man hätte an einigen Stellen tiefer schürfen dürfen. Nicht gut zurechtgekommen bin ich mit der sehr dichten Darstellung. Mehr Seiten hätte man z.B. nutzen können, um Aussagen durch mehr Fallbeispiele zu verdeutlichen. Interessant wäre z.B. gewesen, bei mehr Themen mehrere Web-Präsenzen gegenüber zu stellen und diese zu vergleichen. So etwas wäre auch eine schöne Einsendeaufgabe gewesen.
     
    Die Aufgaben hätten stärker den Aspekt Wissenstransfer und Problemlösung betonen dürfen. Statt bestimmte Prinzipien zu beschreiben und zu erklären, hätte man doch auch Konzepte für Web-Präsenzen entwickeln können, in denen sie umgesetzt werden. Aufgaben dieser Art gab es z.B. im Modul "Web-Design und -Ergonomie". Rückblickend betrachtet würde ich mich heute lieber für ein anderes Wahlpflichtmodul entscheiden, z.B. für das technischere Modul "ERP-Systeme".
     
    Gleichwohl bin ich nach diesem Modul nun "scheinfrei" und das ist natürlich ein schönes Gefühl. Weitere Module werde ich in diesem Blog nicht mehr vorstellen.
     
    Für diejenigen Leser, die sich für den Studiengang "Wirtschaftsinformatik" bei Springer Campus interessieren: Mein Blog deckt zwar recht viele Pflichtmodule dieses Studiengangs ab, aber es fehlen auch einige:
    - Grundlagen BWL
    - Strategisches Mangement und Controlling
    - Human Resources
    - Grundlagen Wirtschaftsinformatik
    - ERP-Systeme
     
    Vielleicht werden diese Lücken einmal von anderen Bloggern geschlossen.
     
    An diesem Punkt meines Studiums blicke ich nun zurück auf insgesamt 39 Präsenz-Klausuren und ähnlich viele Online-Abschlussklausuren und -Tests, auf hunderte Einsendeaufgaben und eine in jedem Fall vierstellige Zahl von Online-Tests. Ich bin nun froh, diesen Abschnitt meines Studiums hinter mir zu lassen. Ab nächste Woche werde ich mich auf meine Bachelorarbeit konzentrieren. Nun heißt es, "ohne Stützräder fahren" und "selbst die Balance halten", auch wenn im Hintergrund noch jemand steht, der meine Fahrversuche kritisch beobachtet und begleitet.
  2. kurtchen
    Die Projektarbeit
     
    Das Modul Projektarbeit ist für das 5. Fachsemester vorgesehen. Es ist ein Pflichtmodul sowohl für die angehenden Web- und Medieninformatiker als auch für die Wirtschaftsinformatiker. Wie bei fast allen Modulen wird der Workload mit 5 ECTS bewertet. Ich habe in der letzten Zeit über einzelne Module berichtet, bei denen ich fand, dass der Workload etwas zu großzügig bewertet war. In dieses Modul sind bei mir deutlich mehr als die angesetzten 150 Arbeitsstunden geflossen. Aus Gesprächen mit Kommilitonen weiß ich, dass es auch anderen so geht. Rückblickend würde ich also sagen: Manche Module machen etwas weniger Arbeit, andere mehr. Unterm Strich gleicht sich das aus. Ich würde allerdings vermuten, dass die Projektarbeit für ALLE Studierenden ein ordentliches Stück Arbeit wird. Insofern würde ich dazu raten, für dieses Modul deutlich mehr Zeit einzuplanen.
     
    Viele Studierende entwickeln ihre Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Dabei bleibt die Bachelorarbeit natürlich eine eigene wissenschaftliche Arbeit. Ich habe mich bislang dagegen entschieden, das so zu machen. Bachelorarbeit und Projektarbeit sollen in meinem Fall also nichts miteinander zu tun haben.
     
    Voraussetzungen
     
    Die inhaltlichen Voraussetzungen hängen bei diesem Modul stark davon ab, was für ein Thema man sich aussucht. Grundsätzlich soll die Projektarbeit in Zusammenhang mit belegten Modulen des eigenen Studienganges stehen. Ich möchte hier ein paar Module nennen, die für jede Projektarbeit wichtig sein sollten:
    wissenschaftliches Arbeiten Softwaretechnik 1-3  
    Das Modul "Wissenschaftliches Arbeiten" ist wichtig, weil die Projektarbeit formalen Kriterien genügen muss. Die Projektarbeit ist insofern schon eine Art Testlauf für die Bachelorarbeit.
     
    Die Module "Softwaretechnik 1-3" sind wichtig, weil die Projektarbeit in der Regel eine konstruktive Arbeit sein wird, d.h. man wird ein Problem durch Entwurf und Implementierung eines Software-Systems lösen. Dazu gehört natürlich eine Analyse der Problemdomäne und ein entsprechendes Requirements Engineering. Da objektorientierte Programmierung das derzeit vorherrschende Programmierparadigma ist, wird sich daran wahrscheinlich eine objektorientierte Analyse und ein objektorientierter Entwurf anschließen. Diese Dinge lernt man in den Modulen zur Softwaretechnik.
     
    Themenfindung
     
    Im Gegensatz zu anderen Modulen, bei denen die Inhalte durch Lehrbuch und Lernplattform vorgegeben sind, hat man im Modul "Projektarbeit" ein Vorschlagsrecht. Tatsächlich war ich etwas überrascht, nachdem ich das Modul gebucht hatte. Ich hätte erwartet, dass in der Lernplattform ein neuer Bereich freigeschaltet würde, wo noch einmal eine knappe Anweisung zur Themenfindung und weiteren Vorgehensweise gegeben wird. Das ist aber nicht der Fall. Stattdessen wird darauf gesetzt, dass die grundsätzliche Arbeitsweise durch das Modul "Wissenschaftliches Arbeiten" bekannt ist.
     
    Die genauere (auch zeitliche) Planung wird mit dem Betreuer vereinbart. Um einen Betreuer zu finden, braucht man aber zunächst ein Thema, denn das Studienbüro versucht, einen Betreuer zu vermitteln, der das gewählte Thema gut betreuen kann. Insofern muss man hier den ersten Schritt selber tun. Ein Blick auf die Homepage der FH Dortmund kann bei der Themenfindung helfen. Manche Professoren des Fachbereichs Informatik listen auf, was für Arbeiten in ihr Forschungs- und Lehrgebiet fallen. Leider betreuen nicht alle Professoren auch Studierende aus den Online-Studiengängen. Das liegt vermutlich daran, dass der Online-Studiengang "Web- und Medieninformatik" inhaltlich ein etwas anderes Profil hat als die Präsenzstudiengänge, wo man sich z.B. auch mit medizinischer Informatik oder technischer Informatik beschäftigen kann.
     
    Die Themenfindung hatte mir im Vorfeld viele Sorgen gemacht, denn im Gegensatz zu den meisten meiner Kommilitonen arbeite ich nicht im IT-Bereich. Mein Arbeitsbereich hat sogar besonders wenig Berührungspunkte damit. Die Chancen, dass mir am Arbeitsplatz ein gutes Thema über den Weg läuft, standen also schlecht Ich musste aktiv nach einem Anwendungskontext für mein Projekt suchen. Den fand ich an der örtlichen Universität.
     
    Dort findet Grundlagenforschung zur sogenannten biologischen Uhr statt. Dafür werden Organismen in einer Umgebung gehalten, in der sie einem künstlichen Tag-Nacht-Rhythmus ausgesetzt sind. Beispielsweise wird der Tag-Nacht-Rhythmus beschleunigt oder verlangsamt oder stundenweise verschoben. Bislang wird das durch Mikrocontroller gesteuert. Diese arbeiten Skripte ab, die in einem Texteditor erstellt werden. Schneller und komfortabler ginge es mit einem graphischen Editor. Ein bisschen komplexer als eine einfache Zeitschaltuhr ist das ganze schon. Verschiedene Farben sollten unabhängig voneinander geschaltet werden können. Man möchte verschiedene Übergangsfunktionen definieren können. Insbesondere der Umgang mit dem Thema Zeit kann verwirrend sein. Man muss Tage beschleunigt oder verlangsamt ablaufen lassen können. Für manche Experimente ist aber auch wünschenswert, Tage in mehr oder weniger als 24 Stunden zu unterteilen. Tage haben also eine virtuelle Dauer, die sich auf ihre interne Einteilung in Stunden bezieht, und eine reale Dauer, die sich auf die Zeit bezieht, in der sie abgefahren werden.
     
    Das Problem lösen könnte eine Kombination aus einem graphischen Editor auf dem Desktop und einer Steuersoftware auf einem Raspberry Pi. Da biologische Uhren eine gewisse Zeit brauchen, um sich an äußeren Rhythmen zu synchronisieren, können die Experimente 8-10 Wochen dauern. Eine hohe Zuverlässigkeit der Steuersoftware ist also nötig.
     
    Das Projektthema gefiel mir aus zwei Gründen:
    Den Anwendungskontext biologische Grundlagenforschung fand ich spannend. Da die Steuersoftware auf einem Raspberry Pi läuft, an den PWM-Treiber und Sensoren angeschlossen werden, hat das Projekt auch den Aspekt physical computing. Das spielte im Studiengang keine Rolle, war aber ein Thema, auf das ich neugierig war.  
    Im Mittelpunkt des Projektes stand aber die Entwicklung eines grafischen Editors für Lichtskripte. Dabei spielten GUI-Programmierung und Grafik eine Rolle. Daraus ergaben sich erste Bezüge zu Modulen des Studienganges. Und siehe da:  Auch das bei vielen Studierenden ungeliebte Modul "Mathe 2" konnte ich gebrauchen, weil ich mich an verschiedenen Stellen mit Koordinaten-Transformationen beschäftigen musste, die durch Zoomen, Scrollen oder Änderung der Fenstergröße entstehen. Lineare Algebra kann also durchaus nützlich sein.
     
    Finden eines Betreuers
     
    Hier habe ich zunächst auf eigene Faust einen möglichen Betreuer angeschrieben und ihm mein Thema vorgestellt. Dann wollte ich die Projektarbeit beim Studienbüro anmelden. Dort war man von meiner Vorgehensweise wenig begeistert. Das Studienbüro übernimmt nämlich üblicherweise eine Lotsenfunktion und hilft den Studierenden so, einen Betreuer zu finden, der zum Projektthema passt. Das überraschte mich, weil unsere Studiengangskoordinatorin keine Informatikerin ist. Mir war also anfangs nicht ganz klar, wie sie mir bei der Vermittlung helfen sollte.
     
    Nach einigem Überlegen war ich dann aber gewillt, die vorgeschlagene Beratung und Vermittlung zu nutzen. So kam es zu einem längerem Telefonat zwischen mir und unserer Studiengangskoordinatorin, bei dem ich meine Projektidee vorstellte. Es zeigte sich, dass ich völlig falsch eingeschätzt hatte, worauf es bei so einer Vermittlung ankommt. Die Studiengangskoordinatorin kennt die Professoren. Sie hat einen Überblick, wer von wem mit welchem Thema betreut wurde und wie das ganze ausgegangen ist. Sie weiß auch, wer aktuell Zeit hat, noch weitere Studierende aufzunehmen. Und sie kann gut einschätzen, wer zu wem passt. Beim Finden eines Betreuers spielen also neben "harten" fachlichen Kriterien auch "weiche" soziale und organisatorische Kriterien eine große Rolle. Und genau dabei kann die Studiengangskoordinatorin helfen. Für Fernstudierende ist das sogar besonders wichtig.
     
    Nach nach einigen E-Mails habe ich ein persönliches Beratungsgespräch mit meinem Betreuer vereinbart. Ich würde empfehlen, für solch ein Gespräch nach Dortmund zu reisen, weil man so in kurzer Zeit viel klären kann, was online langwierig und missverständlich ist. Es zeigt sich doch deutlich, dass Mimik, Gestik, Artikulation, Stimmungen und andere Faktoren sehr viel zu einer gelingenden Kommunikation beitragen. Jedenfalls hatte ich nach dem Gespräch eine klare Vorgehensweise im Kopf und konnte damit beginnen, einen Zeitplan für mein Projekt zu erarbeiten.
     
    Formale Anmeldung des Projektes
     
    Die folgende Kommunikation mit meinem Betreuer lief per E-Mail. Hier schrieb ich zunächst eine Vorstellung meines Projektes, entwarf eine Vorgehensweise, eine Gliederung der Arbeit und stellte einen Zeitplan auf. Nachdem das Form angenommen hatte, meldete ich die Arbeit formal an. Ab jetzt tickte die Uhr. Ab Anmeldung stehen 3 Monate zur Verfügung. Es ist daher günstig, vorher einen möglichst konkreten Plan zu formulieren und diesem mit seinem Betreuer abzustimmen.
     
    Als grobe Richtlinie für den Umfang wurden mir an die 50 Seiten genannt. Bei mir wurden es deutlich mehr, aber das war dem Thema geschuldet.
     
    Zum Ablauf des Projektes
     
    Hier möchte ich nicht allzu sehr ins Detail gehen, weil die Einzelheiten stark vom Projektthema abhängen, also nicht unbedingt auf andere Studierende übertragbar sind. Folgende Artefakte entstanden in etwa dieser Reihenfolge:
    Analyse der Problemdomäne Analyse der Nutzergruppe Glossar Lastenheft handschriftliche Skizzen des UIs Mock-up des UIs UML-Klassendiagramme des Datenmodells UML-Klassendiagramme im Rahmen des objektorientierten Entwurfs UML-Paketdiagramm Modellierung als Zustandsautomat eine XML-Schema-Definition Java-Quellcode JavaDoc  
    Schön wäre gewesen, dem Thema Tests noch Raum zu geben. Allerdings passte das zeitlich nicht mehr in den Rahmen und die Arbeit war ja auch schon recht umfangreich.
     
    In den ersten Wochen schickte ich meinem Betreuer einzelne Textbausteine und erhielt dazu auch Feedback. Wie in der Vorbesprechung angekündigt, zog er seine Unterstützung allmählich zurück, um mich dann etwa ab der Hälfte des Projektes möglichst selbstständig arbeiten zu lassen. Ab diesem Zeitpunkt hätte ich weiter Hilfestellung bekommen können, wenn ich ausdrücklich darum gebeten hätte. Aber hier ging es darum, zu zeigen, wie ich alleine zurecht komme. Diese Vorgehensweise erschien mir didaktisch sinnvoll.
     
    Die Rückmeldungen durch meinen Betreuer kamen sehr zügig. Neben dem fachlichen Aspekt spielten die Konventionen wissenschaftlichen Arbeitens eine große Rolle. Gerade hier waren seine Rückmeldungen hilfreich.
    Die Erstellung der Artefakte und das Schreiben der eigentlichen Projektarbeit wechselten sich ab. Die Arbeit entstand also abschnittsweise und war so auch eine Dokumentation des Projektverlaufes. Eine große Rolle spielte es, getroffene Entscheidungen zu reflektieren, zu begründen und gegen andere mögliche Entscheidungen abzuwägen. Dabei war es auch immer wieder nötig, Kompromisse einzugehen, um das Projekt in der vorgegebenen Zeit zu einem Abschluss führen zu können. Andererseits war es mir stellenweise auch möglich, Themen zu erkunden, die mich besonders interessiert haben.
     
    Stand am Ende des Projektes
     
    Am Ende des Projektes gab es einen lauffähigen Prototypen des grafischen Editors mit den wesentlichsten Funktionen. Außerdem gab es einen Prototypen der Steuersoftware auf dem Raspberry Pi, der zunächst als Kommandozeilenanwendung funktionierte, die per SSH aufgerufen wurde. Mit dieser Kombination ist es nun möglich, Lichtskripte zu erstellen und Tests mit dem Raspberry Pi durchzuführen. Das ist für die Nutzer wichtig, weil diese sehen wollen, dass der Raspberry Pi Lichtprogramme zuverlässig über 8-10 Wochen ausführen kann. Sollte das der Fall sein, wäre die nächste Entwicklungsstufe ein grafischer Client, um Lichtskripte auf entfernte Raspberry Pi Steuerrechner zu laden und deren Ausführung zu überwachen. Die Steuersoftware müsste dafür zum Server einer verteilten Anwendung ausgebaut werden.
     
    Der Aspekt physical computing spielte im Projekt eine geringere Rolle als erhofft, weil ich den größeren Teil der Entwicklungszeit für den graphischen Editor verwenden musste. Würde ich das Projekt für meine Bachelorarbeit fortführen, würden die nächsten Projektschritte mehr mit dem Raspberry Pi, mit Sensoren und mit Netzkommunikation zu tun haben. Aber für die Bachelorarbeit möchte ich ja etwas anderes machen.
     
    Wissenschaftliches Arbeiten
     
    Wissenschaftliches Schreiben spielt für eine Projektarbeit eine große Rolle. Hilfreich war für mich, dass ich mir schon im Modul "Wissenschaftliches Arbeiten" eine Dokumentenvorlage erstellt hatte. Das war damals keine formale Anforderung, um das Modul gut abzuschließen, aber diese investierte Zeit lohnte sich für mich. Ich konnte meine Vorlage leicht für die Erfordernisse der Projektarbeit erweitern und glaube, sie auch für die Bachelorarbeit gut weiterverwenden zu können.
     
    Benutzt habe ich LibreOffice. Gelegentlich höre ich die Meinung, dass Informatiker ihre Arbeiten per se mit LaTex schreiben. Und dass Office-Software für längere Dokumente per se ungeeignet sei. Ich bin mit LibreOffice gut zurecht gekommen und plane bislang, das auch für meine Bachelorarbeit einzusetzen. Allerdings enthielt meine Projektarbeit auch relativ wenige mathematische Formeln, sonst wäre LaTex wahrscheinlich geeigneter gewesen. Wichtig war, sich gute Vorlagen zu erstellen, um dann Verzeichnisse für Abbildungen, Codebeispiele und Tabellen auch automatisch erzeugen zu lassen.
     
    Häufig gehört habe ich auch, man solle eine eigene Software zur Literaturverwaltung einsetzen, z.B. Zotero. Ich habe für die Projektarbeit an die 20 Quellen referenziert. Bei diesem Umfang sehe ich noch nicht, dass sich der Zeitaufwand für die Einarbeitung in solch eine Software rentiert. Das würde bei einer Arbeit mit deutlich mehr Quellen natürlich anders aussehen.
     
    Gegen Ende des Projektes sollte man in jedem Fall einen Puffer von einer Woche einplanen, z.B. für Korrekturen. Auch das Drucken und Binden der Arbeit braucht seine Zeit. Ich habe im CopyShop gemerkt, dass viele Studierende auf den letzten Drücker kommen und am liebsten noch am selben Tag ihre gebundene Arbeit mit nach Hause nehmen wollen. In Uni-Städten kann das aber zu bestimmten Zeiten problematisch werden, z.B. kurz vor Beginn eines neuen Semesters. Wenn man sich unnötigen Stress ersparen will, ist es daher gut, ein paar Tage Spielraum zu haben.
     
    Einreichen der Arbeit
     
    Die Arbeit wird zwei Mal ausgedruckt und ringgebunden. Sie muss zusätzlich als PDF auf CD oder DVD gebrannt und hinten eingeklebt werden. Wenn man die Arbeit per Post noch Dortmund schickt, gilt das Datum auf dem Einlieferungsbeleg als Abgabedatum. Das Studienbüro bestätigt den fristgerechten Eingang per Mail. Wenn nach ein paar Tagen keine Bestätigung kommt, sollte man also stutzig werden.
     
    Das Ergebnis kam in meinem Fall nach weniger als 3 Wochen. Ich bin zufrieden damit. Gut fand ich, dass die Rückmeldungen zu Beginn meines Schreibprozesses und die abschließende Bewertung zueinander passten. Ich finde also, dass mir die Kriterien, die an eine Projektarbeit angelegt werden, transparent vermittelt wurden. Und zwar nicht nur im Vorfeld durch das Modul "Wissenschaftliches Arbeiten" sondern auch in der Betreuung.
     
    Fazit
     
    Die Projektarbeit hat viel Spaß gemacht, weil ich Themen aus verschiedenen Modulen verbinden konnte, länger selbstständig an einem Thema arbeiten konnte und weil eigene Ideen gefragt waren. Gut gefallen hat mir auch die Betreuung durch meinen Professor, die anfangs noch recht intensiv war und dann in didaktisch sinnvoller Weise zurückgefahren wurde, so dass ich auch mal "ohne Stützräder" fahren musste. Interessant und bereichernd war auch die Interaktion mit den Wissenschaftlern, die Editor und Steuersoftware einmal nutzen sollen.
     
    Auch das wissenschaftliche Schreiben als solches hat mir Spaß gemacht. Die Erfahrungen damit werden mir sicher noch nützlich sein. Ich glaube, nun eine realistischere Vorstellung davon zu haben, was mich in der Bachelorarbeit erwartet. Darauf freue ich mich, aber ich habe auch ganz schönen Respekt davor. Wenn ich mein Studium erfolgreich abschließen will, werde ich mir meine Zeit sehr gut einteilen müssen.
     
    Leider hat die Projektarbeit viel mehr Zeit verschlungen, als ich erwartet hätte. Ich hatte gehofft, nebenbei noch ein bis zwei Module abschließen zu können, musste aber einsehen, dass das nicht realistisch war.
     
    10 Tipps zur Projektarbeit
     
    Wählt ein Thema, auf das ihr Lust habt. Die Projektarbeit kostet ungewöhnlich viel Zeit. Wenn man nur darauf aus ist, die nächsten 5 ECTS abzuhaken, kann das demotivierend wirken. Darum ist es wichtig, auch eine intrinsische Motivation aus der Arbeit selbst zu ziehen. Fangt rechtzeitig mit der Suche nach dem Thema an. Ein Semster Vorlauf schadet nicht. Wenn man mit suchendem Auge durch die Welt geht, sieht man auch Gelegenheiten, die man vorher nicht wahrgenommen hätte. Allerdings laufen einem gute Gelegenheiten nicht unbedingt sofort über den Weg. Schaltet man das suchende Auge rechtzeitig ein, so gibt man dem Zufall eine Chance. Nehmt die Beratung durch das Studienbüro in Anspruch. Man betreut dort viele Studierende und hat daher einen besonderen Blickwinkel, den ihr nicht haben könnt. Trefft euren Betreuer. Von Angesicht zu Angesicht kann man in kurzer Zeit viel klären. Grenzt euer Thema gut ein. Es wird in der Projektarbeit nicht möglich sein, ein Thema erschöpfend zu behandeln. Was für ein Ziel kann man also in 12 Wochen realistisch erreichen? Macht einen Plan. Erstellt eine Gliederung und überlegt euch, wann ihr wie weit gekommen sein wollt. Behaltet euren Plan im Blick. Belegt "Wissenschaftliches Arbeiten" nicht ganz zu Beginn eures Studiums sondern im 4. Fachsemester, wenn die Projektarbeit in Sicht kommt. Nehmt das Modul ernst. Es ist nicht nur ein Pflichtmodul, das 5 ECTS bringt. Haltet Kontakt zu eurem Betreuer. Schickt Bausteine der Projektarbeit und nutzt das Feedback, das ihr bekommt. Macht euch vorher eine gute Dokumentenvorlage. Plant am Ende ein paar Tage Puffer für Korrekturen und Druck ein.
  3. kurtchen
    Diesmal kommt kein Modulbericht. Eben habe ich mich auf der Lernplattform der W3L eingeloggt. Und dort, wo bislang das W3L-Logo zu sehen war, ist nun das Springer Logo. Das ist zugegebenermaßen recht chic, aber noch wirkt es auf mich an dieser Stelle fremd. Ich habe nun darüber nachgedacht, wie ich im Hinblick auf meinen Blog mit dieser Namensänderung umgehen möchte.Tatsächlich habe ich mit dem Gedanken gespielt, die Bezeichnung W3L in allen meinen Artikeln zu ändern. Andererseits habe ich mein Studium nun einmal nicht bei Springer Campus begonnen sondern bei der W3L. Und das war ein guter Anfang.
     
    Ich hoffe (und bin auch guten Mutes), dass es mit Springer Campus gut weitergehen wird. Ab jetzt werde ich in meinen Beiträgen also den neuen Namen verwenden.
     
    Sinn meines Blogs war und ist, dass künftige Studierende es ein wenig leichter haben als ich, Informationen zum Studium aus einer Insider-Perspektive zu finden. Damit diese Leute meine Modulberichte gut finden, habe ich zumindest in den Stichworten zu den Blogeinträgen konsequent W3L durch Springer Campus ersetzt.
     
    Bis zum nächsten ausführlichen Bericht dauert es noch ein bisschen. Zur Zeit bearbeite ich das Modul Nicht-sequentielle Programmierung und nebenbei auch schon ein bisschen Mobile Computing.
  4. kurtchen
    Wie ich zur theoretischen Informatik kam
     
    In meinem Modulbericht zu GdI4 "Algorithmen und Datenstrukturen" hatte ich es schon einmal erwähnt: Ich wollte gerne ein Modul "Künstliche Intelligenz" belegen, was Springer Campus leider bislang so nicht anbietet.
     
    Die WINGS Wismar hat ein sehr schönes KI Modul, in dem sowohl klassische KI und als auch künstliche neuronale Netze behandelt werden. Das gefiel mir und so schrieb ich Professor Cleve an, der für dieses Modul zuständig ist und auch das zugrunde liegende Lehrbuch geschrieben hat. Ihn fragte ich, ob ich dieses Modul als Gast- oder Zweithörer belegen könne. Und was gegebenenfalls für Vorwissen nötig sei. Herr Cleve empfahl mir, zunächst Kenntnisse in theoretischer Informatik zu erwerben und hatte auch gleich das passende Modul, das ebenfalls von ihm betreut wurde. So kam es, dass ich mich als Gasthörer bei der WINGS anmeldete.
     
    Organisatorisches
     
    Die Anmeldung unterscheidet sich bei der WINGS ein wenig von Springer Campus, weil man sich für ein bestimmtes Semester anmelden muss. In diesem Semester soll man auch die Modulprüfung ablegen. Für die Prüfung stehen mehrere Termine zur Verfügung, die allerdings an verschiedenen Standorten angeboten werden. Will man zu einem anderen Termin in die Prüfung gehen, so muss man in der Regel auch einen anderen Standort anfahren.
     
    Das Studienbüro ist gut erreichbar und bei organisatorischen Fragen sehr hilfreich. Als Gasthörer hatte ich immer wieder mal eine organisatorische Frage, weil ich mit den Abläufen noch nicht so vertraut war.
     
    Etwas verwirrend für mich: Während Springer Campus EINE Online-Plattform für den Studiengang hat, gibt es an der WINGS mehrere: StudIP, Ilias, den OnlineCampus, Wistu und wie sie alle heißen. Es dauerte eine ganze Weile, bis ich halbwegs begriffen hatte, wo ich welche Informationen finde.
     
    Das Modul "Theoretische Informatik"
     
    Grundlage für das Modul ist das in meinen Augen hervorragende Skript von Professor Jürgen Cleve. Er lehrt an der HS Wismar Grundlagen der Informatik und Künstliche Intelligenz. Sein Skript besteht aus an die 130 Seiten im A4-Format. Wenn man Anhänge, Verzeichnisse und Index abzieht, bleiben ca. 120 Seiten reiner Stoff. Die haben es allerdings ziemlich in sich, weil die Ausdrucksform mathematisch knapp ist, man also mit wenigen Symbolen viel ausdrücken kann. Diese 120 Seiten liest man also nicht mal eben so runter. Mehr als 2-4 Seiten pro Tag waren bei mir selten drin. Damit man bis zum Prüfungstermin "fit" ist, muss man dranbleiben und "den Berg Kieselstein für Kieselstein abtragen".
     
    Das Skript gliedert sich in 6 Kapitel:
    1. TI - Einführung
    2. Grundlagen
    3. Automatentheorie
    4. Logik
    5. Komplexität
    6. Berechenbarkeit
     
    Es enthält auch einen Vorschlag, wie man sich die Bearbeitung des Moduls zeitlich einteilen soll. Damit bin ich flexibel umgegangen.
     
    Außer dem Skript findet man auf der Plattform StudIP Zusatzmaterial, Videos, Übungsaufgaben für die Klausur und einen Link zum Download von JFLAP, einer Software zum Simulieren der verschiedenen Automaten aus dem Kapitel Automatentheorie. Im Unterschied zu Springer Campus, wo alles schön in EINER Plattform beisammen ist, muss man hier aus mehreren Quellen schöpfen. Die Materialien sind aber sehr gut.
     
    Mathematische Grundlagen
     
    Das Grundlagenkapitel ist ein Parforceritt durch Mengenlehre, Relationen und Funktionen. Grundlagen waren bei mir aus dem Modul Mathe1 da. Ich würde sagen, dass man davon ausgeht, dass die meisten Studierenden sich schon einmal mit diesen Themen vertraut gemacht haben. Es ist eher eine knappe Wiederholung, die noch einmal den begrifflichen Boden bereiten soll, für das was kommt. Außerdem werden so verschiedene Konventionen hinsichtlich der Darstellung etabliert, was die weitere Lektüre des Skriptes vereinfacht.
     
    Auch die sehr knappe Einführung in Begriffe der Graphentheorie enthielt größtenteils vertrautes. Auch das kannte ich aus Mathe1. Aber hier kamen die ersten für mich neuen Begriffe, z.B. der der Hülle eines Graphen. Dieser Begriff ist hilfreich, wenn man ausdrücken möchte, wie ein Automat durch eine Serie von Konfigurationsübergängen geht.
     
    Neu war für mich in erster Linie der Abschnitt über formale Sprachen. Knapp ausgedrückt, hat man eine Sammlung von Zeichen, ein Alphabet. Dieses besteht bei formalen Sprachen oft aus nur wenigen Zeichen, z.B. {0,1} oder {a,b,c} oder etwas in der Art. Wörter entstehen dadurch, dass man Ketten aus Zeichen bildet, also Strings. Eine Sprache entsteht dadurch, dass wir Eigenschaften definieren, die die so erzeugten Strings aufweisen müssen, z.B. mindestens eine Folge von drei Nullen enthalten. Eine Sprache ist also eine Teilmenge der mit dem Alphabet möglichen Strings.
     
    Interessanter wird es, wenn reguläre Ausdrücke ins Spiel kommen. Sie erlauben, bestimmte Stringmuster in kompakter Weise zu beschreiben. Das kann man in vielen Programmiersprachen gut brauchen, um z.B. Muster für Suche und Vergleich zu definieren. Zugleich sind reguläre Ausdrücke wichtig, weil sie mit einem bestimmten Automatentyp aus der Automatentheorie in Zusammenhang stehen, den sogenannten endlichen Automaten. Diese können nämlich genau solche Strings erkennen, die sich durch reguläre Ausdrücke beschreiben lassen.
     
    Über das Kapitel verstreut sind gelegentlich Übungsaufgaben. Am Ende des Kapitels kommen dann noch mal mehr Aufgaben. Im Gegensatz zu Springer Campus ist die Bearbeitung dieser Aufgaben nicht nötig, um zur Klausur zugelassen zu werden. Man kann seine Lösungen aber per Mail an einen Betreuer schicken. Besser ist es, sie ins Forum von StudIP einzustellen, wo sie auch andere Studierende sehen. Die Aufgaben werden auch dort von einem Betreuer kommentiert, jedenfalls wenn es etwas zu kommentieren gibt. Perfekte Lösungen bleiben auch mal ohne Feedback. Im Vergleich zu Springer würde ich sagen, dass es hier mehr und kleinere Aufgaben gibt. Das ist nicht schlecht, weil man so ähnliche Aufgaben wiederholt übt, was ungemein hilft, die Konzepte zu verinnerlichen.
     
    Automatentheorie
     
    Dieses Kapitel ist für mich das Kernkapitel des Moduls. Es behandelt zunächst endliche Automaten, abgekürzt DFA für engl. deterministic finite automaton. Einen endlichen Automaten kann man sich vorstellen als eine Maschine, die ein Band einliest, auf dem Zeichen notiert sind. Die Maschine liest das Band genau 1x von Anfang bis Ende. Sie kann nicht vor oder zurück gehen und auch nichts auf das Band schreiben. Sie kann aber in Abhängigkeit vom eingelesenen Zeichen ihren inneren Zustand wechseln. Ist die Maschine am Ende des Bandes in einem Zustand, der als akzeptierend ausgezeichet wurde, so sagt man, die Maschine habe die Zeichenkette akzeptiert. Die Maschine hat erkannt, dass das Wort auf dem Band zu einer Sprache gehört.
     
    Natürlich existiert dieser Automat nicht physisch sondern als Konzept. Man beschreibt ihn mathematisch. Mit der Menge von Zeichen, die er verarbeiten kann. Mit der Menge der Zustände, die er einnehmen kann. Mit dem Startzustand. Mit der Menge der Zustände, die als akzeptierend gelten. Und vor allem mit den Regeln für Übergänge von einem Zustand in den anderen in Abhängigkeit vom eingelesenen Zeichen. Deterministisch heißt der Automat, weil die Zustandsübergangsfunktion total ist. In jedem Zustand ist bei jedem eingelesenen Zeichen eindeutig, in welchen neuen Zustand der Automat wechselt. Durch die mathematische Form der Darstellung, kann man so einen Automaten in wenigen Zeilen exakt notieren.
     
    Verständlicher wird ein Automat, wenn man ihn graphisch darstellt. Er wird als Graph mit gerichteten Kanten gezeichnet. Die Kanten stehen für Zustandsübergänge, die Knoten für die Zustände.
     
    Hier ist ein Beispiel für einen deterministischen endlichen Automaten, der Wörter aus den Buchstaben "a" und "b" akzeptiert, die mindestens 1x die Zeichenkette "aab" enthalten. Das kleine Dreieck links markiert den Startzustand. Die Kreise stehen für die Zustände, die Pfeile für Zustandsübergänge, wenn im jeweiligen Zustand das Zeichen auf dem Pfeil eingelesen wird. Der Doppelkreis rechts steht für den einzigen akzeptierenden Zustand. Wie man sieht, gibt es auch reflexive Kanten. Sie bedeuten, dass der Automat im aktuellen Zustand bleibt. Der Automat ist deterministisch, weil von jedem Zustand aus für jedes mögliche Zeichen genau ein Zustandsübergang existiert.

     
    Nach dem DFA wird der NFA eingeführt. Er ist indeterministisch, weil der Folgezustand nicht mehr eindeutig definiert sein muss. Es kann mehrere Folgezustände geben. Der Automat wählt aber nicht zufällig einen davon aus. Vielmehr geht er in JEDEN möglichen Folgezustand. Man kann zeigen, dass ein NFA in einen DFA überführt werden kann. Dafür gibt es sogar ein mechanisches Verfahren. Für viele Probleme ermöglicht der NFA eine kompaktere Darstellung. Aber er kann nicht mehr als der DFA.
     
    Die Beschäftigung mit endlichen Automaten ist nützlich, z.B. weil man damit in der Softwaretechnik manche dynamische Systeme gut modellieren kann.
     
    Der DFA und der NFA sind in ihren Möglichkeiten begrenzt, weil sie sich nur durch ihren inneren Zustand etwas merken können. Soll ein Automat z.B. 100 Zeichen zählen, braucht er 100 innere Zustände. Aus diesem Grund wird der Kellerautomat eingeführt. Er hat einen Speicher, den Keller, auf den er Zeichen legen kann. Dieser Speicher ist ein Stack. Die Zeichen werden gestapelt und man kann immer nur das oberste Zeichen lesen. Der Kellerautomat kann z.B. vergleichen, ob die Anzahl A's zu Beginn eines Wortes gleich der Anzahl B's am Ende des gleichen Wortes ist. Er kann somit etwas zählen.
     
    Die von Kellerautomaten akzeptieren Sprachen lassen sich mit kontextfreien Grammatiken beschreiben. Diese sind nützlich, weil sich die Syntax der meisten Programmiersprachen ebenfalls mit kontextfreien Grammatiken beschreiben lässt.
     
    Weil es Sprachen gibt, die nicht kontextfrei sind, braucht man einen mächtigeren Automaten als den Kellerautomaten: Die Turingmaschine. Die Turingmaschine ist deterministisch. Sie liest ein endloses Band ein. Einen Kellerspeicher hat sie nicht. Dafür kann sie auf dem Band schrittweise nach rechts und nach links gehen oder stehen bleiben. Sie kann Zeichen lesen und schreiben. Das Band ist also ihr Speicher. Es enthält eine Folge von Zeichen, einen String. Die Turingmaschine verarbeitet den String, d.h. sie transformiert ihn in einen neuen String. Wenn der String z.B. aus zwei natürlichen Zahlen besteht und die Maschine am Ende die Summe dieser beiden Zahlen auf das Band schreibt, dann kann man sagen, die Maschine hat eine Summe berechnet.
     
    Die Turingmaschine ist ein einfaches Computermodell. Interessant ist, dass sie zugleich das mächtigste bislang bekannte Computermodell ist. Mächtigkeit bezieht sich hier nicht auf die Verarbeitungsgeschwindigkeit sondern auf das, was prinzipiell mit einer Maschine dieses Typs berechnet werden kann. Jeder Computer kann im Prinzip nur berechnen, was auch auf einer Turingmaschine berechnet werden könnte. Darum ist es interessant, sich mit diesem Automaten zu beschäftigen.
     
    TI ist ein FH-Modul. Der Schwerpunkt liegt also hier nicht auf dem Führen von Beweisen. Die Übungsaufgaben laufen meist darauf hinaus, Automaten zu konstruieren, die ein bestimmtes Problem lösen. Mit der Software JFLAP kann man seine Automaten testen, mit verschiedenen Strings füttern und schauen, wie sie diese Schritt für Schritt verarbeiten. Das hat mir sehr viel Spaß gemacht. Und es hat auch schon eine Menge mit Programmierung zu tun. Der erste Schritt zur Lösung ist meist, sich eine Strategie zu überlegen, wie ein Automat ein Problem lösen könnte, eine Art Algorithmus. Dann muss man sich mit den Details der Implementierung rumschlagen, wozu oft auch eine geschickte Behandlung von Sonderfällen gehört.
     
    Logik
     
    Das Kapitel zur Logik beschäftigt sich nur mit Aussagenlogik. Die mächtigere Prädikatenlogik spielt keine Rolle. Hier hatte ich Vorkenntnisse aus den Modulen "Mathe1" und "Rechnerstrukturen und Betriebssysteme". Trotzdem hat mir dieses Kapitel viel gebracht. Nachdem knapp einführt wird, wie man Aussagen formalisiert, mit Operatoren verknüpft und mit Umformungsregeln umformt, wird die konjunktive- und die disjunktive Normalenform eingeführt. Sie ist eine Art standardisierte Darstellung komplex verknüpfter Aussagen. So weit kannte ich den Stoff.
     
    Der nächste und für mich neue Schritt bestand nun darin, die konjunktiv verknüpften Ausdrücke sehr kompakt als Mengen zu schreiben. Die nennt man Klauseln. Aus Klauseln kann man mit einer einfachen Umformung - der Resolution - neue Klauseln erzeugen. Man kann so Widerspruchsbeweise führen. Die Gültigkeit einer Schlussfolgerung kann man prüfen, indem man sie in negierter Form den bisherigen Klauseln hinzufügt und dann einen Widerspruch findet.
     
    All dies könnte man auch auf anderem Wege tun, z.B. mit Wahrheitstabellen oder mit Umformungen. Das interessante an Klauseln und am Resolutionsbeweis ist, dass man...
    1. effizient mit sehr großen Mengen von Aussagen umgehen kann, was bei Wahrheitstabellen schnell unübersichtlich wird.
    2. Resolutionsbeweise gut automatisiert per Software führen kann.
     
    Gerade der letzte Punkt ist entscheidend: Man hält das mathematisch-logische Werkzeug in den Händen, um einen automatischen Beweiser zu bauen. Der Stoff dieses Kapitels ist Grundlage für logische Programmiersprachen wie Prolog. Ich vermute, genau aus diesem Grund hat mir Herr Cleve dieses Modul als Grundlage für KI empfohlen. Dieses Kapitel hat mich positiv überrascht, weil ich hier wirklich etwas nützliches und neues gelernt habe, obwohl ich der Ansicht war, über Aussagenlogik schon eine Menge zu wissen.
     
    Komplexität
     
    Im Kapitel über Komplexität geht es Aufwandsabschätzungen. Platt ausgedrückt, schätzen wir Aufwand, indem wir zählen, wieviele Zuständsübergänge ein Automat durchlaufen muss, um ein bestimmtes Problem zu lösen. Wir zählen die Übergänge in der Regel nicht genau. Vielmehr ordnen wir sie einer Klasse zu. Der Aufwand wächst z.B. linear mit der Größe des Problems oder vielleicht auch quadratisch mit der Größe des Problems. Manches davon war mir aus dem Modul Algorithmen und Datenstrukturen (GdI4) bekannt. Hier wird das Thema Komplexität aber mathematischer und formaler behandelt.
     
    Eine für mich schöne Übung war die Aufgabe, die Komplexität eines Sortieralgorithmus zu analysieren. Den durfte man sich frei aussuchen. Aus GdI4 kannte ich schon die Komplexitätsklassen vieler einfacher und komplexerer Sortierverfahren. Es wäre somit eine langweilige Aufgabe geworden. Allerdings war dort kurz ein Algorithmus namens Bucketsort erwähnt, der unter bestimmten Voraussetzungen ein Feld in linearer Laufzeit sortieren kann. Es hatte mich schon länger interessiert, wie das funktioniert, denn man kann ja mathematisch beweisen, dass ein Sortierverfahren, dass auf Vergleich basiert, im besten Fall logarithmische Komplexität hat. Wie kann man ohne Vergleiche schneller sortieren? Ja wie kann man überhaupt ohne Vergleiche sortieren? Die Übungsaufgabe war für mich also Anlass, mich mit dem mir bis dahin unbekannten Bucketsort-Algorithmus zu beschäftigen. Das hat wirklich Spaß gemacht.
     
    Berechenbarkeit
     
    In diesem letzten Kapitel werden die LOOP und die WHILE-Sprache eingeführt. Die LOOP-Sprache hat nur ganz wenige Konstrukte. Sie kann Variablen einen Wert zuweisen, sie um 1 erhöhen oder vermindern. Vor allem kann sie mit dem Befehl LOOP eine Schleife genau n-mal durchlaufen, wobei n zu Beginn festsehen muss. Die Sprache hat also nicht mal ein IF. Man kann es aber mit einem LOOP geschickt simulieren. Trotz der primitiven Möglichkeiten kann diese Sprache schon viel berechnen. Hilbert vermutete sogar, dass die LOOP-Sprache jede Funktion berechnen kann. Widerlegt wurde seine Vermutung durch die Ackermann-Funktion, die nicht mehr LOOP-berechenbar ist.
     
    Darum brauchte man die WHILE-Sprache. Sie hat zusätzlich die WHILE-Schleife, die wiederholt eine Bedingung prüfen kann. Mit der WHILE-Sprache kann man nun genau die Probleme lösen, die auch eine Turingmaschine lösen kann.
     
    Knapp gesagt geht es in dem Kapitel darum, was gemeint ist, wenn wir sagen, etwas sei berechenbar oder nicht berechenbar. Es gibt verschiedene Konzepte von Berechenbarkeit. Dieses Kapitel wird ein wenig philosophisch. Es geht hier letztlich darum, die Grenzen dessen auszuloten, was mit Computern gerechnet werden kann.
     
    Präsenztag und Klausur
     
    Module an der WINGS enden mit einem Präsenztag, an dem in der Regel auch die Abschlussklausur geschrieben wird. Anders als bei Springer Campus gibt es an der WINGS keine Möglichkeit, schon in der Bearbeitung eines Moduls ein paar Punkte für die Klausur zu sammeln. Die Note spiegelt allein die Performance in den 2 Stunden der Klausur wieder.
     
    Die Präsenzveranstaltung vor der Klausur war bei TI eher eine Art Repetitorium, bei dem viele Übungsaufgaben bearbeitet wurden. Die Lehrform war sehr interaktiv. Automatentheorie nahm etwa die Hälfte der Zeit in Anspruch. Die Ideen der Teilnehmer wurden vom Dozenten direkt in JFLAP eingegeben und mit dem Beamer projeziert. So konnte man sofort sehen, was die Automaten machen und welche Fehler man noch verbessern muss. Die Übungen ließen darauf schließen, dass in der Klausur weniger Wissen abgefragt werden würde. Es schien darum zu gehen, Wissen anzuwenden, indem man Probleme löst. Dazu braucht man ein bisschen Kreatitivät.
     
    Die intensive Wiederholung des Stoffes in der Gruppe unmittelbar vor der Prüfung ist eine tolle Vorbereitung. Das finde ich an der WINGS sehr gut gelöst. Die Klausur deckte den Stoff gut ab. Schwerpunkt war Automatentheorie, aber auch Grammatiken, Komplexität und der Resolutionsbeweis kamen dran.
     
    Das Klausurergebnis kam nach knapp 2 Wochen. Schlecht war es nicht, aber ganz zufrieden war ich am Ende auch nicht. Das lag aber keinesfalls am Modul oder an der Klausur sondern daran, dass ich der Meinung war, bei dieser Prüfung ein bisschen hinter meinen Möglichkeiten zurückgeblieben zu sein.
     
    Fazit
     
    Das Modul "Theoretische Informatik" hat mir sehr viel Spaß gemacht. Die von Herrn Cleve gewählte Form der Darstellung, bei der es weniger ums Beweisen sondern vor allem um das Lösen von Problemen mit Automaten geht, finde ich für ein FH-Modul genau richtig. Das Skript ist verständlich geschrieben und lässt meiner Meinung nach auch solchen Studierenden eine faire Chance, die sich mit dem eher trockenen Stoff der TI nicht anfreunden können.
     
    Sehr gut war auch das Feedback zu den Aufgaben durch Herrn Cleve. Oft hat er Rückfragen gestellt, Einwände formuliert, meine Aufmerksamkeit auf Spezialfälle gelenkt. Auf die Weise hat er mich angeregt, neu über meine Lösung nachzudenken. Das war viel besser als einfach nur Punkte zu verteilen. Es hat etwas für sich, dass die Übungsaufgaben NUR Übungsaufgaben sind und weder für die Note noch für die Zulassung zur Prüfung eine Rolle spielen. Das führt zu einem freieren Umgang mit der Übung. Statt auf Punkte zu zielen, geht es allein um den Stoff. Das hat mir gut gefallen.
     
    Ich studiere gerne bei Springer Campus. Aber das Konzept der WINGS ist auch nicht schlecht. Diejenigen unter euch, die Wirtschaftsinformatik studieren möchten, mit etwas weniger zeitlicher Flexibilität bei Prüfungen zurecht kommen und BWL etwas stärker gewichten wollen, sollten sich das Angebot der WINGS einmal anschauen.
  5. kurtchen
    Das Modul "Mobile Computing" kann als eines von drei Vertiefungsmodulen im Studiengang Web- und Medieninformatik gewählt werden. Springer Campus schlägt vor, es in den letzten beiden Semestern zu belegen.
     
    Gleich vier Module werden als sinnvolle Vorbereitung genannt:
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Web-Programmierung
    - Web-Design und Web-Ergonomie

    Der Grund dafür ist der siebte Kursabschnitt "Programmierung für mobile Endgeräte", der eine Einführung in die Android-Programmierung gibt. Um hier folgen zu können, benötigt man Grundkenntnisse der objektorientierten Programmierung in Java. Die Layouts für die GUIs werden mit XML beschrieben. Darum sind Vorkenntnisse in Web-Programmierung von Vorteil.
     
    Für Studierende im Studiengang "Wirtschaftsinformatik" ist "Mobile Computing" ein Pflichtmodul und wird dem Studienbereich "Grundlagen der Informatik" zugerechnet. Für die Web- und Medieninformatiker gibt es zwei gute Gründe, ausgerechnet dieses Modul als Vertiefung zu belegen: Es ist Pflichtmodul für die Hochschulzertifikate "Anwendungs-Programmierer" und "Software-Architekt", die als Meilensteine auf dem langen Weg zum Bachelor dienen können.
     
    Ich persönlich hätte erwartet, dass es in diesem Modul vorwiegend um Android-Programmierung gehen würde. Tatsächlich nimmt diese aber nur einen relativ kleinen Teil des Kurses ein. Hier wird eher ein Einblick gegeben, der meiner Meinung nach noch nicht ausreicht, um wirklich loszulegen. Es ist allenfalls ein Einstieg und man wird auf jeden Fall vertiefende Literatur benötigen, um Fortschritte zu machen. Tatsächlich geht es in diesem Modul allgemein um mobile Rechner, die vernetzt sind und standortbezogene Informationen einbeziehen. Das Smartphone ist dafür nur das prominenteste Beispiel.
     
    Mobile Computing ist etwas schneller durchgearbeitet als andere Module bei Springer Campus. Das Lehrbuch hat lediglich 200 Seiten, wenngleich diese ein bisschen größer ausfallen als bei anderen Lehrbüchern und auch ein bisschen enger bedruckt sind. Das Lehrbuch wird ergänzt durch 84 Tests und 12 Einsendeaufgaben, von denen lediglich eine mit Android-Programmierung zu tun hat. Die meisten Aufgaben haben eine Art Aufsatzform. Es sind oft Texte bei denen man etwas abwägen muss. So soll man z.B. entscheiden, ob man für einen bestimmten Einsatzzweck einem Android- oder IOS-Gerät den Vorzug geben würde, ob man ein bestimmtes Projekt nativ oder plattformübergreifend entwickeln würde oder was für Sicherheitsmaßnahmen man für die Handynutzung eines hochrangigen Politikers für nötig erachtet. Diese Art der Aufgaben, bei denen man in erster Linie Text produziert, fällt etwas aus dem Rahmen, den ich im Studium sonst gewohnt bin. Die Rückmeldungen meines Tutors kamen in diesem Modul sehr zügig.
     
    Die 7 Kapitel decken folgende Themen ab:
    1. Was ist mobile Computing? Hier geht es auch um technische Meilensteine auf dem Weg zum mobile Computing.
    2. Mobile Geräte. Hier werden verschiedene Mobiltelefon-Plattformen vergleichend betrachtet. Obwohl die zweite Auflage des Lehrbuches von 2015 ist, merkt man hier deutlich, dass der Markt sich rasant weiterentwickelt. So werden z.B. die Vorzüge von Blackberry diskutiert, was ja mittlerweile Geschichte ist.
    3. Hardware für mobile Geräte: Hier erfährt man etwas über die Besonderheit von Prozessoren für mobile Geräte, aber auch über Akkutechnik und Grafikhardware.
    4. Drahtlose Kommmunikation: Hier beschäftigt man sich mit verschiedenen Mobilfunkstandards, mit Formen der Modulation und des Multiplexings, mit WLAN, Bluetooth aber auch mit Nahfeldkommunikation mit RFIDs.
    5. Location Based Services: Hier geht es um verschiedene Verfahren der Positionsbestimmung per Satellit (GPS) oder gestützt durch stationäre Netze (Handynetze oder auch WLAN-Accesspoints). Außerdem geht es um Techniken zur Positionsbestimmung in Gebäuden.
    6. Sicherheit für mobile Geräte und mobile Kommunikation: Aus meiner Sicht das interessanteste Kapitel. Hier werden verschiedene Bedrohungsszenarien für mobile Geräte vorgestellt und die Wirksamkeit von Gegenmaßnahmen erörtert.
    7. Programmierung für mobile Endgeräte: Ich hätte erwartet, dass es nun endlich um Android-Programmierung geht. Aber hier spielten zum Beispiel auch Besonderheiten des UI-Designs für mobile Geräte eine größere Rolle, unabhängig von bestimmten Platformen. Im Schnelldurchgang lernt man dann, wie man ein einfaches GUI programmiert, Positionsbestimmung nutzt und Google Maps in eine eigene Applikation einbindet. Auch persistente Datenspeicherung - unter anderem mit SQLite - wird knapp behandelt.
     
    Obwohl ich noch nicht weiß, wie ich in der Klausur abgeschnitten habe, würde ich sagen, dass dies einer der leichtesten Kurse im Angebot von Springer Campus ist. Das berichten mir auch immer wieder Kommilitonen. Mobile Computing gilt als ein Modul, mit dem man seinen Notendurchschnitt etwas verbessern kann. Bei mir hinterlässt das Modul einen gemischten Eindruck. Viele Inhalte könnten einem durchaus geläufig sein, wenn man regelmäßig Meldungen bei Heise oder Golem verfolgt. Mir fehlte hier das Erlebnis, ab und zu auch mal eine richtige harte Nuss knacken zu müssen.
     
    Auch die Abschlussklausur fiel etwas aus dem Rahmen. Sie besteht aus ungewöhnlich vielen Fragen, bei denen in erster Linie Faktenwissen abgeprüft wird. Selbstständiges Problemlösen steht bei dieser Klausur nicht im Mittelpunkt. Kann man so machen, aber ich persönlich bevorzuge Aufgaben, bei denen mehr Kreativität gefragt ist.
     
    Weil ich es insgesamt ein bisschen zu einfach fand und mir die echte Herausforderung fehlte, würde ich dieses Modul nur solchen Studierenden empfehlen, die - so wie ich - eines der Hochschulzertifikate als Etappenziel und kleinen Motivationskick in den Händen halten wollen. Wer eine gründliche Einführung in die Android-Programmierung sucht, wird sich an anderer Stelle umsehen müssen.
     
    Wegen Umfang, Schwierigkeitsgrad und dem sehr hohen Rückmeldetempo des Tutors ist Mobile Computing ein Modul, dass man sich für Situationen aufsparen könnte, in denen die Zeit fürs Studium knapp ist und man trotzdem zum nächsten Prüfungstermin noch etwas abschließen möchte. Solche Situationen, in denen Arbeit oder Familienleben einem kaum Zeit zum Studieren lassen, kennt wohl jeder Fernstudent. Da ist es vielleicht ganz schön, wenn es im Studium auch ein Modul gibt, dass man sozusagen "als Joker" spielen kann.
  6. kurtchen
    Das Modul "IT-Sicherheit" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik" und wird dort dem Studienbereich "IT-Systeme" zugerechnet. Laut Studienplan wird es für das 3. Semester empfohlen. Als sinnvolle Vorbereitung werden die Module "Angewandte Mathematik" und "Computernetze" genannt. Dieser Empfehlung möchte ich mich anschließen. Wer Computernetze noch nicht belegt hat, dürfte es schwierig finden, den Kapiteln zur Sicherheit in Netzen zu folgen. Ein grundlegendes Verständnis für die im Internet üblichen Protokolle und sowie Kenntnis der OSI-Referenzmodells sowie des TCP/IP-Referenzmodells ist nötig. Dies wird zwar im Kurs noch einmal kurz behandelt, hätte mir aber in der knappen Form nicht gereicht, um die darauf aufbauenden Ausführungen zu verstehen. Mathe3 ist hilfreich, weil dort eine Einführung in kryptographische Basistechniken gegeben wird und einige kryptographische Verfahren auch schon recht detailliert behandelt werden. Als Beispiele seien hier die asymmetrische Verschlüsselung mit RSA sowie der Schlüsseltausch nach Diffie-Hellman genannt. Diese Themen werden zwar auch im Modul "IT-Sicherheit" genau erklärt, aber die mathematischen Grundlagen werden in Mathe3 ausführlicher behandelt und man hat in den Übungsaufgaben die Chance, aktiv damit zu arbeiten und ein "Gefühl" für diesen Stoff zu bekommen.
     
    Studierende im Studiengang "Wirtschaftsinformatik" müssen "IT-Sicherheit" nicht belegen, dürfen es aber als Vertiefungsmodul belegen. Da Sicherheit im Internet und im Intranet von Firmen und Organisationen angesichts immer raffinierterer Bedrohungen immer wichtiger wird, halte ich es für sehr sinnvoll, gerade dieses Modul in seinen Studienplan aufzunehmen. Dafür muss man allerdings in Kauf nehmen, dass die 5 ECTS bei diesem Modul ein bisschen mühsamer erarbeitet werden müssen als in den meisten anderen Modulen.
     
    Auch wenn die mathematischen Grundlagen in Mathe3 gelegt wurden: IT-Sicherheit hat viel mit Kryptographie zu tun und Kryptographie hat viel mit Mathematik zu tun. Für ideal hielte ich, wenn der zeitliche Abstand zu Mathe3 und Computernetze nicht zu groß wäre. Manche Kommilitonen, die IT-Sicherheit lange nach diesen beiden Modulen belegt hatten, klagten darüber, wie schwer es ihnen gefallen war, den inhaltlichen Bezug wieder herzustellen.
     
    Grundlage für den Kurs ist das Buch "IT-Sicherheit" von Werner Poguntke. Es ist mit knapp 300 Seiten ein bisschen dünner als das durchschnittliche Lehrbuch der W3L. Wie bei vielen Lehrbüchern mit mathematischem Inhalt, wird hier auf knappen Raum viel ausgedrückt. Man sollte also nicht erwarten, diesen Kurs besonders schnell durcharbeiten zu können. Dies gilt insbesondere für das zweite Kapitel, in dem die kryptographischen Verfahren und Protokolle vorgestellt werden. Diese knapp 100 Seiten bilden das Fundament, auf dem die folgenden Kapitel zur Computersicherheit und zur Sicherheit in Netzen aufbauen. Hier wird man am meisten Arbeit investieren müssen. Die gute Nachricht: Hat man diese schwere Kost verdaut, ist der Rest des Kurses schon fast ein nettes kleines Dessert. Es ist erstaunlich, wie schnell man begreift, wenn die theoretische Grundlage erst mal da ist.
     
    Das Buch finde ich hervorragend geschrieben. Besonders gefällt mir am Stil des Autors, dass er innerhalb des Buches inhaltliche Bezüge herstellt, indem er sowohl auf folgende Kapitel und Abschnitte verweist, die auf dem aktuellen Thema aufbauen werden, als auch auf vorangehende Abschnitte zurück verweist. So weiß man einerseits, wofür der aktuelle Stoff später nützlich sein wird; und andererseits, wo man noch einmal nachschlagen müsste, wenn man etwas vergessen hat. Letzteres ginge natürlich auch mit dem Index, aber so kann man viel schneller arbeiten. Gerade Gliederung und Aufbau des Stoffes finde ich sehr gelungen. In meinen Augen eines der besten Lehrbücher im Studiengang.
     
    Nach dem einführenden ersten Kapitel steigt im zweiten Kapitel "Kryptologische Verfahren und Protokolle" das Niveau rasch an. Hier geht es um:
    - symmetrische Verschlüsselungsverfahren wie DES, 3DES und AES
    - Stromchiffren wie z.B. der im Mobilfunk verwendete A5
    - asymmetrische Verschlüsslung z.B. mit RSA oder mit elliptischen Kurven
    - Digitale Signaturen
    - kryptographische Hashfunktionen, wie z.B. SHA
    - Zero-Knowledge-Protokolle
    - Fiat-Shamir-Algorithmus
    - Schlüsselmanagement und Schlüsseltausch, z.B. nach Diffie-Hellman
    - Zertifikate
    - Kryptoanalyse
    - Steganographie und digitale Wasserzeichen
     
    Die Aufgaben für diesen Kursteil können relativ schwierig sein, weil es hier schon recht mathematisch zugehen kann. Reine Reproduktion genügt hier oft nicht. Hier können auch mal eigene Ideen gefragt sein, wenn z.B. ein Beweis geführt werden soll.
     
    Im dritten Kapitel "Computersicherheit" geht es z.B. um:
    - Ansätze der Zugangskontrolle
    - Authentifikation durch Wissen
    - Sichere Passwörter
    - Authentifikation durch Besitz, z.B. Smartcards
    - Authentifikation bei GSM
    - Authentifikation durch biometrische Merkmale
    - Authentifikation in verteilten Systemen
    - Kerberos
    - Zugriffkontrolle, z.B. bei UNIX
    - Sicherheit von Betriebssystemen
    - Trusted Computing, also den Versuch Sicherheit in die Hardware zu verlagern
    - Softwaregesteuerte Angriffe
    - Viren, Würmer, Trojaner, Malware
    - Sichere Software
    - Sicherheit in eingebetteten Systemen
     
    Mit den fachlichen Grundlagen aus dem anstrengenden zweiten Kapitel kann man sich diese Themen überraschend leicht erarbeiten. Hier merkt man, dass das didaktische Konzept gut funktionert.
     
    Im vierten und letzten Kapitel "Sicherheit in Netzen" geht es dann um:
    - Firewalls, Paketfilter, Identifizierung von Angreifern
    - Sicherheit auf den verschiedenen Schichten des Internets, also auf der...
    - IP-Schicht mit IPSec
    - TCP-Schicht z.B. mit SSH und SSL
    - auf der Anwendungsschicht, z.B. beim Remote Terminal Access oder beim File Transfer
    - Sicherheit von E-Mails
    - Sichere Webanwendungen
    - Sicherheit in GSM-Netzen
    - Smartphones und Appstores
    - Anonymität in Netzen und das Mix-Konzept
    - Sicherheit im Intranet
    - ARP-Poisoning
    - WLAN, Bluetooth und VoIP
     
    Dieses Kapitel ist wieder ein bisschen schwieriger, weil man sich an diverse technische Details aus dem Modul "Computernetze" erinnern musss. Auf der anderen Seite ist es besonders spannend, weil jeder, der sich im Internet bewegt, sich auch mit Fragen der Sicherheit befassen muss. Hier sind bei mir - wieder auf der Grundlage des zweiten Kapitels - einige Groschen gefallen.
     
    Die Einsendeaufgaben decken den Inhalt des Kurses recht breit ab. Sie sind recht unterschiedlich. Es gibt Reproduktionsaufgaben aber auch solche, wo man ein bisschen programmieren muss. Man experimentiert mit Wireshark und soll dann wieder ein Thema selbstständig im Netz recherchieren, dass im Kurs nicht abgedeckt ist. Die Rückmeldungen zu den Aufgaben kamen zügig und waren vor allem dann sehr interessant, wenn nicht alles richtig war. Mein Tutor versuchte, mich mit ein Hinweisen zum selbstständigen Weiterdenken anzuregen. Bei den Aufgaben zum mathelastigen zweiten Kapitel ist es mir leider nicht immer gelungen, diese Tipps zu verwerten. Hier spielte sicher auch mein Wunsch eine Rolle, zügig weiter zu kommen.
     
    Im Hinblick auf die Klausur wäre es vorteilhaft gewesen, mich auf diese Anregungen zum Weiterarbeiten einzulassen. Die Präsenzklausur fand ich sehr gut gestellt. Es gab einen Sockel von Aufgaben, die eher auf Reproduktion des gelernten hinausliefen, so dass jeder eine realistische Chance hat, das Modul durch Fleiß zu bestehen. Es gab aber auch eine größere Aufgabe, bei der Problemlösen und eigenes Denken gefragt war. Wer gut abschneiden will, muss sich also aktiv mit dem Stoff auseinander setzen. Die beste Vorbereitung sind hier die schwierigeren Einsendeaufgaben. Mit den Rückmeldungen des Tutors sollte man sich aktiv auseinandersetzen und seine Lösungen noch mal "polieren bis sie glänzen". Das hätte mich noch ein bisschen weiter gebracht.
     
    Der Abschluss-Test ist machbar, wenn man die Tests aus dem Modul gut wiederholt. Auch in der Online-Klausur wird nichts unmögliches verlangt. Mit ihr kann man gut ein paar Bonuspunkte sammeln. Der Schwierigkeitsgrad ist aus meiner Sicht etwas niedriger als in der Präsenzklausur.
     
    Das Modul hat mir viel Spaß gemacht und ich verstehe nun einige Dinge besser, die im Hintergrund ablaufen, wenn ich z.B. online eine Überweisung tätige oder meine SIM-Karte in ein neues Handy einlege. IT-Sicherheit ist ein vergleichsweise schwieriger Kurs, der die Mühe wert ist.
  7. kurtchen
    10:45 Uhr - Aktuelles für Studierende
     
    Den Vortrag hielt zum ersten Mal Frau Kreissig von Springer Campus. Nach der Übernahme der W3L durch Springer Campus im Herbst, gab sie uns einige Informationen über die GmbH, die nun unsere Studiengänge weiterführt. Im Studienalltag haben wir ja nicht viel davon gemerkt. Das Konzept der Studiengänge und die gesamte Studienorganisation sind gleich geblieben. Insbesondere bleibt es bei der Kooperation mit der FH Dortmund, die am Ende unsere Abschlüsse verleiht. Und doch sind wir unter einem neuen Dach. Im Vortrag ging es darum, ein wenig mehr über dieses neue Dach zu erfahren.
     
    Frau Kreissig gab uns ein kleines "who is who" der für uns relevanten Mitarbeiter von Springer Campus. Viele Namen und Gesichter waren uns ja schon bekannt, weil unsere gewohnten Ansprechpartner aus dem Studienbüro nun für Springer Campus tätig sind. Frau Kreissig selbst ist Biologin und arbeitet als Projektmanagerin für Springer Campus. Sie scheint durchaus IT-affin. Springer Campus ist eine Abteilung von Springer Nature, einem Verlag mit ca. 13000 Mitarbeitern. Und nein, Springer verlegt nicht die Bildzeitung! Das macht ein anderer Springer Verlag und ist ein häufiges Missverständnis.
     
    Spannend für mich war eine Vorstellung der anderen Studiengänge, die über Springer Campus angeboten werden. Dies gilt vor allem für den B.Sc. Biologie, den es seit 1997 gibt. Dieser Studiengang ist nur ausgebildeten Laboranten zugänglich, also BTAs und MTAs mit Berufserfahrung. Ein Biologie-Studium beinhaltet naturgemäß viele Laborpraktika. TAs bringen durch ihre Ausbildung Vorkenntnisse mit, die sich in einem Fernstudium sonst kaum vermitteln ließen. Entwickelt wurde dieser Studiengang in Kooperation der Uni Mainz mit der Firma Bayer, die ihre Laboranten berufsbegleitend wissenschaftlich weiterbilden wollte. Inzwischen hat der Studiengang Teilnehmer von über 100 Firmen. Im Gegensatz zu unseren Informatik-Studiengängen, die als Online-Studiengänge konzipiert sind, folgt das Fernstudium Biologie dem Ansatz des blended learning. Es gibt alle 2 Wochen Präsenzen. Das erzwingt auch Zeitfenster für den Studieneinstieg, während wir Informatiker uns jederzeit einschreiben können. Ein Unterschied zu uns ist auch eine stabile Gruppe von 4-35 Studierenden, die über den Zeitraum des Studiums zusammenarbeitet und von einem festen Ansprechpartner betreut wird. Die Kosten sind mit ca. 15.000 Euro etwas höher als bei uns. Das hat damit zu tun, dass Laborpraktika betreuungsintensiv und teuer sind.
     
    Wie bei uns steht auch bei den anderen Studiengängen von Springer Campus am Ende ein Abschluss einer staatlichen Hochschule, denn Springer Campus tritt bislang nicht als private Hochschule auf sondern kooperiert mit staatlichen Hochschulen. Neben dem Fernstudium Biologie gibt es seit 2015 ein Fernstudium Chemie und seit 2016 ein Fernstudium Elektrotechnik, beide mit einem ähnlichen Modell des blended learning. In Zukunft könnte es auch noch ein sozialwissenschaftliches Studium geben.
     
    Für mich war das alles recht spannend, nicht zuletzt weil meine Partnerin Biologin ist. Ich hatte den Eindruck, dass vielen Lesern hier im Forum noch nicht bekannt ist, dass ein Fernstudium in Fächern wie Biologie und Chemie möglich ist. Darum wollte ich die Gelegenheit nutzen, das hier einmal vorzustellen.
     
    FAQs aus dem Studienbüro
     
    Für uns Studierende besonders relevant waren FAQs aus dem Studienbüro und eine anschließende Frage und Antwortrunde:
    - Fachlich nicht wirklich essentiell aber für viele von uns doch von großer emotionaler Bedeutung: Die kleine Ente mit Doktorhut, die von der W3L traditionell mit der Bachelorurkunde überreicht wurde, bleibt auch unter Springer Campus erhalten. Das hatten tatsächlich viele Studierende gefragt. (Ich hatte mich nicht getraut, habe mich aber auch gefreut.)
    - Da Springer Campus in Heidelberg sitzt, kann Heidelberg als neuer Prüfungsstandort angeboten werden. Bislang hat man das erst einmal versucht aber die Resonanz war gering. Darum wurde noch einmal abgefragt, ob ein Prüfungsstandort Heidelberg interessant ist und welche Zeiten "anreisekompatibel" wären.
    - An Präsenztagen gibt es weiterhin nur Prüfungen in Dortmund, weil das Personal an diesen Tagen in Dortmund gebunden ist.
    - Das Modul "Wissenschaftliches Arbeiten" ist nun Pflichtmodul in beiden Informatik-Studiengängen, weil sich in der Vergangenheit immer wieder mal formale Mängel bei der Abschlussarbeit unvorteilhaft auf die Abschlussnote ausgewirkt haben. Viele Studierende arbeiten in einem betrieblichen Umfeld und erleben dort wissenschaftliches Arbeiten nicht. Frau Kreissig rät dringend, die Möglichkeit zur Interaktion mit dem Betreuer zu nutzen. Für diejenigen Studierenden, die noch nach einer alten Studienordnung studieren und "Wissenschaftliches Arbeiten" nicht belegen müssen, wird es dennoch dringend empfohlen.
    - Ein Notenspiegel bzw. eine Leistungsübersicht kann per Mail oder Post im Studienbüro angefordert werden.
    - Verspätete Klausuranmeldungen können grundsätzlich nicht berücksichtigt werden. Die angegebenen Fristen, in der Regel 1,5 Wochen vor Prüfungstermin, sind verbindlich.
    - Klausurkorrekturen erfolgen innerhalb von 6 Wochen. (Nach meiner Erfahrung hat man im Schnitt nach 3 Wochen ein Ergebnis.)
    - Das Modul "Skriptsprachen" wurde aus dem Curriculum genommen und wird bis auf weiteres nicht mehr angeboten. Ein Grund dafür war, dass es inhaltlich nicht mehr ganz aktuell war, obwohl die letzte Auflage des Lehrbuches eigentlich noch gar nicht so lange her war. An diesem Punkt merkt man, dass sich in der Informatik viele Themen schnell weiterentwickeln.
    - Als Ersatz für "Skriptsprachen" kann man das Modul "Web-Engineering" belegen. Hier geht es allerdings nicht allein um Javascript sondern um AJAX.
     
    Thema war auch die Umstellung auf die neue Plattform, was anfangs für einigen Unmut gesorgt hatte. Allerdings gibt es inzwischen auch Studierende, die mit der neuen Plattform zufrieden sind. Viele gemeldete Bugs wurden anscheinend in recht kurzer Zeit behoben. Die gestiegene Auslastung der Plattform führte zwischenzeitlich zu längeren Antwortzeiten. Eine neue skalierbare Hardware soll ermöglichen, künftig schneller auf solche Situationen zu reagieren. Die Umstellung auf das neue Layout hatte übrigens nichts mit der Übernahme durch Springer zu tun sondern war seit längeren geplant und in Arbeit. Es war reiner Zufall, dass die Übernahme durch Springer und die Umstellung des Layouts zeitlich eng zusammenfielen. Da noch nicht alle gemeldeten Mängel restlos behoben werden konnten, besteht nach wie vor Wahlfreiheit zwischen und alter und neuer Plattform.
     
    Bleibt zu sagen, dass ich natürlich sehr gespannt bin, wie sich diese Angelegenheit entwickelt. Ich selbst bin nach einer Weile zur alten Plattform zurück gekehrt, habe aber deswegen auch nicht mehr mitbekommen, was sich seitdem verbessert hat. Vielleicht kann mich Springer ja bald davon überzeugen, künftig mit der neuen Plattform zu lernen.
     
    Im Rahmen des Vortrags von Frau Kreissig wurden auch wieder einige Hochschulzertifikate überreicht. Frau Weirich vom Studienbüro informierte parallel in einem anderen Raum über das Studiengangskonzept.
     
    12:15 - Vortrag Prof. Dr. Uwe Klug zum Thema NoSQL-Datenbanken
     
    Professor Dr. Uwe Klug von der FH Südwestfalen ist vielen Studierenden bekannt als Autor der Lehrbücher zum Datenbank-Modul. Dort geht es in erster Linie um relationale Datenbanken und die Abfragesprache SQL. In seinem Vortrag ging es um alternative Datenbankkonzepte. Hier eine kleine Zusammenfassung:
     
    Das Konzept der relationalen Datenbank ist seit Jahrzehnten etabliert. Die Grundidee ist die Speicherung von Daten in Tabellenform. Eine mögliche Metapher hierfür ist das Adressbuch. Es hat auf jeder Seite Daten im gleichen Format, z.B. erst der Name, dann die Adresse, dann die Telefonnummer und so weiter. Relationale Datenbanken halten stark strukturierte Daten.
     
    Im Bild der Tabelle sind die Tabellenüberschriften die Felder und stehen für Typen von Daten, die in fester Reihenfolge enthalten sind. (Unter Umständen dürfen Felder immerhin leer bleiben.) Die Zeilen enthalten die eigentlichen Daten und stehen für gespeicherte Datenobjekte, die Datensätze. Kennzeichnend für relationale Datenbanken ist die starke und starre Strukturierung der Daten. Sie ermöglicht einen feingranularen Zugriff auf Daten mit teils raffinierten Abfragen, die in der Sprache SQL formuliert werden. Zu Beginn der Datenbankentwicklung werden die zu speichernden Daten modelliert und das Modell normalisiert, um Redundanzen zu eliminieren.
     
    Zentrale Eigenschaften einer relationalen Datenbank sind:
    - relationale Integrität: Sie gewährleistet die Datenintegrität, z.B. durch Check-Regeln, Trigger und die Verwendung von Fremdschlüsseln zur Vermeidung redundanter (und möglicherweise inkonsistenter) Datenspeicherung.
    - Transaktionssicherheit: Eine Folge von SQL-Anweisungen wird ganz oder gar nicht bearbeitet. Kann sie nicht ganz bearbeitet werden, gibt es einen Rollback, bei dem die bisherigen Anweisungen der unvollständigen Transaktion rückgängig gemacht werden. Wie Transaktionssicherheit intern sichergestellt wird, muss der Datenbankentwickler nicht wissen. Das macht für ihn das RDBMS.
     
    Hinter relationalen Datenbanken steht eine bestimmte kaufmännische Denkungsart. Im Vordergrund steht die Konsistenz der Daten, die jederzeit aktuell und widerspruchsfrei sein sollen.
     
    Inzwischen haben sich aber Anforderungen an Datenbanken geändert. Datenbanken werden nicht mehr vorwiegend in kaufmännischen Anwendungen eingesetzt sondern z.B. auch in Web-Applikationen. Und dort gelten oft andere Anforderungen, die von relationalen Datenbanken nicht mehr optimal erfüllt werden. Daten in Web-Applikationen sind oft nur schwach strukturiert. Feingranulare Abfragen stehen nicht immer im Mittelpunkt. Dafür sind die Nutzerzahlen oft extrem hoch.
     
    Es gibt im wesentlichen 2 Strategien, auf steigende Nutzerzahlen und Datenmengen zu reagieren:
    1. vertikale Skalierung: Ich kaufe einen schnelleren Rechner mit größerer Platte. Aber irgendwann habe ich den schnellsten Rechner und die Nutzerzahlen zwingen meinen Datenbankserver trotzdem in die Knie.
    2. horizontale Skalierung: Ich verteile meine Daten auf mehrere Server. So muss jeder Server nur einen Teil der Anfragen bewältigen. Jetzt kann ich auf steigende Nutzerzahlen reagieren, indem ich einfach immer mehr Server hinstelle. Damit handle ich mir aber ein neues Problem ein. Wenn Daten redundant auf mehreren Servern liegen, muss ich sie bei Änderungen konsistent halten.
     
    Mit den Web-Applikationen kommen neue Wünsche und Anforderungen an Datenbanken:
    - Ich möchte große Datenmengen verteilt speichern.
    - Ich möchte Schema-Änderungen WÄHREND der Nutzung des DBMS durchführen können und nicht etwa gezwungen sein, für so etwas meine Server vom Netz zu nehmen.
    - Ich möchte mit schwach strukturierten Daten arbeiten.
    - Mein System soll bei einem Ausfall einzelner Server nicht zusammenbrechen.
    - Die Aktualität und Konsistenz der Daten ist grundsätzlich weiter wichtig, aber Schnelligkeit der Informationsbereitstellung und Ausfallsicherheit sind mir wichtiger.
     
    Gerade die Schnelligkeit ist bei Web-Anwendungen sehr wichtig. Wenn mein Kunde in meinem Shop nach einem Artikel sucht und mein Server braucht zu lange, um eine Auswahl zu präsentieren, wird mein Kunde nach wenigen Sekunden einen neuen Tab aufmachen und schauen, ob mein Mitbewerber schneller ist. Das möchte ich vermeiden.
     
    In diesem Zusammenhang ist das CAP-Theorem von Eric Brewer relevant. CAP steht für Consistency (Integrität der Daten), Availability (Schnelle Antwortzeiten) und Partition Tolerance (Ausfalltoleranz). Das CAP-Theorem besagt, dass ich bei einer Datenbank in verteilter Umgebung nicht alles zugleich haben kann. Bei mindestens einer der 3 Anforderungen muss ich Kompromisse machen. Das CAP-Theorem lässt sich mit formalen Mitteln beweisen. Es gibt hier also kein Entkommen. Und darum bestimmen die Anforderungen meines Geschäftsmodells, was für ein DBMS ich brauche. Und das ist eben immer häufiger keine klassische relationale Datenbank.
     
    NoSQL-Datenbanken machen den Kompromiss bei der Konsistenz zugunsten von Ausfallsicherheit und Verfügbarkeit. Das ist für Web-Anwendungen typisch. Ein Beispiel wäre ein Web-Shop, über den Artikel verkauft werden. Er hat 2 Knoten, einen in Hamburg, einen in München. Diese synchronisieren ihre Verkäufe automatisch, so dass dem Kunden jederzeit angezeigt wird, ob sein gewünschter Artikel noch auf Lager ist. Durch eine Störung im Netz wird die Verbindung zwischen Hamburg und München für ein paar Minuten unterbrochen. Es gibt nun 2 Möglichkeiten, darauf zu reagieren:
    1. Weil ich die Knoten nicht mehr synchronisieren kann, verkaufe ich nichts mehr. So kommt nie ein Kunde in die Situation, einen Artikel zu bestellen, den ich nicht zum versprochenen Zeitpunkt liefern kann. Aber mein Kunde ärgert sich, dass ich ihm minutenlang nichts anbieten kann und bestellt stattdessen bei der Konkurrenz.
    2. Ich verkaufe weiter. Möglicherweise verkaufe ich einen knappen Artikel mehrfach. Dann muss ich einen Kunden informieren, dass ich doch nicht zum versprochenen Zeitpunkt liefern kann. Nicht optimal, aber mein Kunde wird das vermutlich eher akzeptieren als einen Web-Shop, der minutenlang nicht reagiert.
     
    Die Aufweichung der Konsistenz beschreibt man mit der Abkürzung BASE. Die steht für Basically Available, Eventually Consistent. Konsistenz wird nicht aufgegeben, aber man fasst sie als Übergangsprozess auf. Zeitweise kann es zu Inkonsistenzen kommen. Sobald eine Verbindung wieder verfügbar wird, wird die Inkonsistenz behoben. Möglich wird dies durch eine Versionierung der Datensätze. Vermittels einer Versionsnummer kann ich nachvollziehen, wie und in welcher Reihenfolge sich Datensätze verändert haben. Bei der Synchronisation paralleler Prozesse fällt nun möglicherweise auf, dass eine Versionsnummer doppelt existiert, weil ein paralleler Prozess den gleichen Datensatz schon geändert hat. Es gibt dann verschiedene Strategien, wie man mit diesem Problem umgehen kann. Welche man wählt, hängt vom Anwendungsfall ab.
     
    Vorgestellt wurde auch die Technik des Map Reduce. Dies ist ein zweischrittiges Verfahren, das von Google entwickelt wurde. Es dient der verteilten Ausführung von Operationen über große Datenmengen (von mehreren Terabyte!). Auf verschiedenen Knoten wird parallel gesucht (map). Dann werden die Zwischenergebnisse zusammengeführt (reduce). Map Reduce ist ein Konzept. Es ist somit unabhängig von eingesetzter Hardware. Angewendet wird es z.B. in der CouchDB.
     
    Eine Vorstellung der CouchDB bildete den letzten Teil des Vortrags. Sie kann große Datenmengen speichern, die keine feste Struktur aufweisen. Die Daten werden in Form von JSON-Objekten abgelegt. CouchDB hat einen nativen Support für BLOBS (binary large objects). Sie ist quelloffen, einfach zu installieren und bietet eine gute Dokumentation. Entwickelt wurde sie in der wenig bekannten Sprache Erlang, die vor allen in der nebenläufigen Programmierung Stärken hat.
     
    Das JSON-Format ist ein textbasiertes (und menschenlesbares) Format, das etwas kompakter schreibbar ist als XML. Es besteht aus Name-Wert-Paaren und ist letztlich eine Komma-getrennte Liste von Eigenschaften. Mit diesem Format kann man schwach strukturierte Daten gut beschreiben. Die Reihenfolge von Feldern kann sich ändern und Felder können auch weggelassen werden.
     
    Zum Abschluss wurde noch auf den Unterschied zwischen Replikation und Clustering einer Datenbank eingegangen. Bei der Replikation kopiere ich eine vollständige Datenbank. So kann ich sie redundant auf verschiedenen Knoten ablegen und die Anfragen über die Knoten verteilen. Fällt ein Knoten aus, bleibt die DB verfügbar, wenngleich die Reaktionszeiten womöglich steigen, weil sich Anfragen nun auf weniger Knoten konzentrieren. Replikation findet eine natürliche Grenze in der Speicherkapazität des Knotens mit der geringsten Kapazität. Wenn dieser die gesamte Datenbank nicht mehr fassen kann, muss ich die Datenbank aufteilen. Das nennt man Clustering.
     
    Beim Clustering liegen verschiedene Teile der Datenbank auf verschiedenen Knoten. Dadurch muss ich Anfragen eventuell so filtern, dass sie an den richtigen Knoten gerichtet werden, der die relevanten Daten besitzt.
     
    Ich habe mich sehr gefreut, Herrn Klug einmal "in Aktion" zu erleben, weil sein Modul "Relationale Datenbanken und SQL" für mich bislang zu den Highlights meines Studiums zählt. Auch die Betreuung durch ihn fand ich damals sehr gut. Inhaltlich waren mir einige der vorgestellten Themen noch aus dem Modul geläufig, aber ein bisschen Auffrischung kann ja nie schaden.
     
    13:15 Uhr - Vortrag Prof. Dr. Peter Weber über E-Commerce
     
    Den Abschluss des Tages bildete ein Vortrag von Prof. Dr. Peter Weber über E-Commerce. Herr Weber unterrichtet an der FH Südwestfalen und ist einer der Autoren des Lehrbuches "Basiswissen Wirtschaftsinformatik", ein einführendes Lehrbuch für die Wirtschaftsinformatiker in unserem Studiengang. Herr Weber war ein engagierter Redner und konnte mich für sein Thema begeistern. (Obwohl ich bei BWL-Themen eigentlich nur schwer in die Gänge komme.) Leider konnte ich nicht mehr den gesamten Vortrag hören, weil ich ein Ticket mit Zugbindung hatte. Darum kann ich hier keinen vollständigen Bericht liefern. Spannend war für mich vor allem seine Mitwirkung am Einzelhandelslabor Südwestfalen mit dem CCEC (Competence Center E-Commerce).
     
    Das Projekt hat als Zielgruppe kleine Händler und läuft seit April 2016. Ziel ist, die Multi-Channel-Kompetenz des inhabergeführten stationären Einzelhandels zu stärken. Die Ladenbesitzer sind meist schon mit den Anforderungen des Tagesgeschäfts ausgelastet, haben oft wenig Personal und machen das meiste alleine. Das ist natürlich eine Hürde, wenn es darum geht, sich mit neuen Formen der Kundeninteraktion auseinander zu setzen. Und doch wäre das bitter nötig, denn die aktuelle Situation stellt sich wie folgt dar:
    - Der Online-Handel hat zweistellige Wachstumsraten.
    - Für stationäre Einzelhändler entwickelt sich der Handel nicht so gut.
    - Man prognostiziert, dass in den nächsten 5 bis 7 Jahren 30% der Umsätze der stationären Einzelhändler verschwinden.
    - Viele Händler nutzen bereits IT.
    - Sie nutzen sie aber vor allem zur Verwaltung.
    - Seltener nutzen sie IT für Marketing, Service und Vertrieb.
     
    Ein mögliches Konzept, den lokalen Handel zu stärken sind lokale Shopping-Plattformen. Sie stellen ein grundlegendes Prinzip des Online-Handels auf den Kopf: Ich kann alles von jedem kaufen, egal wo ich bin, egal wo er ist.
     
    In einer lokalen Shopping-Plattform gilt dagegen:
    - Ich kann nur kaufen, wenn ich aus einer bestimmten Region bin.
    - Ich kann nur kaufen, was ein Händler aus einer bestimmten Region anbietet.

    Die Standortbeschränkung - nach klassischer Logik ein Nachteil - ist das Alleinstellungsmerkmal. Im Prinzip ist es eine Form des ethischen Einkaufs und richtet sich an Kunden, die zwar bequem online einkaufen wollen, aber damit dennoch lokale Händler unterstützen wollen, z.B. weil sie auch in Zukunft noch gerne Läden in ihrer Stadt haben möchten.
     
    Ziel des CCEC ist, die Ladeninhaber zu qualifizieren, so dass sie Online-Medien nutzen können, um mit ihren Kunden in Kontakt zu treten. Damit ist natürlich etwas anderes gemeint als der x-te Online-Shop.
     
    Interessant ist in diesem Zusammenhang der ROPE-Effekt. Er ist sozusagen das Gegenteile eines Phänomens, das viele Einzelhändler beschreiben und beklagen. Die Kunden kommen in den Laden, schauen sich dort die angebotenen Waren an, und kaufen sie anschließend billiger online. Das hat wohl jeder schon einmal gehört. ROPE steht dagegen für "research online, purchase offline". Der Kunde recherchiert im Internet, z.B. in einem Online-Shop, was es für Artikel gibt. Dabei nutzt er zum Beispiel auch die Bewertungen anderer Kunden, Photos, Artikelbeschreibungen und was es sonst für Vorzüge gibt. Dann geht er in einen lokalen Laden und kauft das Produkt. "Macht kaum einer", hätte ich gedacht, obwohl ich das selbst oft so mache und es auch bei meinen Familienmitgliedern schon oft beobachtet habe. Anscheinend schätzt man, dass 38% der Kunden das so machen. Es ist aber schwer, das zu messen. Denn im Gegensatz zum Online-Handel, der seine Kunden hervorragend "trackt", weiß der Einzelhandel wenig darüber, wie Kunden zu ihrer Kaufentscheidung kommen.
     
    Ein weiteres Projekt, das sehr spannend klang, ist ARSuL (Augmented Reality basierte Unterstützung für das Lernen im Sanitär-Heizung-Klima-Handwerk). Die Ausgangsituation ist hier folgende:
    - Die Vielfalt an Heizungssystemen hat stark zugenommen.
    - Ein Wartungstechniker braucht Erfahrung mit vielen verschiedenen Systemen, z.T. sehr neue, z.T. sehr alte.
    - Es gibt Nachwuchsmangel im Handwerk. Junge Techniker kennen sich mit der Vielfalt der Systeme noch nicht aus.
    - Erfahrene Kräfte sind oft vor Ort nicht verfügbar.
    - Zum Teil sind erfahrene Kräfte körperlich auch nicht mehr belastbar genug, um die Arbeiten vor Ort durchzuführen.
     
    Die Lösungsidee:
    - Die jungen Techniker tragen Datenbrillen und können sich bei Problemen mit einem erfahrenen Techniker verbinden lassen.
    - Der sieht, was sie sehen, hat eventuell in der Zentrale sogar ein ähnliches System vor sich und kann sie durch die Reparatur coachen.
    - Er kann per Augemented Reality eventuell direkt Hilfestellungen für die jungen Techniker vor Ort einblenden.
     
    Fazit
     
    Der Präsenztag hat mal wieder viel Spaß gemacht und viel interessanten Input gebracht. Was ich hier nicht beschreiben kann, ist der informelle Austausch mit Kommilitonen über Erfahrungen mit Modulen, Aufgaben, Prüfungen. Und der allgemeine menschliche Austausch über die spezielle Situation des Fernstudiums neben Beruf und Familie. Dadurch lösen sich die vielfältigen Belastungen zwar nicht auf, aber man merkt doch, dass noch andere Menschen diesen nicht alltäglichen Weg gehen. Das gibt dann doch ein wenig Kraft für die nächsten Herausforderungen.
  8. kurtchen
    Ich hatte ja in Aussicht gestellt, ab und zu etwas zur Erstellung meiner Bachelorarbeit zu schreiben, falls die Zeit dafür reicht. Eigentlich reicht sie nicht, aber heute tut es mir trotzdem ganz gut, mal einen Schritt zurück zu treten und auf das Ganze zu schauen.
     
    Themenfindung
     
    An meiner FH entwickeln viele Studierende die Bachelorarbeit auf der Grundlage ihrer Projektarbeit. Das eigentlich praxisbezogene Thema der Projektarbeit wird dann mit einer wissenschaftlichen Fragestellung verknüpft und so fortgeführt und erweitert. Ich habe eine Weile geschwankt, ob ich das auch so machen soll.
     
    Mein Projekt war ja die Entwicklung einer Steuersoftware für ein chronobiologisches Experiment. Im Rahmen des Projektes wurde eine erste Entwicklungsstufe erreicht, aber es gab noch einige Anforderungen, die nicht realisiert werden konnten. Insofern hätte hier durchaus die Möglichkeit bestanden, die nächsten Entwicklungsschritte zum Thema meiner Bachelorarbeit zu machen. Allerdings soll die Bachelorarbeit stärker als die Projektarbeit eine wissenschaftliche Fragestellung bearbeiten. Nun soll mein Projekt zwar einem wissenschaftlichen Zweck dienen, aber eben innerhalb der Disziplin der Biologie. Softwaretechnisch gesehen hat es verschiedene Aspekte: Physical Computing, Kommunikation übers Netz, GUI-Programmierung und so weiter. Dennoch tat ich mich zunächst schwer damit, eine für die Informatik relevante Forschungsfrage zu formulieren.
     
    Meine Steuersoftware läuft auf einem Raspberry Pi und bietet ihre Funktionen als WebService im Intranet an. Eine Idee war daher ein Vergleich verschiedener Microframeworks für REST basierte Webservices, die sich gut für Physical Computing (auf vergleichsweise schwachbrüstiger Hardware) eignen. Mein Projekt nutzt z.B. inzwischen das Spark Framework. Der Vorteil wäre gewesen, dass ich die Weiterentwicklung meines Projektes zeitlich mit meiner Bachelorarbeit hätte verbinden können. Wer weiß, vielleicht wäre ich dann sogar schon fertig.
     
    Es gab aber eine Sache, die mir daran nicht so gut gefiel. Die Informatik ist ja meist in einer dienenden Rolle. Sie ist aber auch eine Strukturwissenschaft mit eigenen Erkenntnisgegenständen. Die Bachelorarbeit ist (vielleicht eine letzte) Gelegenheit, sich mit diesem Aspekt der Informatik ausführlicher zu befassen. Darum hatte ich eigentlich Lust auf eine Bachelorarbeit, die einen stärkeren Theorieaspekt hat. Es gab zwei Themen, die mir seit einer Weile im Kopf herumspukten und die ich gerne verbinden wollte.
     
    Funktionale Programmierung
     
    Ich hatte ja hier im Forum mal von einem "Urlaubsprojekt" berichtet, bei dem ich ein bisschen mit dem Lisp-Dialekt Scheme herumexperimentiert habe. Das war in diesem Thread. Das lag daran, dass ich den Wunsch hatte, wenigstens ein anderes Programmierparadigma als die objektorientierte Programmierung kennenzulernen. Die Beschäftigung mit der funktionalen Sprache Scheme hinterließ bei mir viele Fragen und offene Wünsche:
    Scheme wurde als Lehrsprache entwickelt. Ich hatte den Wunsch auch eine funktionale Sprache zu lernen, die für den produktiven Einsatz entwickelt wurde. Mögliche Kandidaten waren hier z.B. Scala, Clojure oder Erlang. Mit dem Erlernen einer funktionalen Sprache ist es ja nicht getan. Schwieriger ist es, seine Denkweise zu ändern. Im Studium habe ich gelernt, Probleme objektorientiert zu modellieren. Ich habe objektorientierte Entwurfsmuster gelernt, die bestimmte Klassen von Problemen lösen. Das führt allerdings auch dazu, dass ich Probleme "durch eine objektorientierte Brille" anschaue. Für die objektorientierte Programmierung gibt es die UML. Wie modelliere ich funktionale Softwaresysteme? Besonders ungewohnt war für mich der Umgang mit unveränderlichen Datenstrukturen. Objektorientierte Programmierung versucht ja, Zuständsveränderungen zu beherrschen, indem Zustände in Objekten gekapselt werden. Funktionale Programmierung versucht, Zustandsveränderungen möglichst zu vermeiden. Allerdings konnte ich mir nicht so richtig vorstellen, wie ein größeres Softwaresystem ohne Zustandsveränderungen auskommen kann.  
    Insgesamt blieb bei mir also der Wunsch, mich noch einmal ausführlicher mit funktionaler Programmierung und meinen offenen Fragen zu beschäftigen. Meine Idealvorstellung wäre ein Modul über Programmierparadigmen gewesen, bei dem man gleiche Programme in unterschiedlichen Paradigmen implementiert und durch den direkten Vergleich an Fallbeispielen die jeweiligen Eigenheiten der Paradigmen verstehen lernt. Da es so ein Modul nicht gab, hatte ich die Idee, in meiner Bachelorarbeit objektorientierte und funktionale Programmierung an einem Fallbeispiel zu vergleichen.
     
    Ich war auch neugierig, ob so ein Vergleich meine Sichtweise auf Programmierung verändern würde. Vielleicht ist es ja ein bisschen wie mit Fremdsprachen. Wenn man eine fremde Sprache lernt, so lernt man zugleich eine Menge über die Eigenheiten seiner eigenen Sprache. Und das umso mehr, je fremdartiger die neue Sprache ist.
     
    Die Grundidee war also ein Sprachvergleich an einem Fallbeispiel. Nun musste noch ein Fallbeispiel her, dass sich für diesen Vergleich eignen würde.
     
    Heuristiken mit Evolutionsstrategie
     
    In diesem Zusammenhang fiel mir ein Artikel über den Sintflut-Algorithmus ein, den Gunter Dueck 1993 in der Zeitschrift Spektrum der Wissenschaft veröffentlicht hatte. Der Sintflut-Algorithmus kann z.B. das Problem des Handlungsreisenden lösen. Hier geht es darum, eine möglichst kurze Rundreise durch eine Anzahl Städte zu finden. Das klingt auf den ersten Blick nicht weiter schwierig, aber die Anzahl der Möglichkeiten wächst sehr rasch. Bei n Städten gibt es (n-1)!/2 Möglichkeiten; also bei nur 16 Städten bereits über 653 Milliarden mögliche Rundreisen. Ein praktisches Rundreiseproblem wäre ein Roboter, der Löcher in eine Platine bohren soll. Damit er mehr Platinen pro Stunde schafft, wäre es wünschenswert, er würde die Löcher ist der bestmöglichen Reihenfolge bohren. Wenn die Platine mehrere hundert Löcher hat, ist die Anzahl der möglichen Routen zu groß, um alle auszuprobieren. Das Problem kann nicht optimal gelöst werden.
     
    Heuristische Algorithmen versuchen den großen Lösungsraum einzuschränken. Sie untersuchen nur einen Teil der Möglichkeiten und finden so schneller eine Lösung, allerdings zu dem Preis, dass sie höchstwahrscheinlich die optimale Lösung übersehen. Ist die Suchstrategie clever, so wird die gefundene Lösung aber nur wenig von einer optimalen Lösung abweichen. Für praktische Anwendungsfälle ist eine gute Lösung, mit der man sofort arbeiten kann, interessanter als eine optimale Lösung, die erst in ein paar hundert Jahren zu bekommen ist.
     
    Eine vergleichsweise einfache Heuristik für das Rundreiseproblem ist die Nearest Neighbour Heuristik. Man wählt eine zufällige Stadt als Startpunkt. Von hier reist man immer zur nächstgelegenen Stadt, die man noch nicht besucht hat. Das liefert oft schon ganz gute Ergebnisse, aber gelegentlich haut die Nearest Neighbour Heuristik auch mal ordentlich daneben. Gleichwohl hat man hier ein einfaches Verfahren, das als Referenz für komplexere Verfahren dienen kann.
     
    Eine Reihe von Algorithmen versuchen, Prinzipien der Evolution für Optimierungsprobleme fruchtbar zu machen. Die Grundidee ist, dass zunächst zufällige Lösungen erzeugt werden, die natürlich nicht besonders gut sind. Diese Lösungen werden nun kleinschrittig variiert, was bedeutet, dass die Varianten der ursprünglichen Lösung "ähneln" sollen. Mutationsoperatoren erzeugen solche zufälligen Varianten. Rekombinationsoperatoren erzeugen Lösungen als Kombination von zwei bisherigen Lösungen. Die bisherigen Lösungen nennt man dann Eltern und die erzeugten Varianten Nachkommen oder Kinder. Zur Strategie wird das aber erst, wenn ein Selektionsmechanismus hinzukommt. Die Varianten werden bewertet, verworfen oder sie verdrängen die bisherigen Lösungen.
     
    Im Falle des Sintflut-Algorithmus ist der Selektionsmechanismus vergleichsweise anschaulich. Man stellt sich den Lösungsraum als Gebirge vor. Die Höhe über dem Meeresspiegel entspricht der Güte der Lösung entsprechend der Bewertungskriterien. Im Falle des Rundreiseproblems wäre also eine kürzere Rundreise ein höherer Punkt im Gebirge. Den Optimierer kann man sich als Wanderer vorstellen, der versucht, im Gebirge einen hohen Punkt zu erreichen. Eine naive Strategie wäre, immer nur bergauf zu gehen. Dann würde man allerdings auf dem ersten kleinen Gipfel "hängenbleiben". Manchmal muss man akzeptieren, dass es schlechter wird, bevor es besser werden kann. Man braucht also eine bessere Strategie als HINAUF. Sintflut fügt diesem Bild einen Regen hinzu, der den Wasserspiegel kontinuierlich ansteigen lässt. Nacheinander versinken so alle Gipfel im Wasser. Der Wanderer streift im Gebirge umher. Er geht rauf oder runter, solange er nur trockene Füße behält. Diese einfache Strategie liefert gute Lösungen für das Rundreiseproblem. Ich finde an solchen Algorithmen persönlich faszinierend, dass hier grundlegende biologische Prinzipien wie Anpassung durch Mutation und Selektion für die Informatik fruchtbar gemacht werden.
     
    Aus verschiedenen Gründen hielt ich derartige Optimierungsverfahren auch für ein interessantes Thema für meine Fallstudie:
    Die Erzeugung von Varianten durch Mutation und Rekombination wäre einen interessanter Anwendungsfall für immutable Datenstrukuren. Simuliert man eine Population von Lösungen, so können Verarbeitungsschritte parallelisiert werden. Von funktionalen Sprachen wird behauptet, dass sie nebenläufige Berechnungen handhabbarer machen. Andererseits sprechen wir hier von randomisierten Algorithmen. Ein Zufallsgenerator ist aber zustandsbehaftet. D.h. man kann auch etwas über den Umgang mit Seiteneffekten lernen, die in der funktionalen Programmierung eigentlich vermieden werden sollen.  
    Die Idee für meine Bachelorarbeit war also ein Vergleich objektorientierter und funktionaler Programmierung am Fallbeispiel verschiedener heuristischer (evolutionärer) Algorithmen zur Lösung des Rundreiseproblems. Ich hatte das Glück an meiner FH einen Professor zu finden, der für diese Idee offen war.
     
    Stand der Bearbeitung
     
    Die Arbeit ist inzwischen angemeldet. Hier ist zu bemerken, dass die Anmeldung einer Bachelorarbeit ein bisschen formaler abläuft als die Anmeldung einer Projektarbeit. Es muss ein Dokument als physischer Gegenstand herumgeschickt und von verschiedenen Personen unterzeichnet werden, weshalb das ganze ein bisschen länger dauern kann als man im Zeitalter elektronischer Kommunikation gewohnt ist. Insofern ist es empfehlenswert, frühzeitig Kontakt zum Erst- und Zweitprüfer und auch zum Studienbüro aufzunehmen.
     
    Den Theorieteil der Arbeit konnte ich inzwischen fertigstellen. Hier geht es vor allem darum, das funktionale Programmierparadigma und verschiedene Heuristiken mit Evolutionsstrategie vorzustellen. Aktuell arbeite ich an der objektorientierten Implementierung meiner Optimierer. Leider geht es im Moment noch gar nicht um die Algorithmen, sondern um GUI- und Graphik-Programmierung, denn ich möchte ja nachvollziehen können, was z.B. meine Mutations- und Rekombionationsoperatoren mit Routen machen. Das geht hoffentlich leichter, wenn ich das visualisieren lassen kann. Ich bin nun schon sehr gespannt darauf, verschiedene Evolutionsstrategien auszuprobieren und ihnen beim Optimieren der Routen zuzuschauen.
     
    Besonders neugierig bin ich natürlich auf die Programmierung in funktionalen Sprachen. Ich möchte Scala und Clojure nutzen. Scala ist eine Hybridsprache, die versucht objektorientierte und funktionale Programmierung zu verbinden. Sie verschafft mir vielleicht einen sanften Einstieg und Übergang. Scala ist auch eine statisch typisierte Sprache mit Typinferenz. In dieser Hinsicht ähnelt es Haskell. Clojure ist ein moderner Lisp-Dialekt. Es ist daher dynamisch typisiert und hat eine fremdartige Lisp-Syntax. Ich bin mit beiden Sprachen nicht vertraut, so dass ich hier einige Überraschungen erwarte.
     
    Scala und Clojure sind JVM-Sprachen, d.h. sie compilieren zu Java-Bytecode, können Java-Code rufen und von Java-Code gerufen werden. Man spricht auch von Java-Interop. Das ist interessant, weil es in der Regel nicht sinnvoll ist, eine komplette Anwendung funktional zu implementieren. Insbesondere GUI-Code ist in hohem Maße zustandsbehaftet, was nicht so gut zum funktionalen Programmierparadigma passt. (Diese Aussage muss man heute eigentlich relativieren, z.B. weil es heute mit Elm eine funktionale Sprache für die Entwicklung von Web-Frontends gibt.) Daher wird das UI der Anwendung klassisch objektorientiert in Java implementiert, aber unter der Haube werkeln Optimierer in Java, Scala und Clojure.
     
    Schreibwerkzeuge
     
    Günstig war, dass ich mir vor Weihnachten Zeit genommen habe, mich in Latex einzuarbeiten und mir eine Dokumentenvorlage zu machen. Das war ein Stück Arbeit und hat mich z.T. auch bei der Bearbeitung meiner letzten Module ausgebremst. Allerdings ist es jetzt sehr schön, dass ich mich aufs Schreiben konzentrieren kann, statt mir über das Layout Gedanken zu machen. Ich würde also jedem empfehlen, sich mit diesem Thema VOR der Bachelorarbeit zu beschäftigen. Sich während dem Schreiben gleichzeitig in Latex einzuarbeiten, dürfte mühsam und ablenkend sein.
     
    Viele Hochschulen bieten Dokumentenvorlagen zum Download an. Das ist natürlich komfortabel, weil man im Idealfall einfach losschreiben kann. Solche Vorlagen sind aber auch für Studierende anderer Hochschulen interessant, weil man sich etwas abschauen kann. Auch meine eigene Hochschule bietet im Rahmen des Moduls "Wissenschaftliches Arbeiten" so eine Vorlage. Die ist allerdings recht allgemein und auch nicht mehr ganz aktuell, so dass sie noch angepasst werden muss. Ich fand das aber zu schwierig, ohne Latex grundsätzlich zu begreifen. Für meine ersten Schritte hilfreich war das Buch "Wissenschaftliche Arbeiten schreiben" von Joachim Schlosser. Ganz alleine hätte das für die Erstellung meiner Vorlage nicht gereicht, aber es vermittelte mir ein Grundverständnis, das mir weitere Recherchen über das Netz erleichterte.
     
    Zum Schreiben verwende ich Atom mit entsprechenden Latex-Plugins. Atom arbeitet schön mit Git zusammen, das ich für die Versionskontrolle nutze. UML-Diagramme erstelle ich meist mit UMLet. Eine Literaturverwaltung wie Zotero oder Citavi erschien mir bislang übertrieben. Bislang ist alles in einer einfachen BibTEX-Datei. Ich habe probiert, meine Einträge mit JabRef zu editieren, fand das aber gar nicht komfortabler, weil manche für mich relevante Felder über mehrere Tabs verteilt waren, so dass ich mehr mit "Mausschubsen" als mit Schreiben beschäftigt war. Möglicherweise könnte man sich das anders konfigurieren, aber ich komme mit einem einfachen Texteditor eigentlich gut zurecht. Allerdings werden es allmählich mehr Quellen. Vielleicht muss ich das mit der Literaturverwaltung also noch einmal überdenken. Lohnen dürfte sich das vor allem für Schreibende, die regelmäßig wissenschaftliche Arbeiten verfassen.
     
    Fazit
     
    Insgesamt macht die Arbeit an der Bachelorarbeit viel Spaß. Es ist schön, nach vielen Jahren des angeleiteten Lernens ein eigenes Thema recherchieren und einer eigenen Idee folgen zu können. Wichtig ist natürlich der Austausch mit dem Erstbetreuer, der diesen Prozess zurückhaltend begleitet.
     
    Ich werde in Abständen wieder berichten.
  9. kurtchen
    Im März 2019 wird es in Dortmund keinen Präsenztag für Studierende in den IT-Studiengängen von Springer Campus geben. Grund dafür sind die geringen Teilnehmerzahlen der letzten Jahre. Darüber informierte uns das Studienbüro in den virtuellen Cafés unserer Studiengänge.
     
    Diese Entscheidung bedauere ich sehr. Leider kann ich die Gründe gut nachvollziehen. Ich erinnere mich noch lebhaft an meinen ersten Präsenztag im September 2015. Dieser war der letzte, bei dem Anwesenheitspflicht bestand. Entsprechend hoch waren die Teilnehmerzahlen. An diesem Tag wurde uns verkündet, dass die Teilnahme wegen einer Gesetzesänderung künftig freiwillig sei. Die Reaktion aus dem Plenum ließ große Zustimmung dafür erkennen. Auch ich fand das damals gut. Da ich nicht in der Nähe wohne, ist für mich die Teilnahme an einem Präsenztag in jedem Fall mit einer Übernachtung verbunden. Der Wegfall der Präsenzpflicht schien mir die Vereinbarkeit von Studium, Beruf und Familienleben zu verbessern. Es ist gut, eine Wahl zu haben.
     
    Ich habe mir trotzdem jedes Mal die Zeit genommen, nach Dortmund zu fahren, und zwar nicht allein wegen der Möglichkeit, am Präsenztag Prüfungen abzulegen. Leider gingen die Teilnehmerzahlen schnell zurück. Manchmal hatte ich den Eindruck, dass manche Studierende allein wegen der Prüfungen anreisten und die Vorträge ausfallen ließen.
     
    In der Summe standen nun anscheinend der Aufwand der Präsenztage und ihre Nutzung durch uns Studierende in keinem vernünftigen Verhältnis mehr. Darum soll es in diesem Jahr nur noch einen Präsenztag im September geben, an dem dann auch die Absolventenfeier stattfindet.
     
    Inzwischen stelle ich meine ursprüngliche Sichtweise auf die Befreiung von der Präsenzpflicht in Frage. Ich fand es damals gut, eine Wahl zu haben, aber die habe ich ja nun nicht mehr. Natürlich kann es viele gute Gründe geben, NICHT an einem Präsenztag teilzunehmen. Aber dass das Angebot so wenig genutzt wurde, spricht in meinen Augen dafür, dass viele Studierende die Vorzüge eines Präsenztages nicht ausreichend wahrnehmen. Nur zwei davon möchte ich hier noch einmal nennen:
    Die angebotenen Tutorien in Mathematik, die mir sehr geholfen haben, eine Lernstrategie für das vergleichsweise schwierige Modul Mathe2 zu entwickeln. Dabei wird gerade dieses Modul immer wieder als Herausforderung beschrieben. Früher oder später braucht man einen Betreuer für eine Projektarbeit und für eine Bachelorarbeit. Dieser Betreuer spielt eine wichtige Rolle im Prozess. Ich empfinde es als besonderen Nachteil eines Fernstudiums, dass wir die Professoren kaum in der Lehre erleben und so ein Gefühl dafür entwickeln können, bei wem wir gerne unsere Abschlussarbeit schreiben würden. Der Präsenztag war eine der wenigen Gelegenheiten dafür.  
    Ich habe gelesen, dass durch eine erneute Gesetzesänderung die Präsenzpflicht an Hochschulen in NRW wieder möglich werden soll. Über die Details bin ich nicht im Bilde. (Ich lebe auch nicht in NRW.) Als Fernstudierender bin ich eigentlich der Auffassung, das Studierende in hohem Maß selbst Verantwortung für ihren Lernprozess übernehmen müssen und dazu auch in der Lage sind. Und zwar unabhängig davon, ob sie Präsenz- oder Fernstudierende sind. Ich glaube, dass viele Menschen lernen und sich entwickeln wollen, aber nicht immer die Möglichkeiten dafür vorfinden, die zu ihrer Lebenssituation passen. Daher bin ich eigentlich stets dafür, externe Hürden, Vorgaben und Beschränkungen abzubauen, und stattdessen Gelegenheiten zu schaffen. Mit dem Beispiel unseres Präsenztages vor Augen denke ich darüber nach, ob mein Menschenbild nicht zu optimistisch ist. Ich kann nun zumindest nachvollziehen, dass Präsenzpflicht für viele Menschen ein bildungspolitisches Thema ist.
     
    Ich genieße es sehr, bei einem vergleichsweise kleinen Anbieter zu studieren. Auch wenn vieles doch per Telefon oder Mail geregelt wird, man kennt die Menschen am anderen Ende der Leitung. Das liegt auch an den Präsenztagen.
  10. kurtchen
    Das Modul "Präsentieren & Moderieren" wird in den IT-Studiengängen von Springer Campus dem Wahlkatalog 1 "Basiskompetenz Beruf" zugeordnet. Es gehört damit zu den Soft Skill-Modulen dieser Studiengänge. Andere Module aus diesem Katalog sind "Selbst- und Zeitmanagement", "Kreativitätstechniken", "Rhetorik" und "Soziale Kompetenz". Auch das Modul "Wissenschaftliches Arbeiten" gehörte in diese Gruppe, es ist aber inzwischen ein Pflichtmodul. Angehende Web- und Medieninformatiker wählen ein Soft Skill-Modul, die Wirtschaftsinformatiker zwei. Zu den Modulen "Rhetorik" und "Präsentieren & Moderieren" gehört aus naheliegenden Gründen eine mündliche Prüfung. Die Klausur fällt dafür nur einstündig aus.
     
    Normalerweise wählt man diese Module ganz zu Beginn des Studiums. Ich war mir unsicher, was ich hier belegen sollte, weil ich viele Themen interessant fand. Lediglich das Modul zu den Kreativitätstechniken hätte ich nicht belegen wollen, weil ich hier - bedingt durch meine Ausbildung - schon relativ viel kannte. Für das Modul Präsentieren habe ich mich entschieden, weil ich annahm, es sei eine gute Vorbereitung für die Präsentation der Bachelorarbeit. Die Entscheidung fiel gegenüber Rhetorik sehr knapp aus. Den Ausschlag für Präsentieren gab dann das Thema Umgang mit Präsentationsmedien, das im Modul Präsentieren natürlich stärker ausgeprägt ist. Rhetorik konzentriert sich stärker auf den mündlichen Vortrag und die Argumentation.
     
    Wer das Hochschulzertifikat "Requirements-Engineer" oder "Software-Manager" erwerben will, muss Präsentieren belegen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Moderieren, Präsentieren, Faszinieren" ist von Petra Motte. Es hat an die 300 Seiten und enthält viele Abbildungen, insbesondere in den Kapiteln zum Umgang mit Präsentationsmedien. Der Schreibstil unterscheidet sich natürlich deutlich von einem Informatik-Lehrbuch. Aber auch im Vergleich zum Modul Wissenschaftliches Arbeiten merkt man hier, dass man im Bereich der Soft Skills ist. Präsentation und Moderation haben viel mit der Person des Moderators zu tun, mit seiner Haltung, seiner Persönlichkeit, seinem Auftreten. Im wissenschaftlichen Arbeiten geht es stärker um etablierte Konventionen und Regeln. Das wirkt im Vergleich "faktisch". Beim Präsentieren geht es stärker darum, seine Persönlichkeit einzubringen, mit eigenen Stärken und Schwächen zu arbeiten. Das Buch ist daher im Vergleich zu einem Informatik-Lehrbuch eher in einem Tonfall verfasst, der den Leser persönlicher anspricht. Es zeigt eher Wege und Möglichkeiten auf als eine Handlungsanweisung vorzulegen.
     
    Deutlich wird dies zum Beispiel im Kapitel 3, in dem es um die Person des Moderators geht. Anhand von Photos (oder auf der Lernplattform auch kleinen Videos), werden Aspekte wie Körpersprache, Mimik und Gestik behandelt. Das Thema Umgang mit Lampenfieber spielt eine Rolle. Im Vergleich dazu geht es im Modul Wissenschaftliches Arbeiten stärker um das fachliche und die sachgerechte Aufbereitung der Inhalte. Hier steht mehr im Mittelpunkt, dass die Inhalte durch die Person des Präsentierenden zur Geltung kommen. Darum ist es sinnvoll, sich auch mit sich selbst und seiner eigenen Wirkung zu befassen.
     
    Im Kapitel 4 geht es um die Vorbereitung und Gliederung einer Präsentation. Hier geht es vor allem um einen gelungenen Spannungsbogen, der das Publikum weder über- noch unterfordert. Auch Themen wie Zeitmanagement und Umgang mit Störungen spielen eine Rolle. Die Perspektive ist stärker didaktisch. Im Vergleich zum Modul Wissenschaftliches Arbeiten wird hier stärker dem Umstand Rechnung getragen, dass Zuhörer eine begrenzte Aufnahmekapazität und Aufmerksamkeit haben. Sie können aus einem Vortrag aussteigen, wenn sie sich langweilen, ermüden oder sich überfordert fühlen. Diese Aspekte waren im Modul Wissenschaftliches Arbeiten weniger präsent als hier.
     
    Das recht ausführliche Kapitel 5 widmet sich den verschiedenen Präsentationsmedien. Nicht überraschend beginnt es mit der Bildschirmpräsenation oder dem, was man einen Beamer-Vortrag nennt. Hier geht es freilich nicht um konkrete Software-Produkte oder dem Umgang damit, auch wenn der Name PowerPoint fällt. Vielmehr geht es darum, die Vorzüge und Nachteile verschiedener Medien zu kennen und gegeneinander abzuwägen, um für jede Situation das geeignete Medium wählen zu können.
     
    Auch der vermeindlich altmodische Overhead-Projektor kommt vor, z.B. wegen der Möglichkeit Folien während des Vortrages zu bearbeiten. So etwas ist zwar heute auch mit digitalen Hilfsmitteln möglich, aber die Arbeit mit den Folienstiften hat eine hohe Unmittelbarkeit und ermöglicht zum Beispiel auch, Teilnehmer einzubeziehen, die im Umgang mit digitalen Medien wenig versiert und gehemmt sind.
     
    Noch unmittelbarer ist die Moderation mit einer Flipchart. Auch sie ermöglicht eine direkte Einbeziehung und Interaktion mit Teilnehmern, eignet sich allerdings eher für kleinere Gruppen. Mit dem Medium Whiteboard ist im Kapitel noch nicht das sogenannte interaktive Whiteboard sondern tatsächlich die weiße Tafel gemeint, die ebenfalls mit Folienstiften bemalt und mit Zetteln beklebt werden kann. Sie ist eher als Nachfolger der klassischen Kreidetafel zu sehen. Schließlich geht es um die Pinwand-Moderation, die ebenfalls viele Möglichkeiten zum aktiven Mitmachen und zur Arbeit in Kleingruppen bietet.
     
    Im Verlauf des Kapitels wird auch langsam ein Bogen zu Arbeitsformen geschlagen, bei denen nicht mehr der Vortrag des Moderators sondern die Beiträge der Teilnehmer im Mittelpunkt stehen. Auch wenn die mündliche Prüfung in diesem Modul ein Vortrag ist, hat es mir gut gefallen, dass hier interaktive Arbeitsformen mit Gruppen betont wurden, denn schließlich halten Informatiker nicht nur Fachvorträge.
     
    Das Kapitel 5 betont interaktive Methoden in der Moderation. Hier geht es um den Einsatz von Mind Maps, um Methoden des Brainstormings und Brainwritings und die Moderationsformen Open Space, World Café und Zukunftswerkstatt. Open Space ermöglicht es zum Beispiel, mit sehr großen Gruppen in einer Weise zu arbeiten, die den Austausch untereinander und das Sammeln fachlicher Beiträge der Teilnehmer unterstützt. Hier geht es nicht mehr darum, dass der Moderator als Wissender seinem Publikum Informationen vermittelt. Er soll vielmehr einen Austausch in Gang bringen, in dem die Teilnehmer ihr eigenes Wissen teilen und miteinander in Kommunikation kommen. Die Teilnehmer werden also eher zu Teilgebern. Sie und nicht der Moderator präsentieren Ergebnisse ihrer Arbeit in Kleingruppen.
     
    Im Rahmen dieses Kapitels kommt dann auch das sogenannte interaktive Whiteboard zur Sprache, dass ja mit großem finanziellen Aufwand an immer mehr Schulen Einzug hält. Ichpersönlich störe mich ein wenig an dem Begriff, weil er mir zu implizieren scheint, das klassische Whiteboard sei nicht interaktiv gewesen. Ein hohes Maß an Publikumsbeteiligung erreicht man nicht allein durch ein bestimmtes Medium sondern in erster Linie durch die Arbeitsform. Hier bieten klassische analoge Medien noch immer viele Vorteile, weil sie unmittelbar zu benutzen sind. Gerade für Menschen, die mit digitalen Medien weniger Erfahrung haben, sind sie "niedrigschwellig".
     
    Das letzte Kapitel wagt einen Blick in die Zukunft der Moderation. Hier geht es auch um eine wahrgenommenen Veränderung in der Rolle des Moderators, der heute stärker die Selbstlernkräfte seiner Teilnehmer aktivieren soll. Um Raum für Beiträge der Teilnehmer zu schaffen, muss der Moderator sich selbst stärker zurücknehmen.
     
    Tests und Aufgaben
     
    Die Einsendeaufgaben fordern einen in diesem Modul natürlich anders als in anderen Modulen im Informatikstudium, wo vor allem abstraktes Denken und Logik gefragt sind. Hier geht es eher ums Abwägen oder darum, sich in Situationen einzufühlen, Möglichkeiten und Wege zu skizzieren. Für mich war das eine willkommene Abwechslung, vor allem im Kontrast zum Modul "Text Mining", welches das abstrakte Denken sehr forderte. Insofern kann ich empfehlen, so ein Soft Skill-Modul mit einem als sehr schwierig empfundenen Modul zu kombinieren. Man zehrt dann beim Lernen von unterschiedlichen Ressourcen. So kommt man gut voran.
     
    Die Rückmeldungen meiner Tutorin kamen schnell. In diesem Modul wurde ich auch mal telefonisch betreut, weil ich eine Frage hatte, die auf diesem Wege besser zu klären war. Betreut wurde ich von der Autorin des Buches, der man anmerkt, dass sie für ihr Thema und ihren Beruf brennt.
     
    Klausur und mündliche Prüfung
     
    Schrifliche Einsendeaufgaben eignen sich bei diesem Modul natürlich nur bedingt zur Kontrolle des eigenen Lernerfolges. Als entscheidenden Baustein empfand ich darum die mündliche Prüfung. Hier ist ein (Beamer-)Vortrag zu einem Thema auszuarbeiten, dass mit Informatik nichts zu tun haben muss. Ich hatte z.B. ein Thema, bei dem es um die deutsche Sprache ging. Aus Gesprächen mit Kommilitonen weiß ich, dass die Themen oft beinhalten, eine eher offene Fragestellung zu beantworten, eine eigene Position zu einem Thema zu finden und argumentativ zu vertreten.
     
    Im Gegensatz zum Modul Wissenschaftliches Arbeiten reicht man hier keine Vorschläge ein. Man bekommt das Thema zwei Wochen vor der Prüfung vom Studienbüro. Es ist also ein "Überraschungei". Ich war ganz zufrieden mit dem, was ich bekommen habe.
     
    Für mich war es schön, mal zu einem ganz anderen Thema zu recherchieren. Und mir zu überlegen, wie ich das in begrenzter Zeit rüberbringe. Im Gegensatz zum Modul Wissenschaftliches Arbeiten, bei dem formale Korrektheit eine große Rolle spielt, geht es hier stärker darum, die Sache ein bisschen interaktiv zu gestalten. Für mich war jedenfalls die mündliche Prüfung die Messlatte dafür, ob ich aus dem Modul etwas mitgenommen haben. Mir hat es großen Spaß gemacht.
     
    Die Klausur dauert in diesem Modul nur eine Stunde. Sie war absolut fair gestellt. Leider war mir neben der Vorbereitung der mündlichen Prüfung und dem Lernen für Text Mining kaum Zeit geblieben, den Stoff des Lehrbuches in diesem Modul zu wiederholen. Das habe ich ein bisschen zu spüren bekommen. Mal sehen, wie sich das auswirken wird.
     
    Klausur und mündliche Prüfung gehen gleichermaßen in die Endnote ein. Das Ergebnis der mündlichen Prüfung erfährt man unmittelbar danach. Das ist auch schön, Feedback einmal so unmittelbar zu bekommen. Ich habe daraus noch ein paar Anhaltspunkte für die Präsentation meiner Bachelorarbeit mitgenommen, die ja nächstes Jahr fällig wird.
     
    Die mündliche Prüfung in diesem Modul erfordert allerdings auch viel Vorbereitungszeit. Man muss ziemlich schnell ein Thema recherchieren, das mit dem Studium und dem Modul nicht viel zu tun hat. Auch die Vorbereitung der Folien kostet Zeit. Schließlich möchte man üben, ob man mit der Zeit auskommen wird. Ich hätte rückblickend betrachtet die Klausur zu diesem Modul vielleicht eher auf den nächsten Termin schieben sollen, um mich voll auf eine Sache konzentrieren zu können. Vielleicht wollte ich diesmal zu viel auf einmal.
     
    Zu den mündlichen Prüfungen ist noch zu sagen, dass sie nur in Dortmund stattfinden. Es gibt zu jedem Prüfungstermin drei Slots am Vormittag. Mündliche Prüfungen müssen etwas früher angemeldet werden als schriftliche, weil der organisatorische Aufwand höher ist. Die Details dazu stehen in jeder Einladung zum Prüfungstag, die man als Studierender per E-Mail bekommt.
     
    Fazit
     
    Ich glaube schon, dass das Modul Präsentieren mir für die Verteidigung der Bachelorarbeit im nächsten Jahr noch einmal etwas bringen wird. Das war für mich ein Grund, es zu belegen. Es bisschen wehmütig bin ich auch, denn Rhetorik hätte mich schon auch interessiert. Der Schwerpunkt lag hier stärker auf dem Umgang mit Medien und auf interaktiven Arbeitsformen mit Gruppen. Im Modul Rhetorik spielt das Argumentieren anscheinend eine größere Rolle. Auch interessant! Aber man kann nicht alles machen.
     
    Allmählich wird es übersichtlich. Im Januar möchte ich noch die Module "IT-Projektmanagement" und "Electronic Business" abschließen. Die Klausuren möchte ich voraussichtlich in Heidelberg schreiben. Dann steht die Bachelorarbeit an. Insgesamt muss ich also nur noch einmal nach Dortmund reisen. (Vielleicht ein zweites Mal, um den nächsten Präsenztag mitzunehmen.) Schade, dass Springer Campus keinen Master anbietet, der an diesen Bachelor anschließt, denn die Anbindung an die staatliche FH Dortmund gefällt mir sehr.
  11. kurtchen
    13 Uhr - Vorlesung: "Don't believe the Hype - Ein Blick in den Dschungel der Web-Entwicklung", Prof. Dr. Sven Jörges, FH Dortmund
     
    Web-Entwicklung früher und heute
     
    Professor Jörges begann seinen Vortrag zunächst mit einem Blick zurück auf die Anfänge der Web-Entwicklung. In den 2000er Jahren reichten Grundkenntnisse in HTML und PHP, um mit Web-Entwicklung Geld zu verdienen. Damals wurden viele Studierende quasi über Nacht Web-Entwickler. Herr Jörges visulisierte diese Phase mit dem Sinnbild einer weiten grünen Wiese. Es war noch überall Platz und man konnte sich leicht orientieren. Heute ist Web-Entwicklung im großen Maßstab eine komplexe Sache. Herr Jörges visualisierte die aktuelle Situation mit dem Sinnbild Dschungel.
     
    4 Aspekte des Sinnbildes Dschungel
     
    Ein Dschungel ist gekennzeichnet durch überschießendes Wachstum. Das zeigt sich z.B. in Userzahlen, in der Anzahl von Anfragen und vielem mehr. Einen Eindruck davon vermittelt die Seite The Internet in Real-Time. Eine Konsequenz daraus ist, dass die Skalierbarkeit von Web-Anwendungen heute extrem wichtig ist. Ein zweiter Aspekt des überschießenden Wachstums ist die Bedeutung von Plattformen. Früher genügten einem Unternehmen eigene Web-Seiten. Um heute wahrgenommen zu werden, ist es wichtig, auf vielen Plattformen präsent zu sein. Ein dritter Aspekt des Wachstums ist die steigende Vielfalt von Endgeräten und Formfaktoren. In den 2000er Jahren wurde auf Startseiten oft der Hinweis eingeblendet, für welche Bildschirmauflösung sie optimiert war. Heute muss eine Web-Anwendung auf allen Geräten vom Smartphone bis zum Desktop PC gut benutzbar sein. Am besten sollte sie auch auf einer Smartwatch funktionieren. Das macht Web-Entwicklung komplizierter. Ein vierter Aspekt des Wucherns ist die unüberschaubare Vielfalt an Frameworks. Diese bieten natürlich einen stabilen Rahmen mit Basisfunktionen. Man muss nicht bei Null anfangen und kann dadurch schneller entwickeln. Außerdem helfen gute Frameworks, Standardfehler zu vermeiden. Aber die Vielfalt ist inzwischen so überwältigend, dass der Einstieg dadurch schwierig wird. Für welches Framework soll man sich entscheiden?  
    Einen Eindruck dieser Vielfalt vermittelt der Wikipedia-Eintrag Comparison of Web Frameworks. Das schnelle Entstehen neuer Technologien wird auch humorvoll aufgegriffen, z.B. durch die Seite Days since last javascript framework. Auf www.heise.de findet man auch das witzige Quiz "JavaScript oder Metal Band". Auch der nicht ganz erst gemeinte Begriff "JavaScript fatigue" zeigt, dass die sich erweiternde Auswahl neuer Technologien mittlerweile als überfordernd wahrgenommen wird.
     
    Gerade in diesem Zusammenhang passt das Sinnbild des Dschungels, denn im Dschungel ist es schwierig, sich zu orientieren und seinen Weg zu finden. Einsteiger im Bereich Web-Entwicklung fragen sich heute:
    Was soll ich eigentlich lernen? Womit fange ich an? Welches Wissen hält länger als eine Woche?  
    Web-Seite vs. Web-Anwendung vs. Desktop-Anwendung
     
    An dieser Stelle spielte Herr Jörges mit uns ein kleines Quiz-Spiel, dass mich an die alte Kindersendung "1, 2 oder 3" erinnerte. Er zeigte uns am Beamer eine Szene und wir sollten raten: Ist es eine Web-Seite, eine Web-Anwendung oder eine Desktop-Anwendung?
     
    Die ersten Beispiele waren noch einfach zuzuordnen, z.B. Fefes Blog oder Google Docs. Der bekannte Editor Visual Studio Code wird lokal installiert, ist also eigentlich eine Desktop-Anwendung. Er ist aber mit dem Framework Electron erstellt, das es ermöglicht, Desktop-Anwendungen mit den Web-Technologien HTML, CSS und Javascript zu programmieren. Ein schönes Beispiel war auch das Spiel HexGL. Es ist ein Racing Spiel im Stil des Klassikers Wipeout. Vor einigen Jahren hätte man es noch für ein Konsolenspiel halten können. Es basiert aber auf JavaScript und ist eine Web-Anwendung, die im Browser läuft. Die letzte Quizfrage richtete sich auf die Anwendung, mit der der Beamervortrag präsentiert wurde. Man hätte auf PowerPoint tippen können. Tatsächlich sahen wir eine Web-Seite, die mit dem Framework reveal.js erstellt worden war.
     
    Das Fazit dieses Spiels? Man kann die Dinge nicht mehr so leicht kategorisieren wie früher. Web-Anwendungen, Web-Seiten und Desktop-Anwendungen sind voneinander nicht mehr so klar abgegrenzt. Die Grenze zwischen Web und Native oder Web und Desktop verschwimmt zusehends. Abgesehen von Spezialisten für Embedded Systems kommt bald kein Entwickler mehr ohne Web-Technologien aus.
     
    Ein Beispiel dafür sind GUI-Frameworks für Java. Swing ist abgekündigt. Der designierte Nachfolger JavaFX ist ebenfalls abgekündigt. Aber wohin geht die Reise? Oracle weiß es selbst nicht. Womöglich braucht man in Zukunft gar kein klassisches GUI-Framework für den Desktop.
    Herr Jörges versuchte sich an dieser Stelle noch einmal an einer Definition der Begriffe Web-Seite, Web-Anwendung, Desktop-Anwendung, wohl wissend, dass die Unterscheidungskriterien nicht mehr scharf und nicht mehr dauerhaft sein können.
     
    Was tun?
     
    Herr Jörges meint: Es gibt Wege durch den Dschungel. Im letzten Abschnitt seiner Vorlesung gab er zwei konkrete Tipps, um wieder Orientierung zu gewinnen.
     
    Tipp 1: Go back to the roots!
     
    Man sollte die Grundlagen kennen und beherrschen. Die 3 wichtigsten Web-Technologien sind HTML, CSS und Javascript. Man sollte also HTML(5) gut kennen. Laut Herrn Jörges beinhaltet das sehr viel mehr Wissen, als eine einführende Lehrveranstaltung an einer Hochschule vermitteln kann. Diese kann einen Überblick und einen Einstieg verschaffen. Dann sollte man aber in die Tiefe gehen. CSS kann ebenfalls sehr komplex werden. Schließlich ist es wichtig, Javascript gut zu beherrschen, denn diese Sprache hat ihre "Untiefen". Der Tipp, JavaScript zu lernen, gilt ausdrücklich auch für Entwickler, die sich von Sprachen wie Typescript oder Frameworks wie React angezogen fühlen.
     
    Die Sprache Javascript hat sich in den vergangenen Jahren stark weiterentwickelt. Frameworks, die früher essentiell waren, verlieren dadurch schnell an Bedeutung. Als Beispiel nannte Herr Jörges jQuery oder Bootstrap. jQuery war z.B. für DOM-Manipulation und für AJAX unerlässlich. Doch diese Dinge kann man inzwischen standardmäßig mit der DOM-API machen. Bootstrap hat man gerne für Raster verwendet. So etwas geht jetzt auch mit CSS Grid Layouts. Man braucht also Frameworks nicht mehr unbedingt.
     
    Herr Jörges empfiehlt Einsteigern, sich von Frameworks zunächst fernzuhalten und stattdessen die Tiefen und Möglichkeiten der 3 Basistechnologien auszuloten. Es gibt zur Zeit viele Web-Seiten und Blog-Posts mit Titeln wie  "You might not need jQuery". (Für jQuery kann man ein beliebiges Framework oder eine beliebige Library einsetzen.) Eine Google-Suche nach so etwas führt auf Artikel, die aufzeigen, wie man vergleichbare Funktionalität mit Basistechnologien realisieren kann.
     
    Tipp 2: Das Handwerk beherrschen
     
    Web-Engineering ist eine Ingenieursdisziplin. Es gibt Prinzipien und Methoden. Das wird im Web und beim Hype um die nächste Technologie schnell vergessen.
     
    In den Software-Technik Vorlesungen lernen Studierende z.B. das Model View Controller Muster (MVC) kennen. Es entstand schon in den 70er Jahren. Für die junge Disziplin Informatik ist es also steinalt. Es ist aber immer noch extrem relevant. Inzwischen existiert es in unzähligen Varianten:
    MVVM = Model View View Model MVP = Model View Presenter MVI = Model View Intent und so fort...  
    Igor Minar, bekannt für seine Arbeit an Angular, hat eine weitere schöne Variante definiert: "... I hereby declare AngularJS to be MVW framework - Model-View-Whatever. Where Whatever stands for "whatever works for you".
     
    Wenn man MVC versteht, versteht man auch seine Varianten. In ähnlicher Weise profitieren angehende Entwickler davon, andere Grundmuster der Softwaretechnik zu lernen.
     
    Laut Herrn Jörges sollten diese beiden Tipps bereits genügen, sich im Dschungel der Web-Entwicklung zu orientieren.
     
    Q&A:
     
    Eröffnet sich nicht mit Web-Assembly die Möglichkeit, künftig in beliebigen Sprachen für den Browser zu entwickeln?
    Herr Jörges meinte, dass er das für die Zukunft halte. Aber noch sei es nicht soweit. Einstweilen sei es empfehlenswert, JavaScript zu lernen.
     
    Ist geplant, dass Curriculum im Sinne der drei genannten Basistechnologien weiter zu entwickeln?
    Herr Jörges bekräftigte, dass seine Pläne für die Studiengang in diese Richtung gehen, auch im Licht der anstehenden Reakkreditierung. Allerdings sei es nicht immer leicht, solche Pläne im gewünschten Tempo umzusetzen. Dies sei in einem reinen Präsenzstudiengang tatsächlich etwas leichter. (Dort müssen die Inhalte z.B. nicht für eine Lernplattform aufbereitet werden.)
  12. kurtchen
    Bei Springer Campus sind Präsenztage zugleich auch Prüfungstage. Am Freitag, dem 09.03.2018 gab es drei Slots für schriftliche Prüfungen. Außerdem konnte man am Vormittag auch mündliche Prüfungen ablegen.
     
    Ich bin am Freitag angereist, hatte aber keinen Prüfungstermin. Stattdessen hatte ich Gelegenheit vis-a-vis mit dem Professor zu sprechen, der meine Bachelorarbeit betreuen soll. Das erwies sich als ausgesprochen nützlich, weil man in der direkten Kommunikation vieles doch schneller klären kann als per E-Mail. Ein Ergebnis dieses Gespräches ist, dass ich nun auch meine Projektarbeit von ihm betreuen lassen möchte.
     
    Die Projektarbeit und die Bachelorarbeit bauen bei mir thematisch nicht aufeinander auf. Deswegen war ich ursprünglich der Ansicht, hier verschiedene Betreuer wählen zu können. Inzwischen ist mir klar geworden, dass die Projektarbeit eine weitere Chance ist, sich mit den Anforderungen wissenschaftlichen Arbeitens in der Informatik vertraut zu machen. Das ist für meine Bachelorarbeit natürlich nützlich und auch weitgehend unabhängig vom jeweils behandelten Thema. Ich hoffe, dass die kontinuierliche Betreuung durch EINEN Professor mir helfen wird, Rückmeldungen und Erfahrungen aus der Projektarbeit für meinen letzten Schritt zu nutzen.
     
    Meine Klausur im Modul "Multimedia" hatte ich erst für Samstag, den 10.03.2018 angemeldet. Zwischen 8:30 und 10:30 Uhr war ich fällig. Der eigentliche Präsenztag ging dann nach einer kurzen Kaffeepause um 10:45 Uhr los.
     
    10:45 Uhr - Aktuelles für Studierende
     
    Frau Kreissig berichtete über neue Entwicklungen und Themen aus dem Studium. Zeitgleich lief nebenan eine Infoveranstaltung über die Studiengänge Web- und Medieninformatik, Wirtschaftsinformatik, Biologie, Chemie und Elektrotechnik. Wie üblich stellte Frau Kreissig zunächst das Team von Springer Campus vor. Anschließend ging es um die Ergebnisse der Umfrage. 160 Studierende wurden befragt. Es gab 36 Rückläufer. Ich gebe nur einige wenige für mich markante Ergebnisse wieder.
     
    Als Studienmotivation wurde natürlich die Erlangung des Bachelors besonders häufig genannt. Aber noch häufiger wurde ein Interesse an persönlicher Weiterentwicklung angegeben. Vielleicht unterscheidet sich ja die Studienmotivation von Fernstudierenden, die in der Regel schon eine berufliche Qualifikation haben, an diesem Punkt von Präsenzstudierenden, für die es meist darum geht, einen ersten berufsqualifizierenden Abschluss zu erlangen.
     
    Von den Studierenden geschätzt wurde besonders die organisatorische Betreuung durch das Studienbüro, die festen Ansprechpartner und die inhaltliche Begleitung durch die Tutoren der Module. Auch die hohe Flexibilität im Studiengang wurde postiv bewertet.
     
    Kritik gab es an der mangelnden Aktualität einzelner Module. Bei bestimmten Modulen gab es auch den Wunsch nach einem höheren Praxisbezug. Hier sollte man vielleicht im Hinterkopf haben, dass die meisten unserer Studierenden einschlägig beschäftigt sind und somit Theorie im Studium und Praxis im Beruf nebeneinander erleben. Dies ermöglicht womöglich Vergleiche, die typische Studienanfänger an Präsenzhochschulen so nicht ziehen können.
     
    Nach einem kurzen Überblick über die Prüfungstermine bis zum nächsten Präsenztag im Sepember 2018 stelle Frau Kreissig neue Dozenten vor. Prof. Dr. Barghorn von der Jade-Hochschule (Wilhelmshaven, Oldenburg, Elsfleth) wird künftig Web-Design betreuen. Dr. habil. Andrea Hermann betreut Softwaretechnik 1 und 2. Prof. Dr. Uwe Schmitz übernimmt Strategisches Management & Controlling. Dieses Modul kann somit  wieder belegt werden. Dr. Hartwig übernimmt Softwaremanagement 1 und 2 sowie Selbst- und Zeitmanagement. Andrea Hermann betreut außerdem als Tutorin Wissenschaftliches Arbeiten.
     
    Die Vorbereitungen für die Reakkreditierung der Studiengänge Web- und Medieninformatik sowie Wirtschaftsinformatik laufen. In diesem Zusammenhang dürfen die Studierenden damit rechnen, weitere Fragebogen zu erhalten.
     
    Studierende wenden sich besonders häufig mit Fragen zum wissenschaftlichen Arbeiten an das Studienbüro. Aus gutem Grund ist das Modul Wissenschaftliches Arbeiten inzwischen ein Pflichtmodul. Das Studienbüro unterstützt bei der Suche nach Betreuern für die Projekt- und Bachelorarbeit. (Aus eigener Erfahrung kann ich sagen, dass diese Vermittlung sehr hilfreich ist. Präsenzstudierende kennen die Professoren aus den Lehrveranstaltungen und haben deshalb vielleicht schon eine Idee, wer sie bei einem bestimmten Thema gut betreuen könnte. Als Fernstudent profitiert man davon, dass die Mitarbeiter des Studienbüros eine Lotsenfunktion übernehmen, denn sie kennen die Professoren vor Ort.)
     
    Wer gerne eine Projektarbeit oder seine Bachelorarbeit auf dem Präsenztag präsentieren möchte, ist eingeladen, sich an das Studienbüro zu wenden. (In diesem Zusammenhang erinnere ich mich gerne an die Präsentation einer Bachelorarbeit auf dem letzten Präsenztag, aus der ich für mich viel mitgenommen habe. Ich finde es ungemein nützlich, etwas über die Erfahrungen von Studierenden zu lernen, die einen Schritt weiter sind als man selbst.)
     
    Gesellschaftliches Engagement im Fernstudium
     
    Ein besonderer inhaltlicher Schwerpunkt an diesem Präsenztag war das Thema "Gesellschaftliches Engagement". Laut Frau Kreissig kommt dieses Thema in Fernstudiengängen oft zu kurz. Präsenzunis bieten ihren Studierenden viele Möglichkeiten, sich außerhalb ihres eigenen Studienganges zu engagieren. Neben Veranstaltungen des Studium generale, die den engen Horizont des eigenen Studienfachs erweitern und ergänzen sollen, gibt es vielfältige Möglichkeiten, sich in der studentischen Selbstverwaltung und in studentischen Gruppen zu engagieren. Dies trägt einerseits dazu bei, das eigene Qualifikationsprofil um soziale, organisatorische und kommunikative Kompetenzen zu ergänzen. Aber unabhängig von diesem qualifizierenden Aspekt ist gesellschaftliches Engagement per se wünschenswert, auch für Fernstudierende.
    Frau Kreissig stellte als Beispiel einige Projekte und Initiativen vor, die der Springer Verlag unterstützt. Diese sind zum Teil regional (z.B. am Standort Heidelberg), zum Teil international. Wer sich dafür interessiert, findet nähere Informationen auf der Springer Homepage. Darum überspringe ich diesen Teil hier.
     
    Interessanter und für mich als Fernstudierenden konkreter fand ich die Frage, was für Möglichkeiten Fernstudierende selbst haben, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ein bisschen skeptisch war ich schon, denn viel zeitlichen Spielraum sehe ich durch die Doppelbelastung von Beruf und Studium eigentlich nicht mehr. Frau Kreissig hat jedoch einige Möglichkeiten vorgestellt, die z.T. sogar einen gewissen Bezug zur Lebenssituation Studium haben. Ein paar möchte ich hier wiedergeben:
     
    Projekt- und Bachelorarbeit: Man könnte seine Projekt- oder Bachelorarbeit nicht in einem Unternehmen sondern in einer Non-Profit-Einrichtung oder einem sozial oder gesellschaftlich relevanten Bereich machen. (Hier fühle ich mich an den Studiengang Sozialinformatik der Hochschule Fulda erinnert, für den ich mich ja ursprünglich einmal interessiert hatte. Dort gehört zum Curriculum ein Softwareprojekt im sozialen Bereich. Die Idee finde ich zumindest nachdenkenswert, denn eine Projekt- und Bachelorarbeit muss man ja ohnehin schreiben.) Citizen Science: Viele wissenschaftliche Disziplinen profitieren von der ehrenamtlichen Mitwirkung von Laien. Ein Beispiel ist die Astronomie. Nach einer kurzen Online-Schulung können interessierte Laien etwa helfen, Hubble-Aufnahmen zu kategorisieren, die bislang noch nicht von Algorithmen ausgewertet werden können. (Auch in der Biologie ist man - etwa für Zwecke des Artenschutzes - stark auf ehrenamtliche Naturbeobachter angewiesen.) Interessant finde ich hier den Wissenschaftsbezug des Engagements. Social Hackathons: Hier treffen sich ehrenamtliche Programmierer, um in einem begrenzten Zeitrahmen für ein soziales Projekt eine digitale Lösung zu programmieren, etwa eine Web-Anwendung oder eine Homepage. Das hat einen klaren Bezug zum Informatik-Studium und ist eventuell sogar eine Empfehlung für künftige Arbeitgeber.  
    Neben diesen Möglichkeiten mit Studienbezug stellte Frau Kreissig auch einige eher allgemeine Möglichkeiten vor, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ich möchte hier nur eine Möglichkeit wiedergeben, die wenig Zeit erfordert und potentiell lebensrettend sein kann. Wer alle zwei Jahre eine achtstündige Weiterbildung in Erster Hilfe besucht, kann sich am eigenen Arbeitsplatz als Ersthelfer zur Verfügung stellen. Unternehmen müssen ohnehin Ersthelfer ausbilden und benennen. Weil Mitarbeiter nicht nur am Arbeitsplatz sondern auch in öffentlichen und privaten Räumen unterwegs sind, profitieren indirekt auch Familien und die Gesellschaft davon, dass Menschen mit Kenntnissen in Erster Hilfe in der Nähe sind.
     
    Den Abschluss des Vortrags bildete eine Verlosung eines Buches über KI.
     
    Soviel zum Abschnitt "Aktuelles für Studierende". In einem meiner nächsten Beiträge möchte ich über den Vortrag "Big Data" von Prof. Dr. Uwe Schmitz berichten. Er betreut im Fernstudiengang das Modul "Strategisches Management & Controlling".
  13. kurtchen
    Das Modul "BWL2" ist ein Pflichtmodul in den beiden Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik" bei Springer Campus. Die Web- und Medieninformatiker sollen es schon im zweiten Semester belegen, die Wirtschaftsinformatiker erst ein Semester später. Das liegt daran, dass die Wirtschaftsinformatiker im ersten Semester zunächst ein Modul "Grundlagen der BWL" belegen, was alles weitere ein Semester nach hinten verschiebt. Wenn ich auf meine Schwierigkeiten mit den BWL-Modulen zurückblicke, meine ich, es wäre gar keine schlechte Idee gewesen, dieses Grundlagenmodul freiwillig zu belegen. Damit hätte ich vielleicht zum Teil ausgleichen können, dass ich im Bereich BWL keine Vorkenntnisse hatte. Gut möglich, dass mir der Stoff von BWL1 und BWL2 so leichter gefallen wäre.
     
    Die Rolle der BWL-Module im Studiengang
     
    Web- und Medieninformatiker belegen außer BWL1 und BWL2 auch noch Geschäftsprozess-Management. Wirtschaftsinformatiker belegen weitere BWL-Module: E-Business, Strategisches Management und Controlling, Human-Ressources. Und natürlich viele Wirtschaftsinformatik-Module. Die meisten von denen und auch das Modul "E-Business" dürfen Web- und Medieninformatiker im Wahlbereich belegen. 
     
    BWL2 soll nach BWL1 belegt werden, was ich rückblickend nicht für unbedingt nötig halte. Mir scheint, dass die Inhalte der Module wenig aufeinander aufbauen, so dass ich eine Umkehrung der Reihenfolge für durchaus möglich halte. Dafür sprechen würde, dass insbesondere der Kurs Ökonomie aus dem Modul BWL2 einen gewissen Überblick über das Fachgebiet verschafft, der es vielleicht ein wenig erleichtert, die spezielleren Inhalte aus BWL1 einzuordnen, nämlich internes und externes Rechnungswesen.
     
    BWL2 gilt als inhaltliche Voraussetzung für Geschäftsprozess-Management. Ich habe Geschäftsprozessmanagement vor BWL2 belegt, was auch gut möglich war. Die Kapitel zur strategischen Planung und zu Organisationsformen aus BWL2 wären aber doch eine gute Vorbereitung auf Geschäftsprozess-Management gewesen, so dass ich hier anderen Studierenden dazu raten würde, die Module in der offiziell empfohlenen Reihenfolge zu bearbeiten.
     
    Aufbau des Kurses
     
    BWL2 gehört zu den Modulen, die aus zwei separaten Kursen bestehen. Es gibt 2 Lehrbücher, 2 Online-Abschlusstests, 2 Online-Klausuren, 2 Korrektoren für Einsendeaufgaben aber eine gemeinsame Präsenzklausur. Nach meiner Erfahrung erhöht eine solche Zweiteilung den Bearbeitungsaufwand ein wenig. So habe ich das auch diesmal empfunden.
    Am Umfang der Lehrbücher liegt das aber nicht. Die Titel "Basiswissen Unternehmensführung" von Klaus Menzel und "Basiswissen Ökonomie" von Rainer Ostermann und Frank Wischmann kommen zusammen auf rund 400 Seiten, was für Module bei Springer Campus üblich ist. Die Autoren Wischmann und Ostermann waren mir bekannt, denn sie haben auch die Lehrbücher für BWL1 verfasst.
     
    Inhalte des Kurses Unternehmensführung
     
    Im Kurs Unternehmensführung geht es um Zielsysteme, Strategische Planung, Unternehmensbewertung, wertorientierte Unternehmensführung und Organisationsstrukturen. Diese Inhalte haben mich anfangs wenig interessiert, aber das Buch war zugänglich geschrieben und die Kapitel wurden durch Fallbespiele begleitet, die den Stoff lebendig machten. Zum Teil wurden hier Dialoge aus Besprechungen wiedergegeben, in denen sich unterschiedliche Ansätze und Denkschulen offenbarten. Das fand ich didaktisch gut gelungen und hat mir oft weitergeholfen, mir den (für mich recht trockenen) Stoff zu erschließen.
     
    Im Kapitel Zielsysteme geht es zum Beispiel darum, Ziele in Zielhierachien einzuordnen, um Abhängigkeiten zwischen Zielen zu erkennen. Man sieht so, welche Unterziele erreicht werden müssen, um übergeordnete Ziele erreichen zu können. Ein häufiges Problem ist, dass Ziele nicht immer miteinander kompatibel sind. Häufig bestehen Zielkonflikte, die aufgelöst werden müssen. Dazu kann es nötig werden, Ziele zu gewichten. Der bei Erreichung erwartete Nutzen, die Wahrscheinlichkeit der Realisierung, aber auch die Beeinflussbarkeit spielen bei solchen Bewertungen eine Rolle. Schließlich braucht man Methoden, um bei konfliktären Zielen durch Dialog und Verhandlung zu Entscheidungen zu kommen. Wo Einigungen nicht möglich sind, werden oft übergeordnete Instanzen entscheiden müssen.
     
    Im Kapitel Strategischen Planung geht es um die langfristige Ausrichtung des Unternehmens. Strategische Entscheidungen wären zum Beispiel, in einem neuen Geschäftsfeld tätig werden zu wollen, den Produktionsstandort zu verlagern, das Unternehmen an die Börse zu bringen oder bestimmte Produktlinien komplett aufzugeben. Für strategische Entscheidungen braucht man Instrumente zur Analyse und Planung, von denen man im Kurs einige kennenlernt. Die SWOT-Analyse identifiziert Stärken und Schwächen des Unternehmens, aber auch Chancen und Risiken. Die Portfolio-Analyse bewertet die angebotenen Produkte des eigenen Unternehmens nach Kriterien wie Wachstum und Marktanteil und kategorisiert sie in Poor Dogs, Questions Marks, Stars und Cash Cows. Eine Cash Cow ist zum Beispiel ein Produkt mit hohem relativen Marktanteil aber nur noch geringem Wachstum. Cash Cows sollen ohne zusätzlich Investitionen Geld bringen. Stars sind dagegen Produkt mit hohem relativem Marktanteil und hohem Wachstum. In solche Produkte soll verstärkt investiert werden. Wichtig für die strategische Planung sind auch Prognosen künftiger Entwicklungen, denn auf diese möchte man sich durch die strategischen Entscheidungen ja vorbereiten. Hier wird unterschieden zwischen quantitativen Methoden, die Zahlenwerte aus der Vergangenheit in Form von Zeitreihen analysieren, und qualitativen Methoden, die mit Einschätzungen von Experten arbeiten. Im Kapitel geht es aber auch um Denkschulen strategischer Planung, die sich aus unterschiedlichen Wissenschaftsgebieten entwickelt haben und sich in den Vorgehensweisen stark unterscheiden. Schließlich geht es um Grenzen strategischer Planung, die sich zum Beispiel daraus ergeben, dass Prognosen auf der Grundlage vergangener Entwicklungen nicht immer zuverlässig sind.
     
    Schwierigkeiten hatte ich in erster Linie mit dem Kapitel Unternehmensbewertung. Entweder war es für mich zu dicht geschrieben oder es mangelte mir an Vorwissen. 
    Hier geht es darum, welchen Wert ein Unternehmen hat. Es gibt sehr unterschiedliche Methoden, den Wert eines Unternehmens zu bewerten. Welche davon geeignet ist, hängt vom Anlass der Bewertung ab. So wird ein Kreditgeber sich unter anderem dafür interessieren, was bei Liquidation eines Unternehmens erlöst werden kann. Das Vermögen des Unternehmens sieht er als Sicherheit für den Fall einer Insolvenz. Dagegen wird ein Investor sich eher dafür interessieren, welche Erträge das Unternehmen abwirft, weil er es nicht liquidieren sondern betreiben will. Besonders interessant ist der Potentialwert eines Unternehmens. Hier geht es darum, bislang ungenutzte Möglichkeiten und Chancen zu erkennen und zu bewerten. Dies ist zum Beispiel relevant bei Fusionen. Die Kombination der Fähigkeiten zweier Unternehmen kann neue Werte schaffen, die den Wert des aufgekauften Einzelunternehmens übersteigen.
     
    Gut gefallen hat mir das Kapitel zu Organisationsstrukturen. Hier ging es zum Beispiel um Vor- und Nachteile traditioneller Organisationsstrukturen im Vergleich zu Projektorganisationsformen und zweckorientierten Organisationsformen. Hier sah ich inhaltliche Bezüge zum Modul Geschäftsprozess-Management, das ich leider vorher belegt hatte.
     
    Inhalte des Kurses Ökonomie
     
    Im Kurs Ökonomie geht es zunächst um Grundtatbestände des Wirtschaftens. Im Schnelldurchgang werden hier wichtige Grundbegriffe geklärt und behandelt: Nachfrage und Bedürfnisse, Produktionsfaktoren, Wirtschaftsordnungen, Wirtschaftskreislauf und Wirtschaftsprinzipien, Kennziffern betrieblichen Handelns, volkswirtschaftliche Gesamtrechnung, Begriffe wie Bruttoinlandsprodukt oder Bruttosozialprodukt, Märkte, Preismechanismen, Preisbildung in Polypolen, Oligopolen und Monopolen, Dynamik der Wirtschaft. Obwohl sehr dicht geschrieben, konnte ich diesem Teil des Kurses gut folgen und meine, hier auch einige Bausteine für meine Allgemeinbildung aufgesammelt zu haben.
     
    Nach einem kurzen Kapitel über konstituive Entscheidungen wird der bis dato eher volkswirtschaftlich orientierte Kurs wieder betriebswirtschaftlich. Es geht um drei Typen konstituiver Entscheidungen:
    - die Wahl des Tätigkeitsfeldes
    - die Wahl des Standortes
    - die Wahl der Rechtsform
     
    Während ich dem Kapitel zur Standortwahl gut folgen konnte, fand ich insbesondere das Kapitel zur Rechtsform zu gedrängt geschrieben, um den Stoff wirklich zu begreifen. Natürlich wurde hier regelmäßig auf weitere Fachliteratur verwiesen, aber so sehr interessierte mich das Thema dann doch nicht.
     
    Insgesamt bin ich überrascht, dass der Kurs Ökonomie mir unterm Strich etwas weniger Spaß gemacht hat als Unternehmensführung. Ich hätte das Gegenteil erwartet. Möglicherweise liegt es daran, dass Unternehmensführung ein bisschen ausführlicher geschrieben ist als Ökonomie. Ich schätze, mit etwa 100 Seiten mehr Umfang hätte ich den Ökonomie-Kurs besser verwerten können. Dazu möchte ich bemerken, dass ich zu Schulzeiten keinen Unterricht zu Wirtschaftsthemen genossen habe und solche Inhalte auch in meiner Ausbildung keine Rolle gespielt haben. Wer mehr Vorkenntnisse oder Vorerfahrungen mitbringt, kann die im Kurs Ökonomie dargebotenen Inhalte wahrscheinlich besser aufnehmen als ich.
     
    Einsendeaufgaben und Tests
     
    Die Einsendeaufgaben haben mein Verständnis des Stoffes sicher verbessert. Im Kurs Unternehmensführung waren es mehr als im Kurs Ökonomie. Die Rückmeldungen meiner Tutoren kamen überwiegend zügig. Sie waren für mich auch interessant, weil mir oft Punkte fehlten und ich so erfuhr, was ich für die Klausur noch einmal wiederholen musste.
     
    Klausur
     
    Die Präsenzklausur ist ohne Hilfsmittel zu schreiben, was mir bei diesem Stoff ein bisschen Sorgen gemacht hat. Die waren aber unbegründet. Die Klausur deckte den Stoff breit ab und behandelte beide Kurse bzw. Lehrbücher gleichmäßig, zumindest was die erreichbaren Punkte anging. Breit gestellte Klausuren halte ich für faire Klausuren, weil Erfolg oder Misserfolg nicht davon abhängen, ob zufällig die eigenen Lieblingsthemen auftauchten. Insbesondere muss man nicht befürchten, wegen kleinerer Schwächen in einem Teilgebiet durchzufallen. Wer sich redlich bemüht, den gesamten Stoff zu bearbeiten, sollte hier Erfolge sehen.
     
    Es gab unterschiedliche Aufgabentypen: Ein Diagramm zeichnen, Multiple Choice, doch der Schwerpunkt lag auf dem Erklären von Begriffen und Zusammenhängen (z.T. mit Bezug zu politischen und gesellschaftlichen Themen). Anzahl und Umfang der Aufgaben passten gut zur Bearbeitungszeit. Manche Aufgaben waren recht knapp zu beantworten, andere ausführlicher. Es gab "Punktebringer", aber auch ein paar speziellere Fragen für das letzte Quäntchen Punkte. Hier ging es erkennbar darum, ein Grundverständnis abzuprüfen. Auch jemand, der nicht BWL-affin ist, hat hier eine faire Chance.
     
    Ein Ergebnis liegt mir noch nicht vor, aber diesmal bin ich optimistisch, dass es geklappt haben müsste.
     
    Fazit
     
    Ich bin froh, dass das ungeliebte Thema BWL nun hoffentlich hinter mir liegt. Unzumutbar schwer haben es mir die Kursautoren nicht gemacht. Es hat mir auch sicher nicht geschadet, mich einmal mit diesen Themen zu beschäftigen. Ich vermute, dass ich durch die Module etwas leichter mit Menschen kommunizieren kann, die eine betriebswirtschaftliche Denk- und Arbeitsweise haben. Das kann ja in vielen Situationen hilfreich sein.
     
    Meine eigenen Erwartungen, was ich durch die Module würde lernen können, waren rückblickend betrachtet wahrscheinlich etwas überzogen. Nur 10 ECTS sind wenig Zeit für ein komplexes Thema wie BWL. Das reicht für einen Einblick und vielleicht für eine gewisse Orientierung im Themengebiet. Das ist weniger als ich gehofft habe, aber natürlich hat es einen Wert. Wahrscheinlich wäre es in meinem Fall vernünftig gewesen, das Modul "Grundlagen der BWL" freiwillig als Propädeutikum zu belegen. Dann hätte ich wahrscheinlich aus den beiden folgenden Modulen mehr Nutzen ziehen können.
     
    Rückblickend betrachtet hätte es mir besser gefallen, ich hätte diese 10 ECTS mit anderen Inhalten füllen dürfen. Grundsätzlich gefällt es mir sehr, an einer FH zu studieren, wo ich einen starken Praxisbezug des Studiums erkenne. Vermutlich ist BWL ein Pflichtfach, weil man davon ausgeht, dass die meisten von uns in Unternehmen arbeiten werden. Das ist ja auch eine vernünftige Annahme. Statt BWL z.B. zusätzliche Mathe-Module zu belegen hätte mir allerdings mehr Spaß gemacht.
     
    Andererseits gehört zu einem Studium auch die Auseinandersetzung mit Themen, die man auf den ersten Blick nicht zum Anbeißen findet. Insofern habe ich versucht, mich auf BWL einzulassen. Für mich war es der bislang mühsamste Teil meines Studiums, weil ich es schwieriger als in anderen Modulen fand, mich zum regelmäßigen Lernen zu motivieren. Aber vermutlich ist das nun geschafft. Jetzt bin ich auch ein bisschen stolz auf mich.
     
    Ob ich noch einmal Lust haben werde, im Wahlbereich ein weiteres Modul mit BWL-Bezug zu belegen? Für die nächste Zeit möchte ich mich erst mal anderen Themen zuwenden. Andererseits gibt es dann doch Inhalte, die mich interessieren könnten. Ein Modul "E-Business" würde z.B. ganz gut zu einem Studium "Web- und Medieninformatik" passen. Momentan bin ich aber froh, im Studienbereich BWL meine Pflicht getan zu haben.
     
    Wie geht es nun weiter? Inzwischen habe ich angefangen, das Modul "Wissenschaftliches Arbeiten" zu belegen. Das ist für mich freiwillig, weil ich noch nach der alten Studienordnung studiere. Die Belegung wird uns aber dringend empfohlen, weil die Inhalte für die Anfertigung der Projekt- und Bachelorarbeit wichtig sind. Das sehe ich ein, also habe ich das Modul belegt. Ich hatte erwartet, dass das ein notwendiger aber auch trockener Studienabschnitt werden würde. Bislang bin ich positiv überrascht: Ich finde den Stoff richtig interessant, die Einsendeaufgaben machen mir viel Spaß und ich glaube, dass ich hier wichtige Einsichten für meine Projekt- und Bachelorarbeit mitnehmen kann. Besonders gefällt mir aber, dass ich den Eindruck habe, hier auch etwas für meine Allgemeinbildung zu tun. Ich werde zu gegebener Zeit ausführlicher berichten.
     
    Inzwischen habe ich auch eine Idee für meine Projekt- und für meine Bachelorarbeit. Beides dauert noch ein bisschen, aber allmählich taucht aus dem Nebel schemenhaft der letzte Studienabschnitt auf und nimmt ein bisschen Gestalt an. Das wird etwas ganz anderes werden als Stoff zu lernen und Klausuren zu schreiben. Aber mittlerweile vermute ich, dass das auch Spaß machen wird.
  14. kurtchen
    Das Modul Geschäftsprozessmanagement (GPM) ist ein Pflichtmodul in den Studiengängen Web- und Medieninformatik (WMI) und Wirtschaftsinformatik (WI). Im Studiengang WMI ist es - zu meiner anfänglichen Überraschung - dem Studienbereich IT-Systeme zugeordnet. In beiden Studiengängen wird die Belegung im 3. Fachsemester empfohlen. Formal gibt es keine inhaltlichen Voraussetzungen. Empfohlen werden als fachliche Grundlage aber BWL2 und Grundlagen der Informatik 1 (GdI1). Beide Empfehlungen sind für mich nicht nachvollziehbar. Im Falle von BWL2 liegt das daran, dass ich GPM entgegen der Empfehlung vor BWL2 belegt habe. Möglicherweise wäre mir das Modul also leichter gefallen, wäre ich dem empfohlenen Studienplan gefolgt. Warum ich GdI1 belegt haben sollte, erschließt sich mir nicht.
     
    Die Zuordnung zum Studienbereich IT-Systeme wurde mir im Verlauf des Moduls klarer. Geschäftsprozesse werden in Unternehmen durch IT-Systeme unterstützt. Nun wurden Geschäftsprozesse in vielen Unternehmen klassischerweise funktionsorientiert organisiert. Ähnliche Tätigkeiten wurden in Abteilungen zusammengefasst, in denen Mitarbeiter arbeiteten, die genau für diese Tätigkeiten besonders qualifiziert waren. So hatte ein Unternehmen z.B. eine Auftragssannahme, ein Lager, einen Einkauf, eine Montage und so weiter. Diese Gliederung hatte auch oft damit zu tun, dass bestimmte Produktionsmittel, wie z.B. teuere Maschinen, effizienter genutzt werden konnten und nur ein Mal angeschafft werden mussten.
     
    Die funktionsorientierte Gliederung hat aber auch Nachteile. Ein kompletter Geschäftsprozess, z.B. ein Auftrag für ein Produkt, das mit Teilen aus dem Lager gefertigt werden muss, läuft quer durch die Abteilungen. Beim Übergang von Abteilung zu Abteilung wird der Vorgang in Warteschlangen eingereiht. Die Durchlaufzeit von Prozessen verlängert sich dadurch erheblich. Außerdem hat kein Mitarbeiter einen Gesamtüberblick über den einzelnen Prozess. Beim Übergang von Abteilung zu Abteilung müssen Informationen weitergegeben werden. Dabei kommt es zu Missverständnissen und Fehlern. Haben Kunden im laufenden Prozess Rückfragen oder Änderungswünsche, ist es dadurch oft schwierig, einen klaren Ansprechpartner ausfindig zu machen, weil jeder nur seinen Teilschritt betrachtet und kennt. Werden Teilprozesse parallel in unterschiedlichen Unternehmensteilen bearbeitet, ist es schwierig, bei Änderungen des Auftrags alle Daten konsistent zu halten und alle Beteiligten auf den aktuellen Stand zu bringen. Außerdem spielt ein klassischer Vorteil der funktionsorientierten Gliederung, teure Produktionsmittel müssen nur ein Mal angeschafft werden, in modernen Unternehmen eine geringere Rolle. Viele Geschäftsprozessen transformieren heute Wissen und nicht Material. Die dazu benötigten Produktionsmittel - z.B. PCs - kosten nicht viel.
     
    Transparenz, Schnelligkeit, die Möglichkeit zu Änderungen im laufenden Prozess, spielen dagegen für immer mehr Kunden eine große Rolle. Darum strebt man heute eine prozessorientierte Organisation an. Geschäftsprozesse sollen nicht quer durch die Abteilungen laufen, Mitarbeiter sollen einen Gesamtüberblick über einzelne Prozesse haben, es soll klare Ansprechpartner für Prozesse geben.
     
    Im Hinblick auf IT-Systeme ist die Unterscheidung zwischen funktionsorientierter und prozessorientierter Organisation der Geschäftsprozesse bedeutsam. Ein naiver Ansatz wäre, einfach die bestehenden Geschäftsprozesse in Software abzubilden. Im Falle einer funktionsorientierten Organisation landet man so bei Insellösungen. Der Lagerist bekommt eine Lagerverwaltungssoftware, die Auftragsannahme bekommt ein System zur Erfassung von Aufträgen, die Rechnungsabteilung hat eine Software zur Rechnungsstellung und so weiter. Jede Abteilung fühlt sich durch ihre Software in ihrer Tätigkeit unterstützt. Beim Übergang von Abteilung zu Abteilung müssen Daten von einer Software in die andere übertragen werden. Das macht unnötig Arbeit und führt oft zu Fehlern. Die Daten werden leicht inkonsistent, insbesondere im Fall von nötigen Änderungen. Die Vorteile der Softwareunterstützung können so nicht im vollen Umfang realisiert werden.
     
    Es gibt aber noch einen viel gravierenderen Nachteil. Sollte sich das Unternehmen entscheiden, die bisherigen Geschäftsprozesse zu ändern, z.B. um eine eher prozessorientierte Organisation zu erreichen, müsste die bisherige Software geändert werden. Das können Unternehmen oft nicht selbst. Sie sind auf die Hilfe von externen Spezialisten angewiesen. Software hat also eine Tendenz, bestehende Geschäftsprozesse zu zementieren. Man kann die Organisation nicht mehr einfach ändern, weil man dazu die IT-Systeme ändern müsste.
     
    Aus diesem Grund lohnt es sich, vor Einführung einer IT-Lösung die Geschäftsprozesse genau zu betrachten. Oft lässt sich mit Software-Unterstützung ein effizienterer Ablauf erreichen, z.B. indem man Daten nur ein Mal erfasst und zentral speichert, die Abteilungen vernetzt. Manchmal ist es auch möglich, IT-Systeme von kooperierenden Unternehmen zu vernetzen, sogar über mehrere Unternehmen hinweg. So ist es z.B. möglich, dass Lager automatisch bei Lieferanten Teile nachbestellen, sobald ein größerer Auftrag eingegangen ist.
     
    Soll eine Softwarelösung für ein Unternehmen erstellt werden, reicht es also nicht die Frage zu beantworten: Was machen die? Wie machen die es? Man muss sich auch damit beschäftigen: Könnte man es mit Softwareunterstützung besser und effizienter machen? Welche Änderungen im Ablauf könnten sich ergeben?  Inwiefern ist unsere Software an Änderungen anpassbar? Eben weil IT-Systeme in Unternehmen sehr eng mit den Geschäftsprozessen verknüpft sind, lohnt sich eine Beschäftigung mit Geschäftsprozessen.
     
    Das Lehrbuch
     
    Das Lehrbuch "Geschäftsprozessmanagement" von Thomas Allweyer hat ca. 400 Seiten. Das ist für Module bei Springer Campus ein üblicher Umfang. Die Gliederung des Buches folgt dem Geschäftsprozessmanagement-Kreislauf:
    - Strategisches Prozessmanagement
    - Prozessentwurf
    - Prozessimplementierung
    - Prozesscontrolling
     
    Für jemanden wie mich, der keinen leichten Zugang zu BWL-Themen hat, ist es sehr verständlich geschrieben. Konzepte und Begriffe werden anhand von Szenarien in Unternehmen veranschaulicht, so dass man sich stets gut vorstellen kann, was damit gemeint ist. Das Buch enthält viele Diagramme und Abbildungen. Das ist wichtig, weil bei den Einsendeaufgaben und in der Klausur das Zeichnen von ereignisgesteuerten Prozessketten und anderen Diagrammen eine Rolle spielt. Auch viele andere Diagrammtypen spielen im Kurs eine Rolle, z.B. Funktionsbäume, Organigramme aber auch UML-Klassendiagramme, mit denen die Datenobjekte in den IT-Systemen modelliert werden können.
    Gut gefallen hat mir am Lehrbuch vor allem, dass das Glossar hier einmal nicht am Ende des Buches war. Stattdessen wurden am Ende jedes Kapitels die zentralen Fachbegriffe noch einmal definiert, was ich als gute Wiederholung des Stoffes empfand.
     
    Didaktisch finde ich das Buch hervorragend aufgebaut. Das war in diesem Fall auch wichtig für mich, denn der Stoff war mir völlig neu. Da ich selbst keinen entsprechenden beruflichen Hintergrund habe, war mir die betriebswirtschaftliche Perspektive des Moduls nicht sehr vertraut und ich habe für dieses Modul wesentlich länger gebraucht als gehofft.
     
    Die Tests
     
    Die Tests sind sehr gut auf den Stoff des Lehrbuches abgestimmt. Im Gegensatz zu manchen anderen Modulen, ist hier jede einzelne Lösung ausführlich kommentiert. Wenn man etwas falsch macht, kann man diese Erläuterung lesen und begreift so in der Regel gut, was das Problem war und wo man noch einmal nachlesen müsste. In manchen Modulen sind die Autoren an dieser Stelle sehr zurückhaltend. Das wird damit begründet, die Studierenden zum eigenen Nachdenken anregen zu wollen. Ich habe die Erläuterungen hier mit großem Gewinn gelesen und konnte durch eigene Fehler in Verbindung mit dieser Hilfestellung oft Erkenntnissprünge machen, die sich allein durch die Lektüre des Kurstextes noch nicht eingestellt hatten.
     
    Die Aufgaben
     
    Die Aufgaben waren zahlreich und ebenfalls gut auf den Kurstext abgestimmt. Im Vergleich zu anderen Modulen sind die Aufgaben vor allem im ersten Drittel des Kurses sehr textlastig. Die angegebene Bearbeitungszeit habe ich nie einhalten können. Trotzdem hätten meine Lösungen in vielen Fällen noch ein wenig umfangreicher ausfallen können und sollen. Wer nicht schon "im Thema" ist, sollte für dieses Modul also mehr Zeit einplanen.
     
    Zu den Aufgaben gibt es Lösungshinweise. Diese kommen in Form von Fragen zum Stoff, die der Studierende noch einmal für sich klären soll. Er baut so stufenweise das nötige Hintergrundwissen auf, um die Aufgabe lösen zu können. Dabei müsste er noch einmal wesentlich mehr Text produzieren, um sich so in einer iterativen Vorgehensweise einer guten Gliederung und einer Lösung der Aufgabe zu nähern. Diese Hinweise fand ich sogar etwas zu üppig. Nicht etwa, weil sie die eigene Lösung der Aufgabe vorweg nahmen. Das taten sie ganz und gar nicht. Sie erhöhten den Arbeitsaufwand noch einmal erheblich, weil sie oft auf gründliche Wiederholung des Stoffes und der nötigen Grundlagen setzten. Didaktisch war das zwar ebenfalls hervorragend gemacht, aber irgendwann wollte ich das Modul auch einmal abschließen. Hier fehlte es mir letztlich an Geduld und Fleiß.
     
    Online-Test
     
    Der Online-Test deckte den Stoff des Moduls gut ab. Die Fragen waren neu, so dass man hier eine gewisse Transferleistung erbringen musste. Mein Eindruck ist, dass das Verständnis der vermittelten Konzepte auf diese Weise gut abgeprüft werden kann, was im Hinblick auf die Klausuranmeldung ja auch Sinn der Sache ist. Der Online-Test ist eine gute Möglichkeit, sich ein paar Bonuspunkte zu sichern, wenn man das Lehrbuch gründlich durchgearbeitet hat.
     
    Zur Online-Klausur kann ich diesmal nichts sagen. Aus familiären Gründen habe ich es (erstmals) nicht geschafft, die Online-Klausur noch rechtzeitig zu schreiben. Darum weiß ich bei diesem Modul nicht, ob die Online-Klausur einen realistischen Eindruck von den Aufgaben der Präsenzklausur gibt.
     
    Inhalte
     
    Im Kursteil "Strategisches Management" geht es um folgende Inhalte:
    - Zielsystem des Unternehmens
    - Balanced Scorecard
    - Outsourcing
     
    Interessant für mich war, dass gerade Prozesse, die man outsourcen möchte, genau untersucht werden sollten. Um festzustellen, ob Outsourcing günstiger ist, muss man nämlich zunächst einmal wissen, was die bestehenden Prozesse IM EIGENEN UNTERNEHMEN eigentlich kosten. Dazu muss man auch genau verstehen, welche Leistungen künftig ausgelagert werden und was im eigenen Unternehmen weiterhin zu tun ist. Insbesondere muss man die zu erbringenden Leistungen sehr genau definieren, um sinnvolle Verträge schließen zu können. Und schließlich muss man die Einhaltung der vereinbarten Leistungen überprüfen. Und man muss sinnvolle Schnittstellen zwischen den ausgelagerten Prozessen und den daran anschließenden Prozessen im eigenen Unternehmen definieren. Aus all diesen Gründen, müssen gerade solche Prozesse, die ausgelagert werden sollen, sehr genau untersucht werden.
     
    Im Kursteil "Prozessentwurf" geht es um:
    - Nutzen und Inhalt von Prozessmodellen
    - Sichten auf Prozesse
    - ARIS als Rahmenkonzept
    - Leistungen, Funktionen, Daten, Information, Wissen
    - Aufbauorganisation
    - die Modellierung von Kontrollflüssen mit ereignisgesteuerten Prozessketten (EPK)
    - Geschäftsregeln
    - Prozessmodelle und Objektorientierung
    - Die Auswahl von Prozessmodellen und Notationen
    - Prozessanalyse (um Schwachstellen aufzudecken)
    - Prozesskostenrechnung
    - Simulation
    - Qualitäts-Management-Systeme
    - integrierte Management-Systeme
     
    Insbesondere das Zeichnen von EPKs spielt bei den Aufgaben immer wieder eine Rolle. Obwohl im Kurs auf verschiedene Softwarewerkzeuge hingewiesen wurde, habe ich das von Hand gemacht, weil ich ja wusste, dass ich in der Klausur auch keine Software zur Verfügung haben würde. Hier hat es sich mal wieder als große Hürde erwiesen, sich beim Arbeiten mit Stift und Papier den Platz gut einzuteilen, um sich nicht "in eine Sackgasse zu zeichnen". Das ist tatsächlich etwas, das mit Übung besser wird. Anfangs lag bei mir viel geknülltes Papier auf dem Boden.
     
    Die EPKs sind oft Grundlage der Prozessanalyse. Sie enthalten im Kern Information zum Workflow. Diese kann aber ergänzt werden mit Informationen zu den Abteilungen, in denen Leistungen erbracht werden, zu Artefakten und Datenobjekten, die erzeugt und konsumiert werden, zu einzelnen Akteuren oder auch verwendeten Produktionsmitteln. Je mehr Informationen man integriert, umso schwieriger wird es, die EPK übersichtlich aufzubauen. Am gefundenen Prozessmodell kann man dann Schwachstellen der bestehenden Prozesse erkennen, z.B. Mehrfachspeicherung von Daten, Organisationsbrüche, unnötige Schleifen und Verzögerungen und vieles mehr. Dies ist dann Grundlage für den Entwurf von verbesserten Abläufen. Im Hinblick auf die Klausur würde ich empfehlen gerade den Stoff dieses Kursteiles sehr aufmerksam zu lernen.
     
    Im Kursteil "Prozessimplementierung" geht es um:
    - Change Management
    - Betriebswirtschaftliche Standardsoftware
    - Workflow-Management-Systeme
    - Business-Process-Management-Systeme
    - Prozessorientierte Software-Entwicklung
     
    Interessant war für mich vor allem der Abschnitt über Change-Management. Mitarbeiter fühlen sich durch die Umgestaltung von Prozessen oft bedroht. Nicht selten sind optimierte Prozesse Grund für Sorge um den eigenen Arbeitsplatz. Und das ist ja auch nicht immer unbegründet. Es kommt häufig vor, dass Mitarbeiter vordergründig an Prozessänderungen mitarbeiten, aber im Hintergrund versuchen, eben diese Veränderungen auszubremsen. Change-Management beschäftigt sich damit, wie man die Mitarbeiter in Veränderungsprozesse einbezieht, so dass die Implementierung geänderter Prozesse gelingen kann. In vielen Fällen wird das auch dazu führen, dass Änderungen kleiner ausfallen, als man zunächst geplant hatte. Eine kleinere Änderung, die von den Mitarbeitern akzeptiert und umgesetzt wird, wird oft mehr bewirken als ein komplett neu gestalteter und in der Theorie optimaler Prozess, an dem die Mitarbeiter nur widerwillig mitwirken. Ein iteratives Vorgehen ist hier oft sinnvoll. Manchmal ist es gut, größere Änderungen durch erfolgreiche durchgeführte kleinere Änderungen einzuleiten. Mitarbeiter müssen oft an kleineren Beispielen erleben, dass sich wirklich Vorteile ergeben, damit sie zu größeren Schritten bereit sind. Dieses für mich recht spannende Thema wird im Modul leider nur angerissen.
     
    Bei den meisten Themen dieses Abschnittes ist ein klarer Bezug zu IT-Sytemen offensichtlich. Rückblickend würde ich sagen, dass hier ein roter Faden erkennbar ist. Anfangs wurde Software für einzelne Unternehmen erstellt. Aus Kostengründen wurde dann mehr und mehr Standardsoftware benutzt, die für das eigene Unternehmen konfigurierbar sein sollte. Da Software die Tendenz hat, bestehende Prozesse "zu zementieren" ist es wünschenswert, dass Software so gestaltet wird, dass Workflows sich auch von Mitarbeitern anpasen und verändern lassen, die keine einschlägige IT-Ausbildung haben. Man will also Standardlösungen, die von Laien über geeignete User-Interfaces im hohem Maße anpassbar sind, z.B. mit graphischen Tools, die das Zeichnen von Workflows ermöglichen, und die dann in entsprechende Dialoge und Datenflüsse in der Software umgesetzt werden. Hier ging es z.B. um Service-orientied-Architectures (SOA). Dabei werden häufig benötigte Grundfunktionen als Web-Services realisiert, die sich dann flexibel zu komplexeren Abläufen kombinieren lassen.
     
    Im letzten Abschnitt "Prozesscontrolling" geht es um:
    - Messung von Prozesskennzahlen
    - Planung und Steuerung von Prozessen
    - Real Time Enterprise
    - Ständige Prozessverbesserung
     
    Insbesondere die Definition von Kennzahlen ist sehr wichtig, um den Erfolg von eingeführten Veränderungen beurteilen zu können.
    Interessant war für mich vor allem der Abschnitt über Real Time Enterprise. Hier geht es um die Fähigkeit von Unternehmen (mit Hilfe von Informationssystemen) auf wichtige Ereignisse sehr schnell reagieren und sich flexibel anpassen zu können, z.B. auf Veränderungen der Nachfrage, eine örtliche Verlagerung von Nachfrage, schnell steigende oder sinkende Zahlen von Service-Anfragen, eine sich schnell verändernde Wettbewerbssituation und ähnliche Szenarien. Dazu sammeln IT-Systeme fortlaufend relevante Daten und präsentieren sie Entscheidungsträgern in geeigneter Form. Dazu gehören z.B. auch automatisch generierte Benachrichtigungen, Warnungen und dergleichen.
     
    Präsenzklausur
     
    Die Klausur deckte die verschiedenen Themen des Moduls breit ab. Das Zeichnen von Diagrammen spielte - wenig überraschend - eine große Rolle, sowohl im Hinblick auf Punkte als auch im Hinblick auf die Bearbeitungszeit. Insgesamt empfand ich die Zeit als recht knapp, um alles schaffen zu können. Es gab viele kleinere Aufgaben. In der Vorbereitung würde ich den Schwerpunkt auf den Kursteil "Prozessentwurf" legen. Das Zeichnen von Diagrammen auf Papier sollte man geübt haben. Insgesamt fand ich die Klausur fair gestellt. Ob ich das auch in eine erfreuliche Note umsetzen kann, bleibt abzuwarten.
     
    Fazit
     
    Erste Grundlage des Moduls Geschäftsprozessmanagement ist das verständlich geschriebene Lehrbuch von Thomas Allweyer. Durch die gute Verzahnung mit den Online-Tests und Aufgaben wird ein didaktisch hervorragendes Modul daraus. Ich schreibe das, obwohl mir das Thema überhaupt nicht lag. Zwar empfand ich GPM als wesentlich spannender als BWL1, aber meine grundsätzlichen Schwierigkeiten mit BWL-Themen machten sich auch hier bemerkbar. Das Modul war aber so beschaffen, dass man mit Fleiß und Ausdauer weit kommen konnte. Ein bisschen Spaß hatte ich unterwegs dann doch. Insbesondere wurde immer wieder ein klarer Bezug zur Informatik hergestellt, was natürlich meinen Interessen eher entsprach.
     
    Ich glaube, dass der Stoff des Moduls sehr nützlich ist, wenn man Software im Unternehmenskontext entwickelt und mit Menschen kommunizieren muss, die betriebswirtschaftlich denken. Insofern habe ich mich bemüht, die hier dargebotenen Inhalte mit Offenheit und wachem Geist aufzunehmen. Allerdings hoffe ich nun auch, dass mit der Klausur das Modul geschafft ist und der zwar nicht allzu große aber für mich doch recht einschüchternde Hügel BWL wieder ein bisschen kleiner geworden ist.
     
    Ausblick
     
    Als nächstes möchte ich das Modul BWL2 bearbeiten. Da geht es um Unternehmensführung und Ökonomie (Volkswirtschaft). Ich erwarte, dass mir das mehr Spaß machen wird als BWL1 aber weniger als GPM. Aber warten wir mal ab, wie sich die Sache anlässt.
     
    Parallel dazu möchte ich gerne mit Text-Mining weiterkommen. Der Inhalt dieses Moduls ist mathematischer als ich vermutet hätte. Der Stoff ist sehr interessant aber leider auch nicht ganz einfach.
  15. kurtchen
    Das Modul "Content-Management-Systeme" (CMS) ist ein Pflichtmodul im Studiengang "Wirtschaftsinformatik" und wird dort auch dem Studienbereich Wirtschaftsinformatik zugerechnet. Springer Campus empfiehlt, es im 3. Semester zu belegen. Aber auch Studierende im Studiengang "Web- und Medieninformatik" dürfen es als Wahlpflichtmodul im Vertiefungsbereich belegen. Als inhaltliche Voraussetzungen werden genannt:
    - Web-Programmierung
    - Web-Anwendungen 1
    - XML
     
    Ich glaube, dass man dieses Modul auch ohne diese Grundlagen belegen kann. Tatsächlich kommt im Studienplan für Wirtschaftsinformatik "Web-Programmierung" nach dem Modul CMS und weder "Web-Anwendungen 1" noch "XML" sind für Wirtschaftsinformatiker verpflichtend. Richtig durchdacht wirken die Empfehlungen zu den inhaltlichen Voraussetzungen auf mich deshalb nicht.
     
    Ich habe das Modul belegt, weil ich fand, als Studierender der Web-Informatik müsse man auch Ahnung von CMS haben. Erwartet hatte ich eine Einführung in ein gängiges Web-CMS, z.B. in TYPO3, also ein Modul mit vielen praktischen Übungen. Wie schon bei anderen Wirtschaftsinformatik-Modulen war ich auch hier auf dem Holzweg, denn eine praktische Einführung in ein WCMS will dieses Modul nicht sein. Allerdings lernt man hier einige grundlegende Konzepte, die es einem erleichtern sollten, sich schnell in ein x-beliebiges WCMS einzuarbeiten.
     
    Mein erster Irrtum war die Gleichsetzung von CMS und WCMS. Content Management Systeme dienen dazu, Content für eine Website zu managen, wozu sonst? Nein, denn es gibt Dokumenten-Management-Systeme (DMS), Electronic Record Management Systeme (ERMS), Medienbibliotheken, mobile Content Management Systeme (mCMS), semantische Content Management Systeme (SCMS) und Component Content Management Systeme (CCMS) und außerdem verschiedene Mischformen. Näher beleuchtet werden im Kurs das WCMS, das DMS und das SCMS.
     
    Im Grundlagen-Kapitel geht es um Themen und Konzepte, die alle Arten von Systemen betreffen: Content-Modellierung, Metadaten, Standardisierung, Dokumenten-Management-Standards und Metadaten-Standards. Und um die grundlegenden Fragen:
    - Was ist Content?
    - Wie unterscheidet sich Content von Daten oder Information?
    - Was ist ein Dokument?
    - Was ist Content Management?
     
    Im Kapitel zu WCMS geht es um grundlegende Konzepte wie:
    - Benutzer und Berechtigungsstrukturen und ihre Bedeutung für den Workflow
    - Customizing, das Arbeiten mit Themes, Plugins, Templates
    - strukturierte Texte, Multimediaelemente
    - Inhaltsbearbeitung, -organisation und -darstellung
     
    Dieses Kapitel war für mich enttäuschend, weil ich eben etwas ganz anderes erwartet hatte, nämlich eine praktische Einführung in ein exemplarisches CMS. Ganz umsonst war die investierte Zeit am Ende aber nicht.
     
    Das Kapitel über DMS war schon spannender. Dokumenten-Management-Systeme werden oft in einem behördlichen Umfeld eingesetzt. Hier geht es i.d.R. darum, gesetzliche Aufbewahrungsfristen einzuhalten. Im Vergleich zum WCMS ist hier die Versionierung besonders wichtig. Es muss stets nachvollziehbar bleiben, wer, wann, was geändert hat. Vorherige Versionen eines Dokumentes sollen sich wieder herstellen lassen. Langfristige Archivierung spielt oft eine große Rolle. Dem Metadaten-Management kommt eine besondere Rolle zu, weil Content über die Metadaten schneller gefunden werden kann als über eine aufwendige Volltext-Suche. Oft ist nicht leicht zu beurteilen, was relevante Metadaten sind. Wenn Dokumente über lange Zeiträume aufbewahrt werden, können andere inhaltliche Kriterien für das Retrieval relevant werden, als man zum Zeitpunkt der Erfassung für plausibel hielt. Mit dem DIRKS-Modell wird ein allgemeines Vorgehensmodell vorgestellt, um ein Dokumenten-Management-System in einem institutionellen Kontext zu etablieren.
     
    Wirklich interessant war für mich das Kapitel über semantische Content-Management-Systeme (SCMS). Um für den Nutzer navigierbar zu sein, sollte Content mit anderem Content anhand von inhaltlichen Bezügen verknüpft werden. SCMS nutzen semantische Information, mit der Content angereichert ist, um solche Bezüge, die implizit enthalten aber nicht explizit bekannt sind, zu entdecken. So kann ein SCMS Metadaten automatisiert hinzufügen und Nutzern Inhalte anbieten, die inhaltlich zu denen passen, nach denen sie suchen. Ein SCMS kann zum Beispiel unterscheiden, ob ein Nutzer, über die UNO als Organisation oder über UNO als Kartenspiel recherchiert. Und je nachdem Information über andere internationale Institutionen oder über andere Kartenspiele anbieten.
     
    Zur Anreicherung von Content mit semantischer Information dient der Resource Description Framework (RDF). Mit ihm beschreibt man, dass eine Ressource, z.B. ein Content-Objekt im Web, eine bestimmte Eigenschaft mit einem bestimmten Wert hat. Man erhält so eine Aussage mit Subjekt (Ressource), Prädikat (Eigenschaft) und Objekt (Wert bzw. Belegung der Eigenschaft), die man auch als Triplet bezeichnet. Man kann zum Beispiel behaupten, dass ein Affe Bananen frisst. Das erinnert ein wenig an die Art und Weise, wie in logischen Programmiersprachen (etwa Prolog) Fakten beschrieben werden. RDF ist XML-basiert. Das ist wahrscheinlich der Grund, dass das Modul "XML" als sinnvolle Vorbereitung genannt wird. Vertiefte XML-Kenntnisse braucht man aber nur, wenn man das Thema Semantic Web auf eigene Faust weiter erkunden möchte.
     
    Mit dem Resource Description Framework Schema (RDFS), kann man solche Aussagen semantisch strukturieren. Man kann zum Beispiel festlegen, dass Affen Tiere sind oder das Tiere Nahrung essen. Mit dem Rule Interchange Format (RIF) beschreibt man Regeln, die von regelbasierten Systemen interpretiert und verarbeitet werden können. Man kann zum Beispiel Bedingungen formulieren, unter denen ein Tier Bananen als Nahrung nutzen würde, etwa, wenn es ein Affe ist und einer Umgebung lebt, in der Bananen wachsen. Ähnlich wie in einem Prolog-System kann dann ein regelbasiertes System aus bekannten Fakten und Regeln neue Fakten ableiten, die logisch implizit vorhanden aber bislang nicht explizit bekannt waren. Auf diese Weise kann ein solches System Wissen entdecken. Über solche Mechanismen kann neuer Content mit altem Content inhaltlich verknüpft werden. Logische Aussagen, die Triplets, können in speziellen Datenbanken, sogenannten Triplestores, gespeichert werden. Mit der Abfragesprache SPARQL kann man in diesen Wissensbeständen nach bestimmten Mustern suchen, ähnlich wie mit SQL in einer relationalen Datenbank. Als Fallbeispiel für ein semantisches CMS dient Apache Stanbol.
     
    Dieses Kapitel war für mich das Beste am Kurs. Leider fehlt im Kursangebot von Springer Campus ein Modul "Klassische KI", das nötig wäre, um die hier vorgestellten Konzepte wirklich en detail zu verstehen. (Klassische KI ist ja ein Thema, mit dem ich mich gerne noch beschäftigen möchte.) Die spannende Idee hier scheint zu sein, dass Web-Content mit Fakten und Regeln angereichert wird, so dass ein wissens- und regelbasierte Systeme damit arbeiten können.
     
    Es folgten 2 Kapitel über "Dokumenten-Management-Systeme in der Praxis" und über ein Fallbeispiel zur Erstellung einer Unternehmenswebseite mit einem CMS. Bei letzterem ging es weniger um Technik als um die einzelnen Phasen des Projektablaufs und die daran beteiligten Akteure.
     
    Mit Ausnahme des Kapitels über SCMS hat dieses Modul keine ausgesprochen technische Perspektive. Es geht eher um die Einbettung von CMS in organisatorische und institutionelle Kontexte, um Vorgehensweisen im Projektverlauf, um die Ermittlung von Anforderungen, die Formulierung von Projektzielen und Erfolgskriterien. Schon nachvollziehbar, dass das ein Modul für die Wirtschaftsinformatiker ist.
     
    Eine Besonderheit in diesem Modul ist, dass es hier mal kein gedrucktes Lehrbuch sondern nur ein Skript gibt. Das hatte ich bei Springer Campus noch nicht erlebt, obwohl ich vom Hörensagen weiß, dass das vereinzelt auch noch in anderen Modulen vorkommt. Ein Buch ist natürlich schöner und lässt sich besser mitnehmen, aber das Skript ist völlig in Orndung. Die Einsendeaufgaben fand ich in diesem Modul vergleichsweise einfach. Das gleiche galt für Abschlusstest und Abschlussklausur.
     
    Die Präsenzklausur fand ich im Vergleich etwas schwerer. Ich hatte mich aber auch nicht gut vorbereitet. Da ich am Prüfungswochenende 4 Klausuren schreiben wollte, musste ich Prioritäten setzen. Softwaretechnik 3 und Web-Engineering waren mir am wichtigsten. Darum hatte ich dort am meisten Zeit investiert. Für CMS hatte ich vor allem die Inhalte aus dem Kapitel über SCMS wiederholt, denn die fand ich am anspruchsvollsten. Außerdem war ich der Meinung, dass das guter Stoff für Prüfungsfragen sei. Leider spielte ausgerechnet dieser Kursteil in der Klausur eine geringe Rolle. Die Aufgaben deckten ansonsten alle Kursteile recht breit ab, so dass ich hier nur den Tipp geben kann, bei der Wiederholung des Stoffes auf möglichst gleichmäßige Abdeckung zu setzen und sich nicht in Details zu verlieren. Die Aufgaben fragen in erster Linie Wissen ab, indem man Konzepte und Begriffe erklärt. Solche Klausuren mag ich nicht besonders, aber es passt zum Kurskonzept.
     
    Nicht ganz zu unrecht hatte ich damit gerechnet, dass die Klausur zu CMS die leichteste an jenem Prüfungswochenende sein würde. Darauf hatte ich mich leider ein bisschen zu sehr verlassen, und so erzielte ich insgesamt nur 75 von 100 Punkten. Da diese Klausur wirklich nicht zu schwierig war, war ich mit meiner Leistung nicht zufrieden. Dank der Bonuspunkte aus Online-Test und Online-Klausur war die Note dann trotzdem ganz gut.
     
    CMS ist ein Modul für Wirtschaftsinformatiker. Es geht um Anwendung im institutionellen Kontext, um Vorgehensweisen, Projektplanung, Standards. Wie die Technik funktioniert, spielt eine untergeordnete Rolle. Man lernt nicht, mit einem bestimmten CMS umzugehen. Insgesamt habe ich schon einige neue Erkenntnisse aus dem Modul mitgenommen, vor allem aus den Kapiteln über Dokumenten-Management-Systeme. Aber nochmal würde ich es nicht belegen, weil es mir zu sehr auf die Wirtschaftsinformatiker zugeschnitten ist.
  16. kurtchen
    4. Semester - Sommersemester 2017
    - Web-Anwendungen 2
    - Softwaretechnik 2
     
    3. Semester - Wintersemester 2016/2017
    - Mathematik 3
    - Softwaretechnik 1
    - Nicht-sequentielle Programmierung
    - Statistik
    - IT-Sicherheit
    - Mobile Computing
     
    2. Semester - Sommersemester 2016
    - Grundlagen der Informatik 3
    - Grundlagen der Informatik 4
    - Web-Anwendungen 1
    - Web-Ergonomie und Web-Design
    - Computernetze
    - Mathematik 2
     
    1. Semester - Wintersemester 2015/2016
    - Grundlagen der Informatik 1
    - Grundlagen der Informatik 2
    - Rechnerstrukturen und Betriebssysteme
    - Datenbanken und SQL
    - Mathematik 1
    - Web-Programmierung
     
    Zusätzlich belegte Module an anderen FHs
    - theoretische Informatik (WINGS Wismar)
    - Programmieren in C++ (Virtuelle Hochschule Bayern)
     
    Aktuell in Bearbeitung bei Springer Campus
    - Softwaretechnik 3
    - CMS
    - Data Mining
     
    Noch geplant für das 4. Semester
    - künstliche Intelligenz (WINGS WISMAR)
  17. kurtchen
    Softwaretechnik 1 ist das erste von insgesamt drei aufeinander aufbauenden Modulen. Ergänzt wird es um die Module "Softwaremanagement" und "Software testen". Diese fünf Module bilden den Studienbereich "Softwaretechnik" und sind für Studierenden im Studiengang "Web- und Medieninformatik" Pflicht. Studierende der Wirtschaftsinformatik müssen "Softwaretechnik 3" und "Software testen" nicht belegen. Für Studierende beider Studiengänge wird ein Vertiefungs-Modul "Softwaremanagement 2" angeboten.
     
    Das Modul Softwaretechnik 1 basiert auf dem "Lehrbuch der Softwaretechnik" von Helmut Balzert. Zugeschickt bekommt man Band 1 "Basiskonzepte und Requirements Engineering". Beim Auspacken erlebt man die erste Überraschung. Es ist kein Buch vom W3L-Verlag sondern vom Spektrum Verlag. Die zweite Überraschung ist, dass es ein ziemlich dicker Wälzer von über 600 Seiten ist. Der didaktische Aufbau ist aber durchaus ähnlich, wie man das von der W3L gewohnt ist. Herr Balzert hat ja auch den Studiengang "Web- und Medieninformatik" der W3L aufgebaut. Man kommt mit dem Format gut zurecht. Außerdem ist wird dieses Lehrbuch nicht allein im Modul "Softwaretechnik 1" verwendet sondern auch in "Softwaretechnik 2". Dieses Modul behandelt die Kapitel I bis III. Man landet so bei einem üblichen Umfang von 430 Seiten.
     
    Prinzipien und Werkzeuge
     
    Die ersten 100 Seiten des Lehrbuches behandeln Basistechniken. Interessant ist vor allem das Kapitel "Prinzipien". Hier werden verschiedene Begriffe entwickelt, die im weiteren Verlauf des Kursmoduls von Bedeutung sind: Abstraktion, Strukturierung, Bindung und Kopplung, Hierarchisierung, Modularisierung, Geheimnisprinzip, Lokalität, Verbalisierung. Betrachtet werden außerdem die Abhängigkeiten zwischen diesen Prinzipien. Dieser Abschnitt des Kurses fühlte sich teilweise fast schon wie ein geisteswissenschaftliches Modul an. Man sollte beim Lesen regelmäßig innehalten und über die eingeführten Begriffe nachdenken, zum Beispiel darüber, was für Bezüge es zwischen Struktur und Hierarchie gibt und wie sich Hierarchien von Strukturen unterscheiden. Herr Balzert entwickelt die Begriffe sehr präzise, unterscheidet sehr genau. Diesen Teil des Kurses habe ich sehr geschätzt. Ich halte Begriffe für wichtig, weil man sie braucht, um sich mit anderen auszutauschen - sei es im direkten, kollegialen Dialog, sei es indirekt, indem man Bücher, Fachartikel oder Dokumentationen liest. Der Stoff dieses Kursabschnittes wurde allein durch Tests abgeprüft. Die waren gut gestellt und brachten einen noch einmal ins aktive Nachdenken über das Gelernte.
     
    Ein weiterer größerer Abschnitt behandelte Werkzeuge in der Softwaretechnik. Die sind natürlich einen ständigen Wandel und auch gewissen Moden unterlegen, aber hier geht es darum, Werkzeuge hinsichtlich bestimmter Operationen zu klassifizieren: Editieren, Transformieren, Suchen, Visualisierung, Verbinden, Nachvollziehen, Verwalten von Versionen und Änderungen, Dokumentieren, Messen, Verfolgen und Überwachen, Prüfen, Kommunizieren. Für alle diese Funktionen werden auch konkrete Beispiele genannt. Den Abschluss bilden Kriterien für die Auswahl von Werkzeugen.
     
    All dies war interessant aber auch ein wenig theoretisch. Das änderte sich mit dem Kapitel "Basistechniken". Dieses zerfällt in drei Teile: Statik, Dynamik, Logik.
    Statik
     
    Statik
     
    Laut meinem Tutor ist das Kapitel Statik für die Praxis der meisten Entwickler am wichtigsten. Hier geht es um:
    - Zusammenfassung von Funktionen
    - Funktionsbäume
    - Pakete
    - Vererbung
    - Assoziationen
    - Multiplizitäten
    - Aggregationen und Kompositionen
    - Daten-Strukturen
    - XML, DTD und XML-Schemata zur Beschreibung von Datenstrukturen
    - Entity-Relationship-Modelle
    - Schlüssel, Tabellen und Dateien
    - Semantische Datenmodelle
    - Unternehmensdatenmodelle
    - Multidimensionale Datenstrukturen
    - OLAP und Hyperwürfel
     
    Zur Darstellung der statischen Beziehungen wird in erster Linie die UML verwendet. Man könnte sagen, dass Softwaretechnik 1 in weiten Teilen ein UML-Kurs ist. Dies gilt besonders für das Kapitel Statik. Aber auch andere Notationsformen wie ER-Diagramme mit verschiedenen Notationen für die Kardinalitäten werden behandelt. In diesem Teil des Kurses gibt es nun auch Einsendeaufgaben. Die bestehen in der Regel darin, dass man ein konkretes Szenario geschildert bekommt, in dem eine Software eingesetzt werden soll. Dazu soll nun ein Modell entwickelt werden, oft in UML.
     
    Die Aufgaben in Softwaretechnik 1 fand ich oft schwieriger als in anderen Modulen der W3L. Der Abstraktionsgrad ist höher. Im Gegensatz zu Programmiermodulen kann man ein Modell nicht "laufen lassen" und dann erleben, was nicht funktionert. Natürlich würde man merken, dass ein Modell schlecht ist, wenn man anfinge, es in Code umzusetzen und dann auf Schwierigkeiten stieße. Aber genau das soll ja durch eine sinnvolle Modellierung verhindert werden. Hier habe ich selten die volle Punktzahl erzielt. Mit den oft sehr konkreten und detaillierten Rückmeldungen meines Tutors konnte ich meine Lösungen aber überarbeiten und verbessern. Oft habe ich überarbeitete Lösungen noch einmal eingeschickt, um zu hören, ob es so besser ist. Auf diesem Wege habe ich viel gelernt. (Auch wenn das natürlich an den erreichten Punkten nichts ändert.)
     
    Dynamik
     
    Dieses Kursabschnitt fand ich am schwierigsten. Auch Gesprächen mit Kommilitonen weiß ich, dass es anderen Studierenden ähnlich geht. Auch finden viele Studierende dieses Kapitel weniger praxisrelevant. Das kommt natürlich sehr darauf an, was für eine Art von Software man entwickeln möchte.
    Während in Statik Beziehungen modelliert werden, die über die Laufzeit eines Programmes stabil bleiben, beschäftigt sich Dynamik mit Veränderungen über die Zeit, also mit Systemen in Bewegung. Hier geht es um Zustandsübergänge, Zustandsänderungen und die Ereignisse, die dazu führen. Das ist natürlich wesentlich komplexer und herausfordernder.
     
    Es geht um:
    - Kontrollstukturen
    - Nebenläufigkeit
    - Aktivitätsdiagramme
    - Geschäftsprozesse und Use-Cases
    - Zustandsautomaten: Mealy, Moore und Harel
    - Petrinetze: Bedingungs-Ereignis-Netze, Stellen-Transitions-Netze, Hierarchische-Petrinetze, zeitbehaftete Petrinetze und stochastische Petrinetze
    - Szenarien
    - Sequenzdiagramme
    - Kommunikationsdiagramme
     
    Für die Einsendeaufgaben sollten hier Zustandsautomaten entworfen werden. Außerdem sollte ein Petri-Netz entworfen werden, dass ein bestimmtes Problem löst. Für letztes war eine Software empfohlen worden, Visual Objects Net++, die man sich gratis runterladen kann. Die lief leider auf meinem System ziemlich instabil und stürzte häufig ab, was mich viel Zeit gekostet hat. Man sieht dem Programm an, dass es ein paar Jahre auf dem Buckel hat. Hier hätte ich sicher die Möglichkeit gehabt, mich nach aktuelleren Alternativen umzusehen, aber die Arbeit an den Petri-Netzen machte mir nicht so viel Spaß und ich wollte lieber zügig mit dem Thema abschließen. Rückblickend betrachtet, wäre es besser gewesen, hier ein wenig mehr Zeit zu investieren. Mein Tutor hatte mich gewarnt, das Softwaretechnik 1 ein sehr anspruchsvoller Kurs sei, der von vielen Studierenden unterschätzt werde. Ich war hingegen froh, endlich zum dritten Abschnitt "Logik" weitergehen zu können.
     
    Logik
     
    Vom Kapitel "Logik" erwartete ich, dass es mich wieder mehr interessieren würde. Anfangs wurde ein knapper Überblick über Aussagenlogik, Prädikatenlogik und Temporallogik gegeben. Dann kamen Abschnitte mit klaren Softwarebezug.
    - Constraints und die OCL in der UML
    - Entscheidungstabellen und Entscheidungsbäume
    - Erstellung, Darstellung und Optimierung von Entscheidungstabellen
    - Entscheidungstabellen-Verbunde
    - Regeln und regelbasierte Software
    - Verkettung von Regeln, Lösungssuche, Tiefe-Zuerst-Suche, Breite-Zuerst-Suche, Heuristische Suche
    - Geschäftsregeln
     
    Als konkrete Realsierung von regelbasierter Software wird zum Beispiel die Sprache Prolog genannt, die für bestimmte Spezialanwendungen elegante Lösungen ermöglicht.
     
    Für die Einsendeaufgaben sollte man wieder Klassendiagramme zeichnen, diesmal ergänzt um Informationen über Constraints, z.B. formuliert mit OCL. Außerdem sollte man verschiedene Entscheidungstabellen entwerfen. Dieser Kursteil hat mir wieder viel Spaß gemacht.
     
    Online-Klausur
     
    Den Online-Test habe ich ganz gut geschafft. Die Online-Klausur fand ich anspruchsvoll und habe auch ein paar dumme Fehler gemacht. Was mir entgegen kam: Es gab Aufgaben zu Petri-Netzen, aber hier ging es darum, die dynamische Entwicklung eines gegebenen Netzes nachzuvollziehen. Einzuschätzen, ob es zu Verklemmungen kommen kann. Das fiel mir relativ leicht. Es war gar nicht so schlecht, dass ich bei den Aufgaben zur Statik ein paar Fehler gemacht habe, weil ich so noch mal viele wertvolle Rückmeldungen von meinem Tutor bekommen habe und noch einmal gezielt ein paar Sachen wiederholt habe. So ging ich in die Präsenzklausur, auf die ich mich eigentlich ganz gut vorbereitet fühlte.
     
    Die Präsenzklausur
     
    Die Präsenzklausur hat mich dann leider ziemlich kalt erwischt. Ich fand sie viel schwieriger als die Online-Klausur. Vor allem hing ungefähr die Hälfte der Punkte an Stoff aus den Kapiteln zur Dynamik. Unter anderen sollte man ein Petri-Netz entwerfen, das ein konkretes Problem löst. Als Einsendeaufgabe mit genügend Zeit zur Verfügung hätte ich das vielleicht geschafft. Aber Zeit ist eine knappe Ressource, mit der man vor allem in dieser Klausur sehr taktisch umgehen muss. Ich habe noch kein Ergebnis, aber diesmal habe ich ein ziemlich schlechtes Gefühl.
     
    Wie hätte ich mich rückblickend besser vorbereiten können? Was könnte ich anderen Studierenden dieses Moduls raten? Ich glaube, im allgemeinen ganz gut reflektieren zu können, wo meine Schwächen gelegen haben. Bei anderen Modulen habe ich auch immer wieder Tipps formuliert, worauf man bei der Prüfungsvorbereitung achten sollte. Bei diesem Modul bin ich erstmals ziemlich ratlos. Ich fand das Niveau im Vergleich zu anderen Modulen der W3L ziemlich hoch. Das liegt sicher auch ein Stück weit in der Natur der Sache. Softwaretechnik ist abstrakter als andere Module. Man hantiert mit Begriffen, Konzepten, Notationen, Modellen. Und man kann - anders als in der Programmierung - nicht mal schnell was ausprobieren und so Feedback vom System erhalten. Hier geht es darum, einen Sachverhalt genau zu analysieren, entscheidende Aspekte zu erkennen und die Beziehungen zwischen ihnen in einer geeigneten Form darzustellen. So schafft man die Blaupause für eine gute Implementierung, die auch wartbar und erweiterbar sein soll. Das ist schon eine anspruchsvolle Aufgabe.
     
    Insbesondere bei den Petri-Netzen bin ich ratlos. Ich meine, sie verstanden zu haben. Wenn ich ein Petri-Netz vor mir sehe, einen Ausgangszustand bekomme, so kann ich nachvollziehen, was Schritt für Schritt passieren wird. (Oder passieren kann. Ihr Verhalten ist ja oft nicht-deterministisch.) Aber der Entwurf ist eine ganz andere Herausforderung. Das ist vielleicht ähnlich wie der Unterschied zwischen dem Nachvollziehen und dem Finden eines Beweises in der Mathematik. Vielleicht hätte mir hier ein wenig mehr Übungsmaterial gut getan. Es gab nur eine Einsendeaufgabe zu Petri-Netzen. Vielleicht würde ich mich aktiv nach mehr Übungsmöglichkeiten umsehen, wenn ich dieses Modul nochmals machen müsste.
     
    Vielleicht merke ich bei diesem Modul auch, dass ich - im Gegensatz zu vielen meiner Kommilitonen - bislang nicht in einem IT-Beruf arbeite. Ich hatte den Eindruck, in der Klausur einfach nicht auf das Tempo zu kommen, dass ich gebraucht hätte, um die Aufgaben in der gegebenen Zeit zu schaffen. Das habe ich natürlich als Stress erlebt, habe nach schnellen Lösungen gesucht, bin oft den erstbesten Schritt auf die Lösung zugegangen, auch wenn es mich in die Sackgasse geführt hat. Ich hätte gründlicher über meine Entwürfe nachdenken müssen, bevor ich anfange, Teile meiner Diagramme zu zeichnen. Genau diese Zeit habe ich mir nicht genommen, weil ich - vielleicht zu unrecht - glaubte, sie nicht zu haben. Eine klare Antwort, wie ich es beim nächsten Mal besser machen könnte, habe ich noch nicht. Ich hoffe, dass ich außer der Note auch ein bisschen Feedback vom Tutor bekomme. Wenn sich dadurch neue Einsichten ergeben, möchte ich die hier noch nachreichen.
     
    Fazit
     
    Softwaretechnik 1 war insgesamt ein sehr interessantes Modul. Ich würde sagen, es geht in erster Linie darum, wie man komplexe Zusammenhänge und Prozesse auf wesentliche Aspekte zusammenfasst. Es geht darum, wie man etwas modelliert. Und darum, wie man Modelle mit einfachen graphischen Mitteln so darstellen kann, dass man sie anderen Menschen kommunizieren kann. Das halte ich allgemein für eine nützliche Fähigkeit. Ich glaube, dass viele Konzepte aus diesem Kurs einem sogar helfen könnten, auch in anderen Situationen als der Softwareentwicklung Probleme klarer zu sehen und zu beschreiben. Es geht um "Denkzeuge" und so etwas finde ich immer spannend. Auf das sehr gute Lehrbuch von Herr Balzert werde ich sicher auch in Zukunft immer wieder zurückkommen. Es ist sehr systematisch aufgebaut und eignet sich mit seinen vielen Checklisten sehr gut als Nachschlagewerk.
     
    Insofern möchte ich hier ein positives Fazit ziehen. Auch wenn ich befürchte, dass ich mit meiner Leistung in diesem Modul nicht zufrieden sein werde.
  18. kurtchen
    Das Modul "Mathematik für Informatiker" ist das zweite von insgesamt 4 Mathematik-Modulen im Studiengang "Web- und Medieninformatik". Die Studierenden im Studiengang "Wirtschaftsinformatik" belegen ein Mathematik-Modul weniger. Aber dieses Modul ist auch für sie verpflichtend. Im Jargon der Studierenden heißt dieses Modul einfach Mathe2.
     
    Nachdem in Mathe1 mit Logik, Mengenlehre, Relationen, Graphentheorie, Abbildungen und algebraischen Strukturen eine mathematische Grundlage vermittelt wurde, geht es in diesem Kurs um die klassischen Themen Analysis und Lineare Algebra, die wohl Teil von jedes Informatik-Studiums sein dürften. Dazu verwendet der Kurs zwei Lehrbücher von Professor Burkhard Lenze (FH Dortmund). Das Modul zerfällt in zwei Online-Kurse. Das heißt, man muss hier zwei Online-Tests bestehen und darf zwei Online-Klausuren schreiben. In der Präsenzprüfung wird das Wissen beider Kurse mit ziemlich gleicher Gewichtung abgeprüft.
     
    Keine Angst vor Mathe2
     
    Wenn ich mich unter meinen Kommillitonen umhöre, gewinne ich den Eindruck, dass speziell dieses Modul den meisten Studierenden Sorgen bereitet. Im Vorfeld ist Mathe2 ein Modul, vor dem viele Angst haben. Diejenigen, die es gerade belegen, klagen oft darüber, dass sie hier viel mehr Zeit investieren als in andere Module. Und diejenigen, die es hinter sich haben, sind in der Regel erleichtert, es geschafft zu haben. Aus Sicht vieler Studierender und mancher Dozenten sollte man Mathe2 zügig angehen, weil das Projekt Studium an genau diesem Modul scheitern könnte.
     
    Die gute Nachricht: Mathe2 ist machbar. Die beiden Lehrbücher von Herr Lenze sind recht kompakt geschrieben, enthalten aber im Vergleich zu vielen anderen Lehrbüchern nicht allein Beweise sondern viele gerechnete Beispiele. Mathe2 ist ein Kurs auf FH-Niveau. Im Gegensatz zur Mathematik an der Uni geht es nicht allein um Beweise sondern um angewendungsbezogenes Rechnen. Mathe2 legt damit eine Grundlage für Mathe3 "Angewandte Mathematik". Wie der Name vermuten lässt, ist speziell Mathe3 für einen Mathe-Kurs schon wieder recht praxisbezogen und ein klarer Bezug zur Informatik ist erkennbar. Also beißt euch durch Mathe2. Danach wird es schon wieder besser.
     
    Nutzt das Tutorium am Präsenztag
     
    Die W3L unterstützt die Studierenden in diesem Modul mit einem Tutorium, dass an den Präsenztagen angeboten wird. Ich habe mich im Vorfeld gefragt, was es denn nutzen kann, wenn in zwei mal zwei Stunden der Stoff von Analysis und linearer Algebra im Schweinsgalopp durchlaufen wird. Nachdem ich an solch einem Tutorium teilgenommen habe, weiß ich, es bringt etwas. Nicht weil man in dieser knappen Zeit den Stoff vermitteln könnte. Das kann man nicht. Den wird man sich schon selbst gründlich erarbeiten müssen. Schon eher, weil die Studierenden dazu aufgefordert werden, ihre Probleme mitzubringen, die sich bei der Bearbeitung des Moduls ergeben haben. Die Tutoren gehen flexibel darauf ein. Leider wurde diese Möglichkeit in dem Tutorium, das ich besucht habe, kaum genutzt. Ich selber konnte sie nicht nutzen, weil ich noch gar nicht angefangen hatte, das Modul zu bearbeiten. Ich vermute, dass es anderen Studierenden ebenso ging. Ideal wäre natürlich, wenn man vor dem Präsenztag ein gutes Stück aus beiden Themenbereichen bearbeitet hätte, um sich dann gezielt bei seinen Problemen weiterhelfen zu lassen.
     
    Warum hat mir das Tutorium trotzdem eine Menge gebracht? Weil wir gute Tipps bekommen haben, wie wir unseren Lernprozess und - in Mathe2 noch wichtiger - unseren Übungsprozess organisieren können. Für Menschen, die mathematisch sehr begabt sind, mag es reichen, Konzepte verstanden zu haben. Die meisten von uns müssen üben, üben, üben. Und merken erst dann, wie viel (oder wie wenig) sie verstanden haben.
     
    Außerdem wurde uns auch ein wenig "Klausurstrategie" vermittelt. Wie denkt ein Prüfer, der checken möchte, ob wir etwas verstanden haben. Wie kann man sich zumindest einen Grundstock an Punkten sichern, auch wenn man nicht den gesamten Stoff im Schlaf beherrscht. Für viele Studierende, die in diesem Modul keine Glanzleistung vollbringen sondern einfach bestehen möchten, können solche Tipps sehr nützlich sein.
     
    Last but not least erhält man Hinweise, welche Teile der Schulmathematik, die nicht explizit im Kurs behandelt werden, man sich besser noch einmal anschauen sollte. Ich hätte zum Beispiel Stein und Bein geschworen, dass ich natürlich in der Lage bin, quadratische Gleichungen mit der pq-Formel zu lösen. Und das mir selbstverständlich alle wichtigen Potenz-, Wurzel- und Logarithmengesetze bekannt sind. Bis ich es praktisch ausprobiert habe und feststellen musste: So richtig sicher sitzt das nicht mehr. Besser noch mal ÜBEN.
     
    Mathe2: Die Inhalte
     
    Um diese Selbsterkenntnis reicher begann ich nun nach dem Tutorium mit der Bearbeitung des Moduls, für das ich deutlich mehr Zeit eingeplant hatte, als für andere Module. Es wird empfohlen, erst Analysis und dann lineare Algebra zu bearbeiten. Ich habe mit linearer Algebra angefangen, weil mir da mein Schulwissen aus Abiturzeiten noch geläufiger erschien und ich einen guten Start erleben wollte. Darum geht's in linearer Algebra:
    - Vektoren: Rechenregeln, lineare Unabhängigkeit, Skalarprodukt, Vektorprodukt Spatprodukt, die Cauchy-Schwarzsche Ungleichung und die Dreiecksungleichung.
    - Matrizen: Rechenregeln, Matrizenmultiplikation und einfacher Gauß-Algorithmus.
    - Determinanten: 2,2-Determinanten, 3,3-Determinaten und die Regel von Sarrus, n,n-Determinanten und der Laplacesche Entwicklungssatz. Geometrische Anwendungen spielen eine Rolle.
    - Allgemeine lineare Gleichungssysteme: Die lösen wir vor allem mit dem Gauß-Algorithmus. Wir unterscheiden homogene und inhomogene lineare Gleichungssysteme und lernen was Fundamentalsysteme sind.
    - Reguläre lineare Gleichungssysteme: Hier entwickeln wir den einfachen Gauß-Algorithmus weiter zum vollständigen Gauß-Algorithmus. Den sollte man für die Klausur im Schlaf können. Er ist für alle möglichen Anwendungen sehr nützlich. Weiterhin geht es um die Cramersche Regel und die erweiterte Cramersche Regel. Sie verbindet das Kapitel über Determinanten mit diesem Kapitel. Schließlich geht es um LR-Zerlegungen und QR-Zerlegungen. Und natürlich muss man wissen, wie man Matrizen invertiert. Und wie man all das nutzen kann, um lineare Gleichungssysteme effizient zu lösen.
    - Geraden und Ebenen: Hier kommen nun geometrische Anwendungsmöglichkeiten für das Wissen, das man sich bis hier aufgebaut hat.
    - Komplexe Zahlen: Darstellungsformen, Rechenregeln, Polynomfaktorisierung
    - Eigenwerte und Eigenvektoren
    - Spezielle quadratische Matrizen: Diagonalähnliche Matrizen, symmetrische und hermitesche Matrizen, orthogonale und unitäre Matrizen.
    - Transformationen: Hier geht es um verschiedene Abbildungen, die man mit Matrizen, realisieren kann. Man beginnt mit der kartesischen und baryzentrischen Transformation, arbeitet weiter mit Parallel- und Zentralprojektionen und endet irgendwann bei Fourier- und Haar-Wavelet-Transformationen.
     
    Und in Analysis geht es um:
    - Wiederholung der vollständigen Induktion
    - Funktionen: Neu sind hier die parametrisierten ebenen Kurven, die ganzrationalen und die gebrochenrationalen Bezierkurven. Die kannte ich aus Schulzeiten noch nicht. (An dieser Stelle ein Hinweise: Die Bezierkurven sind nicht klausurrelevant. Aber in Mathe3 spielen sie eine große Rolle. Darum diesen Teil NICHT überspringen.)
    - Folgen und Reihen: Hier geht es darum Grenzwerte für Folgen zu berechnen, was viele aus Schulzeiten kennen dürften. Und Konvergenzkriterien für Reihen anzuwenden, was schon schwieriger ist.
    - Transzendente Funktionen: Diese werden auf verschiedene Eigenschaften hin untersucht. Verschafft einem einen guten Überblick und frischt vieles vergessene aus Schulzeiten noch mal auf.
    - Rechenregeln für stetige Funktionen
    - Differenzierbare Funktionen: Hier geht es um Rechenregeln für differenzierbare Funktionen und deren Anwendung zur Extremwertbestimmung. Das kennen wohl die meisten aus der Schule. (Ferner geht es um kardinale kubische B-Splines, ganzrationale B-Spline-Kurven und gebrochenrationale B-Spline-Kurven. Zum Glück nicht klausurrelevant.)
    - Integrierbare Funktionen: Hauptsatz der Differential und Integralrechnung, Rechenregeln für integrierbare Funktionen, Längen-, Flächen- und Volumenberechnung. Eine Herausforderung für mich waren die Techniken der partiellen Integration und der Integration durch Substitution. Beides hatte ich in der Schule gelernt, aber leider wieder vergessen. Da war viel Übung nötig, um das wieder flüssig zu können.
     
    Diejenigen unter euch, deren Abitur noch nicht so lange her ist und die damals stark in Mathe waren, dürfen sich nun ein bisschen freuen. Ihr dürftet einige Themen wiedererkennen und habt einen Startvorteil.
     
    An manchen Stellen im Kurs gibt es kleine Anwendungsbeispiele aus der Informatik (in Java). Das ist interessant, aber nicht prüfungsrelevant.
     
    PDF-Tools: Die Geheimwaffe
     
    Die Beweise in den Lehrbüchern habe ich nicht immer nachvollziehen zu können. Die Stärke dieser Module sind aber nicht die Lehrbücher. Herr Lenze liefert PDF-Tools mit, die man sich runterladen kann. Ein PDF-Tool ist eine Seite mit einer Übungsaufgabe eines bestimmten Typs, z.B. invertieren einer Matrix, knacken eines Integrals und solche Dinge. Im PDF stehen aber keine konkreten Werte sondern eine allgemeine Formel mit verschiedenen Parametern. Ein Knopfdruck generiert dann die Werte und zeigt sie in einer Alert-Box: a=7.4, b=sin(33), c=ln(9) usw. Diese Parameter setzt man für die Variablen ein und hat nun seine konkrete Übungsaufgabe. Ist man fertig, kann man durch Druck auf einen weiteren Knopf die Lösung sehen. Manchmal werden hier auch noch Zwischenergebnisse angezeigt, so dass man nachvollziehen kann, wo es gehakt hat. Mit diesen Tools kann man üben, bis man merkt, dass man richtig sicher ist. Herr Lenze empfiehlt, wirklich auf Tempo zu üben, denn in der Klausur muss man schnell sein.
     
    Übrigens: In der Klausur darf man keinen Taschenrechner benutzen. Das hat mich überrascht, weil ich es aus Schulzeiten anders kannte. Die Werte in den Aufgaben sind so gewählt, dass man auch keinen braucht. Aber wer schon ewig nicht mehr im Kopf oder mit Stift und Papier gerechnet hat, sollte das üben. Also: PDF-Tool öffen, Aufgaben generieren, Bleistift spitzen und los. Ich habe mich oft geärgert, weil ich einen Aufgabentyp grundsätzlich konnte, aber blöde Vorzeichenfehler gemacht habe. Gerade bei den Aufgaben in der linearen Algebra ziehen sich Fehler schön durch. Da muss man eine gewisse Sorgfalt lernen.
     
    Die Hinweise im Forum nutzen
     
    Damit komme ich zu einen wichtigen Grund, warum jeder Studierende eine realistische Chance hat, dieses Modul erfolgreich abzuschließen. Für die Präsenzklausur ist NICHT der gesamte Stoff des Moduls relevant. Ein Beispiel: In der Präsenzklausur kann verlangt werden, die LR-Zerlegung einer Matrix zu finden, aber nicht die QR-Zerlegung. Was genau klausurrelevant ist und was nicht, veröffentlicht Herr Lenze im Forum zum Kurs. Da in den Foren oft wenig los ist, hatte ich dort anfangs gar nicht reingeschaut, bis mich Herr Lenze, ausdrücklich darauf hinwies. Also schaut ins Forum und nutzt die dort gegebenen Hinweise.
     
    Aber Vorsicht! In der Online-Klausur können mehr Themen drankommen. Und beim Online-Test, dessen Bestehen ja Voraussetzung dafür ist, überhaupt zur Klausur zugelassen zu werden, kann ALLES abgeprüft werden. Wer sich also möglichst viele Bonuspunkte erarbeiten will, um etwas gelassener in die Präsenzklausur zu gehen, der muss sich schon mit dem gesamten Stoff auseinander setzen. Wer einfach nur bestehen möchte, kann zuschauen, dass er für die Klausur die im Forum genannten Themen intensiv vorbereitet. Er hat dann auch ohne Bonuspunktepolster eine gute Chance, das Modul abzuschließen.
     
    Die Betreuung durch Herrn Lenze war sehr gut. Das Feedback zu Einsendeaufgaben war unheimlich schnell. Auch auf Fragen reagierte er meist innerhalb von 24 Stunden und seine Hinweise haben mir immer weitergeholfen.
     
    Die Klausur
     
    In der Präsenzklausur entfielen 55 Punkte auf lineare Algebra und 45 auf Analysis. Wenn man den vollständigen Gauß-Algorithmus sicher beherrscht, kann man sich in linearer Algebra eine gewisse Punktegrundlage erarbeiten, weil man den für verschiedene Aufgabentypen braucht. Aus Gesprächen mit anderen Kommilitonen weiß ich, dass das auch in vergangenen Klausuren oft so war. In der Analysis waren bei mir die Themen breit gestreut. Partielle Integration und Integration durch Substitution sollte man üben.
     
    Tipps für die Vorbereitung
     
    Da Mathe2 für viele Studierende ein Angstfach ist, zum Schluss noch ein paar Tipps:
    - Lasst euch nicht verunsichern, wenn ihr in den Lehrbüchern nicht jeden Beweis im Detail nachvollziehen könnt. Konzentriert euch auf das Üben mit den PDF-Tools.
    - Es gibt im Kurs vergleichsweise wenige Einsendeaufgaben. Manche Studierende machen nur diese Aufgaben und wundern sich dann, wenn sie im ersten Anlauf durch die Prüfung rasseln. So ist es nicht gedacht. Die Einsendeaufgaben prüfen in Abständen, ob man im Kurs vorankommt. Sie ersetzen auf keinen Fall das Üben mit den Tools, die den gesamten Stoff abdecken.
    - Übt die PDF-Aufgaben ohne Taschenrechner, auch wenn es verführerisch ist, ihn zu benutzen. Nur dann bekommt ihr ein Gefühl dafür, wieviel ihr in der Klausur in welcher Zeit schaffen könnt. Es ist gut möglich, dass ihr eine taktische Entscheidung treffen müsst, ob ihr in der verbliebenen Zeit noch diese ohne jene Aufgabe versuchen wollt. Da braucht ihr ein Bauchgefühl dafür, was lange dauert und was schneller zu schaffen ist.
    - Ich habe verschiedene Tools genutzt, die nicht zum Kurs gehörten. Zunächst mal einen Funktionenplotter. Die gibt es als Desktopanwendungen, aber ich habe mit einer Online-Version gearbeitet. Da kann man eine Funktionsvorschrift eingeben, sich die Kurve plotten lassen, auch Ableitungen und Integrale. Das kann natürlich nicht das eigene Arbeiten ersetzen. Aber man kann so gut vergleichen, ob die eigenen Ableitungen und Integrale stimmen. Oder Teillösungen. Oder eine Idee entwicklen, was man falsch gemacht hat.
    - Außerdem gibt es Online-Tools, um Funktionen zu differenzieren und integrieren. Manche von denen können einem einen kompletten Rechenweg anzeigen. Das hilft ebenfalls, eigene Fehler nachzuvollziehen. Mir hat das sehr geholfen, bei der partiellen Integration und der Integration durch Substitution, eine gewisse Routine zu entwickeln. Bei der partiellen Integration muss man sich entscheiden: Was ist mein u? was ist mein v? Wenn man sich hier falsch entscheidet, muss man wieder von vorne anfangen, was Zeit kostet. Ebenso bei der Substitution: Was substituiere ich? Und überhaupt: Substituiere ich oder nutze ich partielle Integration? Bei manchen Aufgaben sieht man nicht sofort, was sich anbietet. Dafür bekommt man ein Gefühl, wenn man viele Beispiele gesehen hat. Und dabei helfen solche Online-Tools. Aber nicht das Tool die ganze Arbeit machen lassen, sondern aktiv mitarbeiten, möglichst viel selber machen und dann Schritt für Schritt durchgehen, wo es gehakt hat.
    - Ebenso gibt es tolle Online-Tools für die Themen der linearen Algebra. Das hat mir besonders beim Lösen von Gleichungssystemen und umfangreicheren Rechnungen mit Matrizen und Determinanten geholfen. Hier hat man oft sehr viele einfache Rechenoperationen, die aufeinander aufbauen. Ein dummer Vorzeichenfehler am Anfang und man produziert in der Folge nur noch Mist. Dank der Tools konnte ich meine eigenen Fehlerquellen identifizieren (bei mir vor allem Vorzeichenwechsel) und dann genau darauf verstärkt achten.
    - Laut Studienbüro liegt die Durchfallquote in diesem Modul beim ersten Anlauf bei 20-25%. Man sollte sich nicht entmutigen lassen, wenn man dazu gehört. Ich habe mehrere Kommillitonen kennengelernt, die Mathe-Module wiederholen mussten und in zweiten Anlauf geschafft haben, was beim ersten mal nicht klappte.
     
    Fazit
     
    Die lineare Algebra hat mir richtig Spaß gemacht. Analysis musste sein, aber da bin ich froh, dass es jetzt vorbei ist. Ich habe noch nicht das Ergebnis der Klausur, aber ich bin mir ziemlich sicher, dass ich sie nicht noch einmal schreiben muss. Mathe2 ist machbar.
     
    Nachtrag: Das Ergebnis
     
    Heute habe ich das Ergebnis zu Mathe2 erhalten. 88 von 100 Punkten in der Präsenzklausur. Das wäre eine 1,7, aber da die Online-Tests und die Online-Klausuren ziemlich gut gelaufen waren, konnte ich mit Bonuspunkten über die magische Schwelle von 95 Punkten kommen. So ist es am Ende eine glatte 1 geworden. Ich freue mich sehr, weil ich in Mathe2 wirklich eine Menge Arbeit gesteckt habe.
     
    Bloß nicht aufgeben in Mathe! Das war auch an den Präsenztagen immer wieder Thema: Es gibt zwar nur wenige Leute, denen Mathe auf Anhieb leicht fällt. Aber mit Übung wird vieles erreichbar, was am Anfang unmöglich erscheint. Also packt's an!
  19. kurtchen
    Springer Campus bietet neben den Bachelor-Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik" auch die Möglichkeit, durch Belegung bestimmter Modul-Kombinationen Hochschulzertifikate zu erwerben. Diese kann man als eigenständige Weiterbildung auf FH-Niveau nutzen. Studierende in den Bachelorstudiengängen erhalten die Zertifikate automatisch, sobald die entsprechenden Modul-Kombinationen belegt und bestanden wurden. Die Zertifikate können so als Meilensteine auf dem langen Weg zum Bachelor dienen.
     
    Für mich persönlich waren diese Zertifikate auch ein Grund, mich für Springer Campus bzw. die FH Dortmund als Studienanbieter zu entscheiden. Vor Aufnahme meines Studiums war ich mir nämlich gar nicht sicher, ob meine Ausdauer für einen kompletten Bachelor reichen würde. Und natürlich könnten auch unerwartete familiäre oder berufliche Ereignisse ein so langfristiges Projekt wie ein berufsbegleitendes Studium zum Scheitern bringen. Insofern habe ich die Zertifikate auch als eine Art Fallschirm betrachten. Falls ich unterwegs abspringen muss, war nicht alles vergebens. Es gibt Etappenziele und auch ein nicht komplett abgeschlossenes Studium kann ein (vorzeigbares) Ergebnis haben.
     
    Und so sieht so ein Hochschulzertifikat aus. (Persönliche Informationen habe ich entfernt).

     
    Im Bereich Informatik werden zur Zeit folgende Zertifikate angeboten:
    - Junior-Programmierer
    - Junior Data-Analyst
    - Anwendungsprogrammierer
    - Web-Entwickler
    - Web-Frontend-Programmierer
    - Software-Architekt
    - Software-Manager
    - Requirements Engineer
     
    Zum Teil überschneiden sich die Inhalte der Zertifikate. Ich werde voraussichtlich außer dem Zertifikat "Software-Architekt" keine weiteren Zertifikate im Bereich Software-Technik erwerben. Zwar habe ich auch einige Module aus dem Zertifikat "Requirements-Engineer" schon abgeschlossen, aber dazu gehören auch noch Module, die ich im Wahlpflichtbereich belegen könnte aber - wegen stärkerem Interesse an anderen Themen - nicht belegen möchte.
  20. kurtchen
    Am Präsenztag der W3L Akademie am 24.09.2016 informierte Dr. Olaf Zwintzscher aus dem Vorstand der W3L AG über die bevorstehende Übernahme der W3L Akademie durch Springer Campus. Als Studierender im Studiengang Web- und Medieninformatik habe ich am Präsenztag teilgenommen. Ich habe mich bemüht, seine Ausführungen zu protokollieren, um sie an dieser Stelle zu teilen.
     
    Laut Herrn Zwintzscher unterliegt der Fernstudienmarkt in Deutschland einer starken Konkurrenz. Es gibt Player, die breiter als die W3L aufgestellt sind. Die W3L Akademie bietet bislang nur 2 Studiengänge an - Web- und Medieninformatik sowie Wirtschaftsinformatik. Andere Anbieter können ein deutlich breiteres Angebot machen, haben insgesamt mehr Studierende und ein größeres Finanzvolumen. Damit haben Sie auch die Möglichkeit, Werbung im öffentlichen Raum zu platzieren, z.B. auf U-Bahnen, Plakatwänden, in Zeitschriften. So etwas wäre für die W3L Akademie zu teuer. Da sie eine kleinere Zielgruppe anspricht, wäre es auch ineffektiv. Im Marketing der eigenen Studiengänge kann die W3L mit größeren Anbietern nicht mithalten.
     
    Aus diesem Grunde war die W3L schon längere Zeit auf die Suche nach Kooperationspartnern. Dabei hoffte man zunächst auf Firmen, die Angebote der W3L für die Weiterbildung ihrer Mitarbeiter nutzen wollten. Nachdem dies nicht aufging, suchte man auch nach Partnern, die das bestehende Konzept weiterführen wollten.
     
    Es gab schon längere Zeit eine Zusammenarbeit zwischen der W3L Akademie und dem Springer Verlag. Zum Beispiel verlegt Springer die Lehrbücher zur Softwaretechnik von Herrn Balzert, der die W3L Akademie aufgebaut hat. Diese Lehrbücher werden auch in den Softwaretechnik-Modulen der W3L verwendet.
    Springer bietet mit Springer Campus eigene Fernstudiengänge in Biologie, Chemie und Elektrotechnik an. Sie fanden das Studienangebot der W3L gut, wollten aber keine Kooperation sondern kaufen.
     
    Die W3L hat sich entschieden, ihr Angebot an Springer Campus abzugeben, weil andere mögliche Partner das bestehende Konzept ändern wollten. Mit Springer soll das nicht passieren. Die Ansprechpartner für die Studierenden im Studienbüro bleiben die gleichen. Sie wechseln zu Springer Campus. Auch die Dozenten sollen die gleichen bleiben, was auch Herrn Zwintzscher selbst einschließt. Erhalten bleiben soll ferner der Standort Dortmund.
     
    Springer Campus wird die bestehende Kooperation mit der FH Dortmund fortsetzen, die auch in Zukunft die Bachelor-Abschlüsse verleiht. Laut Herrn Zwintzscher war dies sowohl für die W3L als auch für Springer wichtig.
     
    Mit der Übernahme durch Springer verbinden sich verschiedene Hoffnungen:
    - Möglichkeiten für besseres Marketing, weil Springer größer ist als die mittelständische W3L.
    - Weil Springer in der Wirtschaft gut vernetzt ist, könnte es ihnen gelingen, Kooperationen mit Firmenkunden aufzubauen.
    - Mehr Studierende in den beiden Studiengängen.
    - Wenn dies aufginge, könnte es auch mehr Prüfungsstandorte geben.
    - Das Studienangebot könnte schließlich erweitert werden, z.B. um einen Masterstudiengang (sobald es genügend Bachelor-Absolventen gibt).
     
    Herr Zwintzscher glaubt ferner, dass Springer Campus größere unternehmerische Hürden nehmen kann als das mittelständige Unternehmen W3L. Die Sicherheit für die Studierenden sollte damit steigen.
     
    Ändern könnte sich in absehbarer Zeit die Lernplattform. Es ist möglich, dass Springer Campus auf Dauer nicht verschiedene Plattformen parallel betreiben sondern alle Inhalte in einer Plattform zusammenfassen möchte. Allerdings ist solch eine Migration aufwendig, weshalb die meisten Bestandsstudierenden das wahrscheinlich nicht mehr erleben werden.
     
    Soweit die Ausführungen von Herrn Zwintzscher zur bevorstehenden Übernahme der W3L Akademie durch Springer Campus.
  21. kurtchen
    Das Modul "Web-Design und Web-Ergonomie" ist für das 3. Semester vorgesehen. Die W3L hält es für wünschenswert, zuvor "Web-Programmierung" belegt zu haben. Formal nötig ist das aber nicht. Ich meine, man könnte dieses Modul auch gute als erstes im Fachbereich Web-Informatik belegen. Viele Kommilitonen halten es für vergleichsweise leicht zu bewältigen. Allerdings haben auch sehr viele Studierende beruflich mit Web-Technologien zu tun. Das relativiert diese Einschätzung natürlich.
     
    Basis ist ein Lehrbuch von Heide Balzert und Uwe Klug. Herr Klug hat auch die Lehrbücher zum Modul "SQL und realationale Datenbanken verfasst". Die fand ich didaktisch sehr gut aufgebaut und auch gut verständlich geschrieben, so dass ich mit der Erwartung in den Kurs ging, hier wieder gut durch den Stoff geführt zu werden. 
    Auch dieses Kursmodul entwickelt parallel zum Stoff ein Fallbeispiel: Die Gestaltung eines Web-Auftritts für einen Ökostromanbieter. Diesen Auftrag übernimmt die fiktive Firma Websoft, die mehrere Mitarbeiter hat, die sich in unterschiedlichen Berufsrollen an der Planung der Webseite beteiligen. Diesen Ansatz kannte ich schon aus anderen Modulen der W3L. Man bekommt so nicht nur  das Fachwissen vermittelt. Man entwickelt auch eine erste Vorstellung davon, wie es in einer Anwendungssituation genutzt wird. So wird deutlich, dass die Entwicklung einer Webseite in der Regel ein kollaborativer Prozess ist, in dem verschiedene Akteure in unterschiedlichen Rollen intensiv kommunizieren müssen, um ihr gemeinsames Ziel zu erreichen.
     
    Ich hatte mir vorgestellt, in diesem Modul in erster Linie etwas über Gestaltungsregeln zu erfahren. Was für Farben zusammenpassen, ein bisschen Typographie, wie man eine Seite aufteilt, so dass die Proportionen gefällig wirken. So etwas ist durchaus auch Thema dieses Moduls, aber eigentlich geht es um etwas anderes. Eine der hier vermittelten Thesen ist, dass man an der reinen Anmutung einer Seite nicht beurteilen kann, ob das Design etwas taugt. Man muss Webdesign im Hinblick auf die Ziele bewerten, die ein Kunde mit seinem Web-Auftritt verfolgt. An wen will er sich richten und wozu?
     
    Dementsprechend geht es in den ersten Kapiteln vor allem darum, sich Gedanken über die Nutzer einer Website oder eine Web-Anwendung zu machen. Was für Aufgaben haben die zu bewältigen und was für Vorkenntnisse und Erfahrungen bringen sie mit. Eine der ersten Aufgaben beinhaltet daher die Entwicklung einer "Persona", also eines fiktiven Charakters der einen typischen Nutzer oder eine Nutzergruppe der geplanten Web-Anwendung repräsentieren soll. Dieser Charakter soll so konkret beschrieben werden, dass ein Team, das eine Web-Anwendung plant, am Ende eine gemeinsame Vorstellung von diesem Menschen hat. Man entwickelt auch Kontextszenarien: Beschreibungen von Situationen, in denen die Persona eine Web-Anwendung nutzt, um ein bestimmtes Problem zu lösen. Und schließlich entwickelt man Nutzungsszenarien, kleinschrittigere Beschreibungen von Nutzungssituationen, bei denen einzelne Handlungsschritte des Nutzers beschrieben werden und wie das geplante System darauf reagiert.
     
    Auch wenn der Kurs "Web-Design und Web-Ergonomie" heißt, lassen sich meiner Meinung nach viele Konzepte z.B. auf Desktop-Anwendungen übertragen. Das Modul ist auch ein Kurs über Software-Ergonomie.
     
    Eine große Rolle spielen verschiedene Methoden, Entwürfe zu evaluieren oder Inhalte in einer Weise zu strukturieren und kategorisieren, wie sie für die Nutzer einer Web-Anwendung intuitiv und einleuchtend ist. Dabei kommt oft etwas anderes heraus als Fachleute, die Web-Anwendungen erstellen, für plausibel halten. 
    In diesem Kurs geht es also um mehr als den schönen Schein. Er hat mehr mit sozialen Prozessen zu tun, als ich im Vorfeld für möglich gehalten hätte. Auch mit den sozialen Prozessen in den Teams, die Web-Anwendungen entwickeln.
     
    Eine interessante Nebenwirkung des Moduls: Bei privater Internetnutzung merkte ich immer häufiger, dass mich bestimmte Aspekte des Designs einer Seite störten. Da war zuvor nur eine leichte Irritation. Oder vielleicht auch nur eine gewisse Unlust, eine Seite weiter zu nutzen. Oder auch ein spontaner Impuls, eine begonnene Aktion abzubrechen oder einen Tab zu schließen. Ich fing an, solche Reaktionen an mir wahrzunehmen. Oft habe ich mir dann gedacht: "Das hat mich schon länger gestört." Viel seltener aber immerhin immer häufiger dachte ich: "So wäre es wahrscheinlich besser gewesen." Natürlich kann man nicht erwarten, nach einem Modul von 5 ECTS ein Experte in UI-Design zu sein. Aber es trägt auf jeden Fall dazu bei, ein Problembewusstsein zu entwickeln und mit etwas anderen Augen auf Web- und Benutzeroberflächen zu schauen.
     
    Natürlich geht es auch um Layout, Navigation, um Farben und Typographie, um multimediale Elemente, um Formulargestaltung und ganz zum Schluss auch ein bisschen um barrierefreies Web-Design. Aber es gab auch Themen, die für mich überraschend waren, zum Beispiel über die Aufbereitung von Texten für das Lesen im Web. Und hier ist eben nicht die Schriftgestaltung oder das Layout gemeint. Es geht tatsächlich darum, dass es vorteilhaft ist, Texte für's Web anders zu formulieren und zu gliedern als für den Druck.
     
    Dies ist ein Modul über das WAS und nicht über das WIE einer Web-Anwendung. Dementsprechend habe ich für die Einsendeaufgaben vor allem Texte geschrieben und Entwürfe mit Papier und Bleistift gezeichnet. Die technische Umsetzung der Entwürfe z.B. mit HTML, CSS, client- und serverseitigen Sprachen ist nicht Thema dieses Kurses. Davon handeln andere Module.
     
    Insgesamt kam ich mit dem Modul gut zurecht und war auch mit meiner Note zufrieden. Die Rückmeldungen durch meinen Tutor kamen sehr zügig, was es mir erleichterte, schnell im Kurs voran zu kommen.
     
    "Web-Design und Web-Ergonomie" ist ein Modul für Web-Informatiker, nicht für Kommunikations-Designer. Es bleibt das einzige Modul im Studiengang, dass UI-Design so in den Mittelpunkt stellt. Gemessen an diesem Platz im Gesamtkonzept dieses Studiengangs finde ich es sehr gelungen. Leider befürchte ich, dass UI-Desing nicht meine Stärke werden wird. Ich finde es interessanter, was für eine Verarbeitungslogik im Hintergrund arbeitet. Insofern habe ich mich am Ende auch gefreut, mich wieder anderen Themen zuwenden zu können.
     
    Auf jeden Fall hat dieser Kurs meine Wertschätzung für das gesteigert, was ein guter Software-Ergonom leistet. Und es macht Spaß, wenn man im Alltag etwas wiedererkennt. Wenn man sich erinnert: "Hey, das kam doch im Modul Web-Design vor."
     
    Dieser Effekt des Moduls scheint nachhaltig zu sein.
  22. kurtchen
    Das Modul Mathe1 - "Mathematisch-logische Grundlagen der Informatik" hat drei Autoren. Man bearbeitet ein Lehrbuch von etwa 300 Seiten. Da die Mathematik als Wissenschaftsdisziplin eine sehr komprimierte formale Ausdrucksform entwickelt hat, kann man auf wenigen Seiten viel sagen. Im Vergleich zu anderen Lehrbüchern auf FH-Niveau, die mir bekannt sind, beschränkt sich dieses Buch nicht allein auf die knappe formale Darstellung, z.B. bei Beweisen. Es hat auch viele ausführliche, beschreibende, kommentierende und informierende Passagen. Man kommt also beim Lesen stellenweise recht fix voran und hält sich dann wieder längere Zeit an wenigen Seiten, manchmal sogar an wenigen Zeilen auf. Ich nehme an, dies liegt in der Natur der Sache.
     
    Wie bei der W3L üblich, ist der gesamte Lehrtext in der Lernplattform aufbereitet verfügbar. Dort steht er im Mix mit Online-Tests, Einsendeaufgaben und natürlich Abschlusstest und Online-Klausur. Ich finde es entspannter und effektiver, mit dem Buch zu arbeiten. Mit Stift und Papier daneben, um Beispiele und Beweise gleich aktiv nachvollziehen zu können. Die Lernplattform rufe ich dann für Tests und Aufgaben auf. (Dies hat den Nachteil, dass die automatisch erstellte Statistik zur Bearbeitungszeit des Moduls nichts aussagt.)
     
    Das Buch soll erkennbar einen sanften Einstieg in das Thema Mathematik bieten, das für Informatik-Studiengänge unumgänglich aber auch bei vielen Studierenden unbeliebt und zum Teil sogar gefürchtet ist. Zunächst geht es um:
    - Aussagenlogik
    - Prädikatenlogik

    Hier gibt es inhaltliche Bezüge zum Modul "Rechnerstrukturen und Betriebssysteme", wo man z.B. Schaltnetze und Schaltwerke aufbaut. Dort ist sozusagen die Aussagenlogik in Hardware realisiert. Hier nähert man sich dem Thema auf formale Weise, arbeitet mit Stift und Papier. Dieser Abschnitt des Kurses fiel mir recht leicht, weil ich einmal an der Uni meiner Heimatstadt mehrere Kurse in formaler Logik belegt hatte. Das war an der philosophischen Fakultät, die auch einen Schwerpunkt in analytischer Philosophie hatte und darum viele Veranstaltungen zum Thema Logik und formale Sprachen anbot. Bei mir war es das Interesse an den Arbeiten von Ludwig Wittgenstein, das mich in diese Veranstaltungen getrieben hat. Dort haben wir zum Beispiel Vollständigkeitsbeweise geführt. Im Modul der W3L wird vergleichsweise weniger verlangt, gerade im Bereich der Prädikatenlogik.
     
    Für Leser, die im Bereich der Logik noch wenig Vorkenntnisse haben: In der Aussagenlogik ist die kleinstmögliche Einheit, die betrachtet werden kann, die Aussage. Sie kann wahr oder falsch sein. Einfache Aussagen werden nun mit Verknüpfungen wie "und" und "oder" oder auch der "Implikation" verknüpft zu komplexeren Aussagen und man möchte untersuchen, welche Wahrheitswerte diese komplexeren Aussagen in Abhängigkeit von den Wahrheitswerten der einfachen Aussagen annehmen. Elektronisch kann man die Verknüpfungen in Formen von Logik-Bausteinen realisieren und Spannung oder keine Spannung steht für wahr oder falsch. In der Programmierung begegnet einem die Aussagenlogik vor allem bei bedingten Verzweigungen im Programm, wenn verschiedene Bedingungen mit logischen Operatoren verknüpft werden, in Java z.B. mit "!","&&","||".
     
    In der Prädikatenlogik wird die Aussage logisch weiter zerlegt. "Der Ball ist rot." wäre in der Aussagenlogik eine atomare  (also nicht weiter zerlegbare) Aussage. In der Prädikatenlogik wird hier von einem Objekt behauptet, dass es eine Eigenschaft hat. Genauer gesagt, behauptet man von einem Objekt, dass es einer Klasse zugehörig ist. "Das Objekt Ball ist der Klasse der roten Dinge zugehörig." Interessant wird es, wenn man solche Aussagen mit sogenannten Quantoren verknüpft. Diese entsprechen dem natürlich-sprachlichen "es gibt ein..." und "für alle ... gilt ...". Hier kann man vielleicht schon ahnen, dass das schon eine Menge mit Mathematik und mathematischen Beweisen zu tun hat. Es ist auch der Stoff, aus dem viele Logikrätsel in Zeitschriften sind.
     
    Den Abschluss des Kapitels bietet ein kurzer Überblick über Thema Vollständigkeit, Konsistenz, Entscheidbarkeit. Gödels Unvollständigkeitssatz wird erwähnt, auch seine Bezüge zum Halteproblem in der Informatik. Erwähnt wird auch, dass sich für die Aussagenlogik und Prädikatenlogik sowohl die Widerspruchsfreiheit als auch die Vollständigkeit beweisen lässt. Geführt wird dieser Beweis im Lehrbuch allerdings nicht. Hier wird von Philosophiestudenten der ersten Semester mehr erwartet als von angehenden FH-Informatikern. Schön finde ich trotzdem, dass das Thema vorgestellt wurde, denn es hat interessante erkenntnistheoretische Implikationen, auch wenn es für die Programmierung nicht direkt relevant ist. Wer Lust hat, sich diesem Thema einmal auf recht amüsante und gut verdauliche Weise zu nähern, dem möchte ich gerne das Comic "Logicomix: Eine epische Suche nach Wahrheit" von Apostolos Doxiadis und Christos Papadimitriou empfehlen. Es handelt vom Leben Bertrand Russells und dem Projekt des logischen Positivismus. Gödel, Wittgenstein und Frege treten als Nebenfiguren auf. Es macht viel Spaß.
     
    Im nächsten Kapitel werden zwei Anwendungen der klassischen Logik vorgestellt:
    - Boolesche-Netze
    - Expertensysteme
    Expertensysteme sind ja vielen im Zusammenhang mit dem Thema klassische KI geläufig. Von booleschen Netzen hatte ich noch nicht gehört. Sie sind letztlich eine Dynamisierung der Aussagenlogik. Es gibt ein Netz aus Knoten, die miteinander verbunden sein können. Jeder Knoten hat einen von 2 Zuständen - wahr oder falsch. Insofern entsprechen die Knoten Aussagen. Das Netz hat zu jedem Zeitpunkt einen Zustand - die Wahrheitswerte der Knoten. Das interessante ist nun, dass Knoten im Booleschen Netz ihren Zustand an verknüpfte Knoten senden und deren Zustand empfangen. Es sind logische Verknüpfungen (Junktoren) definiert, wie sich der Zustand jedes Knotens in Abhängigkeit vom Zustand  der verknüpften Knoten ändert. Das ist die Dynamik. Nun untersucht man, ob wie das System in einen stabilen Zustand (Attraktor) hineinläuft. Man kann zeigen, dass boolesche Netze äquivalent zu Turingmaschinen sind. Aber keine Angst, das ist dann nicht  mehr Gegenstand dieses Moduls. Für die Klausur  erwartet wird lediglich, dass man in einem gegebenen booleschen Netz Folgezustände aus einem Anfangszustand berechnen kann und etwas über Attraktoren und nach welcher Vorperiode sie erreicht werden sagen kann.
     
    Es folgt ein kleiner Ausflug in die Modallogik, eine Erweiterung der klassischen Logik. Sie ermöglicht Aussagen über das MÖGLICHE und das NOTWENDIGE. Philosophisch betrachtet kann man sich  vorstellen, dass es etwas, das falsch ist, in einer alternativen Welt war sein könnte. (Möglichkeit) Oder dass etwas, das wahr  ist, in jeder alternativen Welt wahr sein muss. (Notwendigkeit) Dieses Kapitel ist NICHT klausurrelevant. Ich erwähne das, weil es im Modul immer wieder kleinere Ausflüge in benachbarte Themengebiete gibt, um Bezüge zwischen Mathematik/Logik und anderen Wissensgebieten zu zeigen. Die Modallogik ist z.B. vor allem für Philosophen interessant. Wer möchte, kann sich hier ein bisschen breitere Bildung holen. Wer nur auf Bestehen der Klausur aus ist, könnte hier auch ein paar Seiten überspringen, würde aber etwas verpassen. Insgesamt bemühen sich die Autoren sehr, immer wieder Verknüpfungen zwischen der Mathematik, praktischen Anwendungen und anderen Wissenschaftsdisziplinen herzustellen, was diesen Kurs für mich auch zu einem ästhetischen Erlebnis gemacht hat.
     
    Nun kommt ein - für mich eher trockenes - Kapitel über Beweistechniken. Die größte Herausforderung für Studierende ohne Abitur dürfte hier das Prinzip der vollständigen Induktion sein, dass einem in diesem Modul immer wieder begegnet und auch in den Modulen Mathe2 und Mathe3 immer wieder aufblitzt. Wenn ich mich recht erinnere, tauchte das Thema bei mir auch in der Abschlussklausur auf. Wer also gerne richtig gut abschneiden möchte, sollte hier die praktischen Übungen (kleinere Beweise) nicht überspringen. Wer nur bestehen möchte, kann sich durchaus eine Lücke erlauben, aber seid vorgewarnt: Das Thema vollständige Induktion ist grundlegend und ihr werdet es so schnell nicht los.
     
    Weiter geht es mit  Mengenlehre, die manchen älteren Semestern vielleicht noch aus der Schule bekannt sein dürfte. Unmögliches wird hier nicht verlangt. Die Mengenlehre war ja früher Teil des Schulcurriculums und war vor allem bei Eltern sehr unbeliebt, die nicht verstanden haben, warum man "so einen Blödsinn" lernt, statt im Mathematik-Unterricht anständig zu rechnen. Für Mathematiker ist Mengenlehre ein ungeheuer mächtiges Ausdrucksmittel und ein Werkzeug, mit dem sich viele Beweise führen lassen. Darum ist es gut, sich damit einmal auseinander zu setzen, auch im Hinblick auf spätere Module. Für die Klausur wichtig sind auch Betrachtungen zur Kombinatorik, also wie viele Kombinationen von a Elementen kann ich aus einer Auswahl von b Elementen bilden, je nachdem ob das gleiche Element mehrfach vorkommen darf oder auch nicht. Hier treten Begriffe wie Fakultät oder auch Binomialkoeffizient auf. Auch das wird in späteren Modulen wichtig, wenn es zum Beispiel um Bernstein-Grundpolynome geht.
     
    Bis hierhin bin ich gut zurechtgekommen, aber nun kam das Kapitel "Relationen". Und spätestens beim Thema "Ordnungsrelationen" wurde die Darstellung dann schon recht formal. Im Grunde beschreiben Ordnungsrelationen etwas einfaches. Sie stellen in einer Menge eine Rangfolge von Elementen her. Zum ordnet die Relation "x ist größer als y" die Menge der natürlichen Zahlen. Es gibt aber z.B. auch Ordnungen, in denen ein Element  mehrere verschiedenen Nachfolger oder Vorgänger haben kann. Und dann kann es auch Elemente geben, die ich nicht paarweise vergleichen kann. Hier waren bei den Übungen durchaus Nüsse dabei, die ich nicht mehr knacken konnte. Und das bringt mich zu einem wichtigen Thema für Leute, die dieses Modul bearbeiten und auf Schwierigkeiten stoßen: Die Autoren EMPFEHLEN sehr viele Übungen und VERLANGEN die Bearbeitung von Online-Tests und Einsende-Aufgaben. Der Schwierigkeitsgrad der Übungen ist zum Teil viel höher als der der Einsendeaufgaben und Tests. Lasst euch also nicht entmutigen, wenn ihr nicht alle vorgeschlagenen Übungen schafft. In der Klausur werden vor allem die grundlegenden Konzepte aus den Themengebieten abgeprüft, keine Spitzfindigkeiten und Spezialfälle. Die Übungen sind eine Einladung, sich einmal herauszufordern und sich wesentlich gründlicher für die Prüfung vorzubereiten.
     
    Im Kapitel Relationen ging es dann auch um die sehr grundlegenden Begriffe der Abbildungen und Funktionen. Hier muss man z.B. prüfen, ob eine gegebene Funktion injektiv, surjektiv oder sogar beides (also bijektiv) ist. Außerdem geht es um Komposition von Abbildungen oder auch ihre Umkehrbarkeit. Wirkt alles oft sehr theoretisch, aber Achtung: Diese Konzepte kommen in den höheren Modulen wieder. Schafft euch hier eine solide Grundlage und ihr habt es später leichter.
     
    Es folgt das sehr ästhetische Kapitel  über Graphentheorie, ein Thema, von dem die meisten Schulabgänger nie gehört haben. Graphen begegnen einem in der Informatik tatsächlich ständig. Viele Strukturen in der realen Welt lassen sich damit sehr schön und kompakt beschreiben. Das ist ein Kapitel, das mir Spaß gemacht hat, weil man auch immer wieder viel zeichnet und es überhaupt recht graphisch zugeht. Hier lernt man als kleinen Nebenschauplatz das berühmte "Königsberger Brückenproblem" kennen, das man in verschiedenen Variationen aus Rätselbüchern kennen könnte. Graphenalgorithmen spielen keine Rolle. Hier geht es um die begrifflichen Grundlagen. Die sind auch der klausurrelevante Stoff. Die Inhalte dieses Kapitels werden euch wieder begegnen in Modulen wie "Softwaretechnik", "XML", "Web-Anwendungen", "Algorithmen und Datenstrukturen" oder "Computernetze". Haltet den Stoff nicht für irrelevant, bloß weil hier Formeln eine weniger dominante Rolle spielen.
     
    Das Kapitel über Topologie hat mich intellektuell zum Teil überfordert. Zum Glück ist es nicht klausurrelevant.
     
    Nun kam das sehr wichtige Kapitel über algebraische Strukturen. Wichtig, weil es zum Beispiel im Modul Mathe3 "Angewandte Mathematik" wieder auftaucht, und zwar in den Kapiteln zur Kryptik. Dort wird zwar alles noch mal schnell wiederholt, aber arbeitet lieber hier gründlich, dann habt ihr es später leichter. Knapp gesagt geht es um Gruppen, Ringe, Körper und Vektorräume. Für die Klausur bekommt man zum Beispiel eine Menge und Verknüpfungen und muss dannuntersuchen, ob man es mit einem Körper zu tun hat. Macht das gründlich, auch wenn es euch zunächst sehr abstrakt vorkommt, und ihr nicht seht, wofür man es brauchen kann. Ihr werdet es brauchen, nicht nur für die Abschluss-Klausur.
     
    Im nächsten Kapitel geht es um Rekursivität. Die Konzepte und Begriffe, die ihr hier lernt, tauchen z.B. in den Programmiermodulen wieder auf, und zwar durchaus in sehr praxisrelevanter Form. Zur Auflockerung gibt es hier einen kleinen Ausflug in die fraktale Geometrie, der nicht klausurrelevant ist. Wenn ihr schon immer mal wissen wolltet, was es mit dem schönen "Apfelmännchen" auf sich hat, das ja zwischenzeitlich mal zur populären Ikone wurde, dann gönnt euch den Spaß. Sonst könntet ihr hier auch ein paar Seiten überspringen.

    Wichtiger für den angehenden Informatiker ist der Ausflug in die theoretische Informatik. Hier geht es um Zustandsautomaten und formale Sprachen. Das ganze wird nur angerissen und hier bedauere ich ein wenig, dass ein eigenes Modul "Theoretische Informatik" im Curriculum der W3L NICHT vorgesehen ist. Ein paar Themen tauchen in "Softwaretechnik 1" noch einmal vertiefter auf. Wer mehr "Appetit" auf so etwas hat, muss sich sein "Futter" woanders suchen.
     
    Erwähnt wird in diesem Kapitel auch die ungewöhnliche deklarative Programmiersprache PROLOG, mit der man logische Beziehungen gut ausdrücken kann. Leider viel zu knapp, um wirklich etwas damit anfangen zu können, aber immerhin schön, dass hier ein wenig Neugierde geweckt wurde. Praxisrelevanter sind die Abschnitte über "Wege aus endlosen Schleifen". Konkret geht es darum, dass Programme in der Regel irgendwann halten sollten, statt unendlich weiter zu laufen, und wie man das sicherstellen kann.
     
    Im folgenden Kapitel geht es um eine interessante Erweiterung der klassischen Logik - die sogenannte Fuzzy Logic, die eigentlich eher ein Fuzzy Set Theory ist. In der klassischen Mengenlehre ist ein "Ding" Element einer Menge oder nicht. In der Fuzzy Set Theory, kann es unterschiedliche Grade der Zugehörigkeit geben. Eine Schwalbe wäre dann "vogeliger" als ein "Pinguin" und eine Fledermaus, die in der klassischen Mengenlehre kein Vogel ist, könnte doch ein bisschen "vogelig" sein. Der Grad der Zugehörigkeit wird in der Regel als Zahl zwischen 0 und 1 ausgedrückt. Verknüpfe ich nun Aussagen über diese unscharfe Zugehörigkeit, bin ich bei der unscharfen Logik. Die kann man tatsächlich praktisch anwenden, zum Beispiel in der Steuerung. Klassisches Beispiel ist das Beschleunigen und Bremsen eines Portalkrans mit einer darunter hängenden Nutzlast. Das schöne an der Fuzzy Logic ist, dass man damit gut Faustregeln von Praktikern oder Fachleuten in einem Gebiet modellieren kann, so dass ein technisches System mit Faustregeln arbeiten kann. Im Kurs geht es allerdings zunächst mal um die begrifflichen Grundlagen, nicht um das, was der Ingenieur macht. Die Fuzzy Set Theory ist klausurrelevant.
     
    Den Abschluss bildet ein sehr knappes Kapitel über Komplexitätstheorie. Das Thema taucht zum Beispiel im Modul "Algorithmen und Datenstrukturen" wieder auf, wenn man verschiedene Such- und Sortieralgorithmen vergleicht. Ein wenig beschäftigt man sich auch mit zellulären Automaten, aber das ist eher ein reinschnuppern und hier würde ich mir für spätere Module mehr "Futter" erwarten.
     
    Insgesamt hat mir das Modul sehr viel Spaß gemacht. Ich kann mich noch gut an mein Heureka-Erlebnis  erinnern, als ich Cantors Diagonalverfahren begriffen habe und endlich verstanden habe, warum es zwar unendlich viele natürliche Zahlen, rationale Zahlen und reele Zahlen gibt, aber wieso es gleich viele rationale und natürliche Zahlen aber mehr reele Zahlen gibt. Für so etwas zahlt einem später niemand ein Gehalt, aber der Mensch lebt nicht vom Brot allein.
     
    Zum Spaß am Modul hat auch die hervorragende Betreuung durch meinen Tutor beigetragen. Als ich mich ihm vorgestellt habe, habe ich gleich erwähnt, dass ich aus einem fachfremden Beruf komme und lange aus dem Thema Mathematik "raus" bin. Er hat mir ein wenig von seinem eigenen Werdegang erzählt, der ihn mehrmals über Fachgrenzen geführt hat, und mich sehr ermutigt, meinen Weg zu gehen. Wir hatten immer wieder einen interessanten fachlichen Austausch. In diesem Modul nicht allein zu konkreten Problemen mit Aufgaben, denn ich kam ganz gut zurecht. Ich hatte auch Fragen zu den vielen Ausflügen in benachbarte Themengebiete, die im Kurs skizziert waren. Hier merkte ich deutlich: Ich habe es mit einem Menschen zu tun, der gewohnt ist, über die Grenzen seines fachlichen Biotops hinaus zu denken und Wissensgebiete zu verknüpfen. So etwas gefällt mir grundsätzlich und so habe ich hier viele Anregungen für mich mitgenommen. Sehr spürbar war in diesem Modul auch ein aufrichtiges Bemühen, den Wieder- und Neueinsteigern ein bisschen mehr Begleitung zukommen zu lassen. Für das Modul Mathe1 aus meiner Sicht optimal. In den späteren Modulen ist die Betreuung auch sehr gut, aber die Atmosphäre ist ein bisschen sachlicher, der Ton etwas knapper und es wird schon mehr Selbstständigkeit erwartet. Das passt aus meiner Sicht alles gut zusammen.
  23. kurtchen
    Ich befinde mich nun in der letzten Etappe meines Fernstudiums. Das dauert nun doch schon länger, als ich mir vorgenommen hatte, denn zwischenzeitlich hatte ich sogar gehofft, Ende 2018 fertig zu werden. 
     
    Rückblickend war diese Hoffnung nicht realistisch. Zu Beginn war ich schneller vorangekommen, als ich gedacht hätte. Die Module in den Kernbereichen des Informatikstudiums wie Mathematik, Programmierung, Softwaretechnik oder IT-Systeme fand ich inhaltich spannend. Entsprechend leicht fiel es mir, mich zum Lernen zu motivieren. Meine raschen Fortschritte dieser Zeit habe ich extrapoliert.
     
    Themen, die mich weniger interessiert haben (wie z.B. BWL), habe ich dagegen vor mir hergeschoben. Mein Lernfortschritt in solchen Modulen war zäher. Ohne Neugier auf die Inhalte fiel es mir schwerer, an den Themen dranzubleiben. Auch blieb mir der Stoff nicht so mühelos im Gedächtnis wie bei den Themen, die mich stark interessierten. Das hat meinen Studienfortschritt im letzten Drittel ausgebremst. Schließlich habe ich den Anstieg des fachlichen Niveaus unterschätzt. Module wie "Text Mining" waren spannend, aber den Erfolg musste ich mir hier mühsamer erarbeiten als in den ersten Semestern.
     
    Auch die Projektarbeit hat viel Zeit verschlungen. Die war meiner Meinung nach aber gut investiert. Ich konnte hier Wissen aus verschiedensten Modulen meines Studienganges verbinden und anwenden. Zugleich war es spannend, längere Zeit an einer Software zu arbeiten, die allmählich größer und unübersichtlicher wurde. Das hat mich immer wieder herausgefordert, Entwurfsentscheidungen erneut zu bewerten, um der wachsenden Komplexität Rechnung zu tragen. Die Inhalte vieler Module wurden dadurch noch einmal lebendig. Insofern war der fachliche Gewinn sehr hoch. Leider habe unterschätzt, wie viel Aufmerksamkeit und Zeit die Projektarbeit binden würde. Mein Plan, nebenbei noch regelmäßig Module zu bearbeiten und Klausuren zu schreiben, erwies sich als zu ambitioniert.
     
    Inzwischen bearbeite ich mein letztes Modul "Electronic Business". Es richtet sich an Wirtschaftsinformatiker. Dementsprechend betrachtet es das Thema Web-Business nicht durch eine technische sondern durch eine unternehmerische "Brille". Solche Module sind mir in meinem Studium schwer gefallen. Andererseits habe ich bewusst immer wieder auch solche Module im Wahlpflichtbereich belegt. Die Erfahrung, sich in Themen einzuarbeiten, die nicht auf den ersten Blick "zum Anbeißen" sind, gehört meiner Meinung nach zu einem Studium dazu. Ich sehe aber auch, dass ich im Vergleich zu Menschen, die für betriebswirtschaftliche Themen ein genuines Interesse aufbringen, langsamer bin. Es ist gut, solche Erfahrungen zu machen. Am Ende meines Studium will ich nicht nur meine Stärken sondern auch meine Schwächen besser kennen.
     
    Vor einigen Wochen habe ich schließlich meine Bachelorarbeit angemeldet. Diese soll nicht auf meiner Projektarbeit aufbauen, ist also auch nicht praxisbezogen. Die Projektarbeit war ja eine konstruktive Arbeit, die ein praxisbezogenes Problem lösen sollte. Dabei sollten zwar Erkenntnisse der Informatik zur Anwendung kommen und auch Techniken des wissenschaftlichen Arbeitens geübt werden, aber der Fokus lag natürlich auf den Anforderungen und der Anwendungsdomäne. Die Bachelorarbeit soll dagegen eine wissenschaftliche Fragestellung untersuchen. Ich hatte den Wunsch, hier thematisch wieder stärker im Kernbereich der Informatik als Strukturwissenschaft zu landen. Zur Bachelorarbeit werde ich einen eigenen Blogbeitrag verfassen, aber es soll um einen Vergleich zwischen objektorientierter und funktionaler Programmierung an einem Fallbeispiel gehen. Ich möchte einige Varianten des klassischen Travelling Saleman Problems mit evolutionären Strategien lösen, und zwar jeweils mit einer objektorientierten und einer funktionalen Implementierung.
     
    Unterschätzt habe ich den administrativen Vorlauf einer Bachelorarbeit. Der ist nämlich höher als bei der Projektarbeit. Zunächst einmal musste ich noch einen Zweitbetreuer finden, dessen Rolle mir anfangs nicht klar war. Inzwischen weiß ich: Der Zweitbetreuer begleitet zwar nicht den Entstehungsprozess der Bachelorarbeit, hat aber auf die Notengebung einen hohen Einfluss und ist auch Prüfer im Abschlusskolloquium. Hier übernahm das Studienbüro wieder eine "Lotsenfunktion". Das ist sehr wichtig, weil man als Fernstudierender die Professoren der FH Dortmund nicht so gut kennt wie ein Präsenzstudierender. Mir wurden zwei Betreuer vorgeschlagen, die ich auch beide schon bei einem Präsenztag erlebt hatte. Das war gut. Beide hatten bei mir einen sehr positiven Eindruck hinterlassen. Den Ausschlag gab, dass der eine Vortrag einen stärker algorithmischen Fokus hatte. Ich hatte den Eindruck, hier mit meinem Thema gut hinzupassen. Dies zeigt aus meiner Sicht noch einmal, dass die Präsenztage einen Wert haben, den man als Student in den ersten Semestern nicht unbedingt erkennt. Der Gedanke, bei diesem oder jenem Vortragenden meine Bachelorarbeit zu schreiben, drängte sich mir damals noch nicht auf. Dieses Ziel war noch zu weit, um greifbar zu sein.
     
    Der eigentliche Anmeldeprozess ist ebenfalls formaler als bei der Anmeldung zu Klausuren oder zur Projektarbeit. Das Anmeldeformular muss per Briefpost nach Dortmund geschickt werden, Erst- und Zweitbetreuer müssen es unterzeichnen und schließlich muss es auch ins Prüfungsamt. Hier geht also ein physischer Gegenstand über Schreibtische, wird mit der Hand angefasst und zu Fuß transportiert. Das macht sich in der Durchlaufzeit bemerkbar. Ich warte nun schon etwas mehr als 3 Wochen auf den Startschuss. Als Studierender auf einer Online-Plattform bin ich natürlich durch schnelle Reaktionszeiten verwöhnt. Aber vor dieser letzten Etappe lebe ich nun noch einmal in der älteren und langsameren analogen Welt, wo gut Ding Weile haben will. Vermutlich wird das mein anvisiertes Studienende noch mal ein paar Wochen nach hinten verschieben.
     
    Innerlich scharre ich schon ein bisschen mit den Hufen, aber zur Untätigkeit bin ich ja nicht verdammt. Denn so bearbeite ich Schritt für Schritt mein letztes Modul Electronic Business und habe dann hoffentlich Kopf und Hände frei, wenn es mit der Bachelorarbeit losgehen darf.
     
    Meine hoffentlich letzte Klausur ist im Mai. Für die Bachelorarbeit darf ich mir 6 Monate Zeit nehmen. Dann kommt noch das Kolloquium. Inzwischen spüre ich deutlich, dass ich in diesem letzten Abschnitt meines Studium nicht mehr ein extern auferlegtes Curriculum abarbeite, sondern eigenen fachlichen Interessen folge. Mein Denken und Handeln ist nicht mehr so kleinschrittig wie in den einzelnen Modulen, wo es jeweils um das nächste Kapitel, den nächsten Online-Test oder die nächste Einsendeaufgabe ging. Inzwischen geht es um ein eigenes fachliches Interesse. Ich selbst suche Mittel und Wege und muss entscheiden, in welche Richtung mich der nächster Schritt führen soll. Das ist schwieriger. Aber ich spüre dadurch auch ein Selbstbewusstsein, dass ich allein durch die erfolgreiche Bearbeitung von Modulen nicht gewinnen konnte.
     
    Was sehr schön ist: Ich genieße es im Moment, neben meinem Studium meinen fachfremden Beruf auszuüben. Die unverblümte und direkte Art der Kinder in meiner Einrichtung holt mich regelmäßig von meinen gedanklichen Höhenflügen zurück und erdet mich wieder ein bisschen.
  24. kurtchen
    Weiter ging es in meinem Online-Studium mit dem Modul "SQL und relationale Datenbanken". Dieses Modul war laut empfohlenem Studienplan für das zweite Semester vorgesehen. Bei den nötigen Grundlagen war allerdings nur "Grundlagen der Informatik 1" genannt. Grundkenntnisse der strukturierten und prozeduralen Programmierung sollten also reichen. Ich hatte schon "Grundlagen der Informatik 2" bestanden, war also der Meinung, gut gerüstet in den Kampf zu ziehen.
     
    In diesem Kurs gab es zwei Lehrbücher:
    - SQL: Der Einstieg in die deklarative Programmierung
    - Datenbank-Anwendungen entwerfen & programmieren
     
    Im SQL-Buch ging es zunächst um eine Einführung in diese Sprache. Wie bei der W3L üblich, gab es ein einführendes Kapitel, indem alle Themen des Buches knapp angerissen waren, so dass man ungefähr wusste, was im Laufe des Moduls auf einen zukommen würde. Das nächste Kapitel war dann detaillierter. Es ging um:
    - Anlegen von Tabellen, Schlüsselspalten, Primärschlüssel
    - Datentypen, Domains als selbst-definierte Wertebereiche
    - Werteeinschränkungen durch Regeln
     
    Hier fiel mir die erste Sache auf, an der ich mich im Kurs stören sollte: Zu Beginn des Kurses war erklärt worden, wie man auf seinem System MySQL und Firebird installiert. Ich war davon ausgegangen, das eine ODER das andere zu brauchen und MySQL bzw. MariaDB ist ja bei den meisten Linux-Systemen sowieso dabei. Der Kurs hat aber nicht den Anspruch, den Studierenden in ein bestimmtes Datenbanksystem einzuführen. Vielmehr geht es um SQL als Sprachstandard, der in verschiedenen Implementierungen mehr oder weniger konsequent und umfassend realisiert ist. MySQL und Firebird dienen als Beispiele für Implementierungen, die sich in verschiedenen Punkten unterscheiden. Viele Code-Beispiele aus dem Lehrbuch liefen unter MySQL nicht. Ich sah mich so gezwungen, zwischen MySQL und Firebird zu wechseln, Code in beiden Umgebungen auszuprobieren, meine eigenen Datenbanktabellen in beiden Systemen anzulegen, was Zeit kostete. Das kam mir anfangs sehr umständlich und didaktisch nicht gelungen vor. Im Laufe der Zeit wurde mir jedoch klar, um was es dem Kursautor ging. Ich sollte verstehen, was relationale Datenbanken sind und was SQL als allgemeiner Sprachstandard ist, unabhängig von einem bestimmten Produkt. Im Laufe des Kurses wurde ich flexibler und habe mir parallel auch noch PostgreSQL installiert, habe auch mit verschiedenen graphischen Tools experimentiert und dann wieder viel auf der Kommandozeile gearbeitet. Man bekommt ein Gefühl dafür, was den Kern von SQL ausmacht, der sich nicht so schnell ändert. Man erhält auch einen Eindruck davon, wie man arbeiten müsste, um eine Datenbank leichter auf eine andere Implementierung migrieren zu können. Am Ende des Moduls wusste ich, dass ich mich wenn nötig in jede Implementierung einarbeiten kann, weil einfach Grundlagen da sind, auf die ich mich verlassen kann. Es dauerte natürlich eine Weile, an diesem Punkt zu kommen, und so war ich in den ersten Kapiteln oft unzufrieden mit dem didaktischen Asatz, dessen Sinn ich noch nicht verstand.
     
    Weitere Themen waren:
    - Selektionen und Projektionen
    - Spaltenausdrücke
    - Suchen mit Mustern,
    - Verknüpfte Ausdrücke
    - Mengen als Vergleichswerte
    - Einfügen und Aktualisieren von Datensätzen
    - Restrukturieren von Tabellen
    - Änderungen an Tabellen mit Daten
    - Änderungen von Domänen
    - Löschen von Informationen
    - Spaltenfunktionen von Gruppierungen
     
    Bis hierhin hatte man in der Regel mit einzelnen Tabellen gearbeitet. Der Kurs war bis hier auch recht syntaxlastig. Das machte sich auch in den Online-Tests bemerkbar, die zum Teil etwas spitzfindig formuliert waren. So halbwegs begriffen zu haben, reichte nicht. Zum Teil schien es mir, als seien bewusst kleine Ungenauigkeiten in die Fragen eingebaut, um dem Lernenden eine kleine Falle zu stellen und zu checken, ob er wirklich genau aufgepasst hatte. Auch das ärgerte mich zunächst. Ich lernte aber so auch, genauer hinzuschauen. Im Laufe der Zeit habe ich diese Art der Tests zu schätzen gelernt.
     
    Auch die Einsendeaufgaben wurden auf diese Weise korrigiert. Ungefähr richtig reichte nicht. Mein Tutor erwartete Präzision. Die Rückmeldungen im Fehlerfall waren recht knapp, so dass ich gerade am Anfang oft nachhaken musste. Der Sinn blieb mir zunächst verborgen. Im Laufe der Zeit merkte ich, dass mir der Tutor immer nur einen kleinen Brocken hinwarf. Gerade genug, um selber einen Schritt weiter zu kommen. Ich habe gelernt, die Online-Dokumentationen intensiv zu nutzen und auch mit Sekundärliteratur zu arbeiten. Ein Stück weit meine Probleme selbstständig zu lösen, statt immer gleich um Hilfe zu bitten. Das Tolle war: Im Laufe der Zeit merkte ich, dass ich besser darin wurde, selbst nach Lösungen zu suchen.
     
    Im letzten Kapitel des ersten Buches ging es dann erstmals um das, was relationale Datenbanken ausmacht: Um die Verknüpfung von Tabellen über Fremdschlüsselbeziehungen und die damit verknüpften Probleme der Konsistenzhaltung. Ein kleiner Nebenschauplatz war die Einrichtung von dynamischen Wertebereichen über Fremdschlüsselbeziehungen.
     
    Nun kam das zweite Lehrbuch und das war deutlich anders als das erste. Ging es im ersten Lehrbuch relativ konkret darum, was man mit der Sprache SQL machen kann und wie man das konkret macht, kam hier erst mal viel Theorie:
    - Relationen und Operationen auf Relationen
    - relationsinterne und relationsübergreifende Abhängigkeiten
    Hier ging es zum Teil recht mathematisch zu. Der Vorteil: Mit dem eher praktischen Vorwissen aus dem ersten Lehrbuch war dieser Teil etwas leichter verdaulich. Gut wäre es hier gewesen, ich hätte schon das Modul Mathe1 beendet. Das war aber bei mir nicht der Fall, weshalb dieser Teil des Kurses für mich etwas zäher ablief.
     
    Es folgte ein recht umfangreicher Teil über Entwicklungsphasen einer Datenbank und darüber, wie man Sachverhalte und Beziehungen in Datenbanken modelliert. Insbesondere ging es darum, wie man Klassen, Vererbungsstrukturen und Assoziationen zwischen Klassen in Datenbanktabellen modelliert, also das, was man objekt-relationales Mapping nennt. Dieser Teil des Kurses war für mich sehr interessant, weil hier deutlich wurde, wie man objektorientierte Programmierung und Persistenz mit einem RDBMS zusammenbringen kann. Hier war ich heilfroh, "Grundlagen der Informatik 2" bereits bearbeitet zu haben, also die Einführung in die objektorientierte Programmierung. Ohne diese Grundlage wäre mir dieses Kapitel viel schwerer gefallen und ich finde, dass es für alle Studierenden sinnvoll wäre, diese Grundlage zu haben. Der Autor verwendete hier eine Erweiterung der UML, um Tabellenstrukturen zu modellieren und zu visualisieren. Dafür war auch ein graphisches Tool in Java mitgeliefert worden, dass auf meinem System allerdings gelegentlich "Zicken" machte und nicht immer stabil lief. Ich habe dann ein anderes Tools benutzt, um UML-Diagramme und Diagramme in erweiterter UML zu erstellen, was dann auch problemlos ging um vom Tutor ohne weiteres akzeptiert wurde.
     
    In nächsten Teil des Kurses ging es um Verbunde:
    - Theta-Verbunde
    - Auto-Join
    - Innere Verbunde
    - Verschachtelung von Verbunden
    - Äußere Verbunde
    Eine Rolle spielte hier auch immer wieder, was mathematisch gesehen passiert, wenn kartesische Produkte großer Tabellen gebildet werden und wie der User oder das RDBMS diesen Aufwand minimiert.
     
    Es folgten Kapitel über Unterabfragen, wobei insbesondere die korrelierten Unterabfragen schon etwas anspruchsvoller waren. Schließlich ging es noch um Mengenoperationen und den Umgang mit Views. Damit war der klausurrelevante Teil des Moduls abgedeckt.
     
    Das Modul war aber noch lange nicht vorbei. Es kamen Kapitel zu:
    - Datenschutz, Authentisierung, Gewährung von Privilegien, Entzug von Rechten, Rollen
    - Stored Procedures, Mengenverarbeitung von Datensätzen, Trigger, Transaktionen
     
    Gerade bei den letzten Themen gibt es große Unterschiede zwischen den Implementierungen. Hier begann ich auch, parallel zu Firebird mit PostgreSQL zu experimentieren.
     
    Es folgte eine kurze Einführung in JDBC. Der letzte Teil war dann ein Überblick über alternative bzw. konkurrierende Konzepte zur relationalen Datenbank. Hier wurde ein theoretischer Überblick gegeben. Und es gab ein paar praktische Übungen mit der CouchDB. Das war jedoch eher ein Reinschnuppern und vertiefte in erster Linie das Verständnis für die besonderen Eigenschaften und auch Nachteile relationaler Datenbanken.
     
    In diesem Kurs gab es zwei Abschlusstests und zwei Online-Klausuren, eine für jeden Kursteil. Die Bonuspunkte, die man so erwerben konnte, zählten darum nur jeweils zur Hälfte.
     
    Für die Präsenzklausur hatte ich mich nicht optimal vorbereitet. Ich hatte vor allem den Umgang mit den Sprachelementen von SQL geübt. Bei den Aufgaben ging aber viel Zeit für Modellierung und Normalisierung drauf. Es mussten UML-Diagramme bzw. Diagramme in erweiterter UML gezeichnet werden, was in der Klausur natürlich von Hand geschieht. Da muss man sich beim Zeichnen schon ein bisschen Gedanken machten, wie am Ende alles gut aufs Blatt passt. Hier habe ich ein bisschen Zeit vergeudet. Zwar hatte ich das Zeichnen von Hand geübt, aber ich hätte hier noch mehr Energie reinstecken können. Dann wäre der Rest der Klausur entspannter gelaufen. Es folgte nämlich ein Teil, bei dem es konkreter um dem Umgang mit der Sprache SQL ging. Gegeben war eine Tabellenstruktur und nun sollten Abfragen formuliert werden, die bestimmte Informationen aus den Tabellen extrahierten. Viele Abfragen! Hier musste ich in kurzer Zeit eine Abfrage nach der anderen "hinschmieren", ohne Zeit zu haben, irgendetwas noch einmal zu überprüfen oder lange über die Antwort nachzudenken. Insofern war ich nach der Klausur in großer Sorge, viele Punkte verschenkt zu haben.
     
    Diese Sorge war zum Glück unnötig. Ich hatte zu Hause geübt, solche Aufgaben auf Tempo zu lösen und hatte anscheinend viele Treffer, obwohl ich in der knappen Zeit nur "aus der Hüfte schießen" konnte. Trotzdem würde ich mich rückblickend betrachtet anders vorbereiten und vor allem den Themen "Modellierung" und "Normalisierung" mehr Aufmerksamkeit widmen.
     
    Der Kurs ist eine gute Grundlage für "Grundlagen der Informatik 3". Dort geht es zwar hauptsächlich um GUI-Programmierung, aber Persistenz und Schnittstellen zu Datenbanken ist ein weiterer großer Themenbereich. Zwar erhält man in GdI3 eine knappe Einführung in MySQL, aber ich war schon sehr froh, mit einem umfangreicheren Vorwissen zu arbeiten.
     
    Insgesamt habe ich aus dem Modul etwas anderes mitgenommen, als ich mir zu Beginn erwartet hatte: Ich wollte lernen, mit MySQL umzugehen. Gelernt habe ich etwas nützlicheres, nämlich was eine relationale Datenbank ist. Auch mit meinem Tutor war ich am Ende sehr zufrieden, der mich eben nicht "mit dem Löffel gefüttert" hat, sondern mir durch seine eher knappen Hilfestellungen immer gerade genug Material gegeben hat, um selber eine Lösung zu finden.
  25. kurtchen
    Mein drittes Modul bei der W3L war "Grundlagen der Informatik 2". Dieses Modul ist eine Einführung in die objektorientierte Programmierung mit Java. Eigentlich wäre dieser Kurs erst für das zweite Semester vorgesehen gewesen, aber nachdem mir GdI1 so viel Spaß gemacht hatte, war ich neugierig, wie es weitergehen würde.
     
    Inhalte des Moduls sind:
    - Objekte, Klassen, Konstruktoren, Botschaften
    - Attribute, Klassenattribute, Klassenoperationen
    - Pakte
    - Nutzen vorhandener Klassen (z.B. aus der Klassenbibliothek)
    - Hüllklassen für einfache Typen, Autoboxing, Autounboxing
    - Ausnahmebehandlung
     
    Sehr schön finde ich, dass es ein eigenes Kapitel über Assoziationen gibt. Die werden als wichtiges Grundkonzept der objektorientierten Programmierung oft übersehen. Es geht um:
    - Beziehungen zwischen Objekten und zwischen Klassen
    - Rollen
    - Assoziationsklassen, die allein existieren, um bestimmte Objekte zu verknüpfen
    - Navigierbarkeit
    - Containerklassen
    - den Abschluss bildet eine Einführung in das Singleton-Muster als erstes Entwurfsmuster
     
    Weiter geht  es mit Vererbung:
    - Klonen vs. Kopieren
    - Identität vs. Gleichheit
    - Polymorphismus
     
    Echte Mehrfachvererbung gibt es in Java nicht. Einen gewissen Ersatz bietet das Schnittstellenkonzept.
     
    Um diese Konzepte zu vertiefen gab es eine sehr  schöne Einsendeaufgabe, bei der das Beladen einer Autofähre mit verschiedenen Fahrzeugtypen simuliert werden sollte. Die Fahrzeugtypen stehen untereinander in einer Vererbungsbeziehung. Außerdem braucht man eine Containerklasse, die Fahrzeuge verschiedener Typen aufnehmen kann. Diese Aufgabe war umfangreicher, hat aber auch besonders viel Spaß gemacht. In GdI2 arbeitet man noch immer mit der relativ einfach BlueJ-Umgebung. (Wird jedenfalls von der W3L so empfohlen. Kann man natürlich auch anders machen.) Hier ist sehr schön, dass Klassenbeziehungen in der IDE graphisch dargestellt werden, was das Verständnis an diesem Punkt des Lernprozesses erleichtert. Mit zunehmender Komplexität wird die Darstellung allerdings unübersichtlich und es beginnt zu dämmern, dass man nicht für alle Ewigkeit mit BlueJ arbeiten wird.
     
    Schön an dem Kurs ist auch, dass die UML eine große Rolle spielt. Alles, was man in Java lernt, wird parallel in UML gezeigt, so dass man nebenbei lernt, Klassen-, Objekt- und Sequenzdiagramme zu lesen und selbst anzufertigen. Die von der W3L empfohlenen Tools fand ich allerdings zu mächtig und ressourcenhungrig. Ich arbeite meist am Laptop, wo allein die Bildschirmgröße eine Rolle dafür spielt, wie viele Informationen ich gleichzeitig angezeigt bekommen möchte. Hier habe ich mir wesentlich einfachere Tools gesucht, z.B. UMLet, mit dem man  schnell einfache Klassendiagramme erstellen kann. Oder PlantUML, eine Skriptsprache zur Erstellung nicht nur von UML-Diagrammen. Um das Zeichnen von Diagrammen ging es immer wieder in den Einsendeaufgaben, nicht nur ums Programmieren.
     
    Es folgten Kapitel zu Persistenz und Datenhaltung. Hier ging es um:
    - sequentielles Lesen und Schreiben von Dateien
    - einfache Indexverwaltung
    - die Serialisierung von Objekten
    Schnittstellen zu Datenbanken blieben noch ausgeklammert. Das kommt erst in GdI3.
     
    Schließlich ging es um generische Programmierung. Hier verwendet man bei der Deklaration von Klassen und Methoden keine Typen sondern Platzhalter für Typen. So kann man eine Methode für alle möglichen Datentypen programmieren und behält trotzdem den Vorzug der Typsicherheit. Generische Programmierung kann man gut mit objektorientierter Programmierung kombinieren, aber jetzt wurde es schon ganz schön komplex.
     
    Nun kamen zwei Kapitel über Qualitätssicherung. Zuerst über konstruktive Qualitätssicherung. Hier geht es um Prinzipien des guten Klassen- und Methodenentwurfs, so dass Code zum Beispiel gut zu warten ist oder später leichter refaktoriert werden kann. Dieses Kapitel fand ich sehr interessant. Letztlich sind es Strategien, Qualität zu sichern, indem man Software auf saubere Weise plant und konzipiert. Dann ging es um analytische Qualitätssicherung. Das bedeutet, Qualität im Nachhinein zu messen, z.B. indem man Software testet. Dieses Kapitel fand ich sehr trocken, weswegen ich es nur halbherzig bearbeitet habe. Hier wollte ich auf Lücke lernen.
     
    Den Abschluss bildeten 2 kurze Kapitel über C++ und C# als Beispiele für andere objektorientierte Programmiersprachen als Java. Die waren allerdings viel zu kurz, um hinterher in diesen Sprachen programmieren zu können. Sie dienten eher dazu, ein gewisses Bewusstsein für die Besonderheiten von Java zu entwickeln. Am Beispiel von C++ kann man zum Beispiel lernen, was echte Mehrfachvererbung ist und wie diese sich von der Schnittstellenvererbung von Java unterscheidet. Außerdem begreift man, wieviel Arbeit einem Java mit der Garbage-Collection abnimmt. C# ist deswegen interessant, weil es für den .NET-Framework viele Sprachen gibt. Das Kapitel über C# ist auch nützlich, weil man in einem späteren Modul zur Webprogrammierung in ASP-NET reinschnuppert. Da ist es nützlich, C# einmal ausprobiert zu haben.
     
    In der Klausur hatte ich zwar ein zufriedenstellendes Ergebnis, aber das vor allem dank der Bonuspunkte, die ich in diesem Modul einfahren konnte. Rückblickend hätte  ich mich ganz anders vorbereiten müssen. Nach den Erfahrungen mit GdI1 hatte ich erwartet, wieder viel Code schreiben zu müssen. Stattdessen spielte das Zeichnen von UML-Diagrammen eine große Rolle. Es wäre sinnvoll gewesen, solche Diagramme öfter von Hand zu zeichnen. Das hatte ich in der Bearbeitung des Moduls immer mit Software erledigt. Die kümmert sich darum, dass alles richtig proportioniert ist und auf die Seite passt. Beim Zeichnen von Hand muss man etwas vorausdenken. Das hätte man gut üben können und das hätte mir in der Klausur viel Zeit und damit verbundenen Stress erspart. Außerdem spielte die analytische Qualitätssicherung in der Klausur eine Rolle. Hier hatte ich nichts wiederholt, weil ich gehofft hatte, dieses für mich nicht so spannende Thema würde ausgespart bleiben. Auch, weil es ein eigenes Pflichtmodul zum Softwaretesten gibt. Aber nein, alles kann drankommen. Anderen Studierenden würde ich raten, in der Vorbereitung auf die Klausur alle Themen abzudecken und sich dabei auf die Grundkonzepte zu konzentrieren.
     
    Rückblickend betrachtet ist das Anliegen dieses Kurses nicht allein die Programmierung in Java sondern vor allem die Vermittlung objektorientierter Grundkonzepte. Diesen Kurs fand ich didaktisch sehr gelungen. Allerdings bin ich mit Vorkenntnissen hineingegangen. Ich hatte  zuvor das Buch "Java lernen mit BlueJ" von David Barnes und Michael Kölling durchgearbeitet. Das war eine sehr  gute Vorbereitung auf das, was mir in GdI2 abverlangt wurde. Dieses Buch kann ich jedem empfehlen, der sich auf einen einführenden Kurs in objektorientierter  Programmierung vorbereiten möchte. Besonders ist hier der "objects first"-Ansatz. Während die meisten Lehrbücher zunächst einmal strukturierte Programmierung zeigen und dann die objektorientierten Konzepte nachschieben, beginnen Barnes und Kölling mit Objekten und Klassen. Möglich wird dies durch die BlueJ-Umgebung, einer IDE die nicht  nach Produktivitäts- sondern nach didaktischen Gesichtspunkten konzipiert ist. Und durch viele halbfertige Projekte, wo schon viel Code da ist, den man noch nicht im Detail verstehen muss. Aber beim Arbeiten mit diesen Bausteinen lernt man viel über die objektorientierten Konzepte. Vieles in GdI2 wäre mir ohne diese Grundlage schwerer gefallen.
     
    Lobend erwähnen möchte ich auch meinen sehr guten Tutor, der mir viele Fragen beantwortete, die nicht direkt mit den Anforderungen des Kurses zu tun hatten. Bei ihm merkte man deutlich, dass er aus der Praxis kommt. Im Gegensatz zur Tutorin aus GdI1 forderte er an vielen Stellen schon einen knapperen, weniger expliziten Programmierstil.
×
  • Neu erstellen...