Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    879
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von kurtchen

  1. Normalerweise soll eine Klausur nach 6 Wochen korrigiert sein. Ist natürlich plausibel, dass jetzt in manchen Bundesländern Ferienzeit ist. Die Korrektoren machen auch irgendwann ihren Familienurlaub. Aber nach 8 bis 9 Wochen darfst du ruhig mal im Studienbüro anfragen. Das ist ungewöhnlich lange.
  2. Aktuell sitze ich an meiner Projektarbeit und brauche eine Möglichkeit, einen Objektgraphen als Datei zu speichern. Weil es wünschenswert ist, dass diese Datei menschenlesbar ist, möchte ich gerne ein XML-Format verwenden. Java bietet dazu eine relativ einfache Möglichkeit mit JAXB, die ich auch schon häufiger genutzt habe. Dazu werden die Klassen, die als XML serialisiert werden sollen, mit Annotationen versehen. Dann geht der Rest fast automatisch. Leider setzt das voraus, dass die Klassen einen parameterlosen Standard-Konstruktor und Setter für alle Attribute haben. Mein Graph enthält aber Objekte, die immutable sind. Setter und einen parameterlosen Standardkonstruktor kann es somit nicht geben. Darum musste ich noch einmal auf dieses Modul zurückkommen. Im letzten Kapitel wird die Verarbeitung von XML mit Java thematisiert. Das Kapitel ist wirklich sehr knapp und stellt lediglich kurz SAX und DOM vor. Zu meiner Überraschung konnte ich aber mit den Vorkenntnissen aus dem Modul relativ fix einen XML-Kodierer und -Dekodierer implementieren. Der Dekodierer ist validierend und arbeitet mit SAX. Beim Schreiben des XML-Schemas habe ich gemerkt, dass ich ein paar Sachen nachschlagen musste. Ich kam aber schnell wieder rein ins Thema. Schön, dass ich eine Gelegenheit hatte, die Inhalte aus dem Modul einmal praktisch anzuwenden. Möglicherweise werde ich auch die Inhalte zu XSLT noch nutzen. Damit könnte ich die erzeugten Dateien z.B. in HTML wandeln und in übersichtlicherer Form im Browser anzeigen. Das ist zwar keine Priorität, aber vielleicht komme ich noch darauf zurück.
  3. Das Klausurergebnis zum Modul IT-Recht ist inzwischen da. IT-Recht ist ja ein Pflichtmodul und sollte eigentlich schon im ersten Fachsemester belegt werden. Ich wusste aus meiner Ausbildung, dass ich mit Rechtsthemen durchaus zurecht komme, das ganze aber nicht so richtig spannend finde. Insofern hatte ich dieses Modul zunächst ein bisschen vor mir hergeschoben. Und dann aus den Augen verloren, dass ich es noch machen musste. Mit dem Ergebnis der Prüfung bin ich zufrieden. Vor allem gemessen daran, dass mir an diesem Punkt meines Studiums eigentlich andere Dinge im Kopf herumgehen, z.B. meine Projektarbeit. Ich hatte vor der Präsenzklausur leider nicht mehr geschafft, alle Einsendeaufgaben abzuschließen. Da ich ja hier über das Modul blogge, hatte ich an mich den Anspruch, nachträglich noch alle Einsendeaufgaben zu bearbeiten. Es hätte ja sein können, dass eine aus dem Rahmen fällt. Das war aber nicht der Fall. Anspruch und Art der Aufgabenstellung passten gut zu den anderen Aufgaben, die ich schon eingereicht hatte, so dass sich der Gesamteindruck, den ich vom Modul habe, dadurch nicht verändert hat. Bemerken möchte ich noch, dass mein Tutor mir umgehend Feedback zu den noch fehlenden Aufgaben gegeben hat, obwohl das Modul ja im Prinzip schon als abgeschlossen gelten konnte. Nun muss ich nur noch das Pflichtmodul "Projektarbeit" abschließen, bevor ich die Bachelorarbeit anmelden darf. Die Projektarbeit ist bereits angemeldet. Die Deadline ist Anfang September. Wenn ich fertig bin, werde ich hier im Blog etwas ausführlicher berichten. Ich kann aber schon sagen, dass das Modul "Projektarbeit" sehr viel Zeit kosten kann, je nachdem, was für ein Thema man sich aussucht. Eine Kommilitonin von mir hat kürzlich abgegeben. Auch sie hat deutlich mehr Zeit investieren müssen als für andere Module. Es gab ja einzelne Module im Studiengang, bei denen ich die 5 ECTS ein bisschen zu leicht verdient fand. Ein Beispiel wäre das Modul "Mobile Computing" oder vielleicht auch "CMS". Jetzt, da ich an der Projektarbeit sitze, finde ich, dass sich das unterm Strich mehr als ausgleicht. Immerhin, es geht ganz gut voran. So etwa 70 Seiten habe ich schon zusammen. Es sind allerdings viele UML-Diagramme dabei, was die reine Textmenge natürlich etwas relativiert. Mit der Betreuung bin ich auch sehr zufrieden. Die Rückmeldungen kamen anfangs sehr zügig und mit fortschreitender Arbeit etwas zögerlicher. An einem bestimmten Punkt hat mein Betreuer vorgeschlagen, dass er mich ab jetzt gerne selbstständig weitermachen lassen möchte. Ich glaube, dass müsste jetzt auch ganz gut klappen. Sehr nützlich war die Vorbereitung durch das Modul "Wissenschaftliches Arbeiten". Man merkt es vielleicht zu Beginn des Studiums nicht, aber das ist wirklich eines der wichtigen Module, um den Endspurt gut zu schaffen. Ansonsten würde ich sagen, dass die Module zur Softwaretechnik sehr wichtig sind, um getroffene Entscheidungen im Projektverlauf begründen zu können. Wie gesagt, ich schreibe mehr dazu, wenn ich das ganze abgeschlossen habe.
  4. Herzlichen Glückwunsch. Schön, dass Du diesen Erfolg hier im Forum teilst. Und uns die Urkunde sehen lässt. Ich fiebere dem Tag auch schon entgegen. Hoffentlich berichtest du auch über deinen Weg zum Master.
  5. Ja, diesen Einwand verstehe ich. Wenn ich mich recht erinnere, hat auch Sascha Lobo einen Kommentar geschrieben, der in diese Richtung geht. De facto wird es wohl darauf hinauslaufen, dass die meisten Nutzer einfach mal Einverständnis erteilen, ohne sich alles genau durchzulesen. Vor allem, wenn es um die Nutzung eines Dienstes geht, auf den sie ihrer Meinung nach nicht verzichten können. Das könnte leider sogar große Datenkraken wie Facebook gegenüber kleinen Website-Betreibern begünstigen. Aber... ...sehr gut finde ich zum Beispiel das explizit formulierte Recht, eine erteilte Einwilligung jederzeit widerrufen zu können. Das bedeutet nämlich für den Nutzer: Er muss nicht unbedingt vorher alles genau abwägen, weil er es sich jederzeit wieder anders überlegen darf. Ich hoffe schon, dass das Nutzern mehr Macht in die Hand gibt, wenn ein Dienstanbieter einen gewährten Vertrauensvorschuss verspielt.
  6. Ich hatte es vor der Klausur nicht mehr geschafft, alle Einsendeaufgaben zu bearbeiten. Eine zum Thema Datenschutz fehlte mir noch. Weil ich ja hier über das Modul blogge, habe ich an mich die Erwartung, alle Aufgaben möglichst versucht zu haben. Insofern habe ich die fehlende Aufgabe heute noch nachgeholt. In dem hypothetischen Fall entdeckt jemand personenbezogene Details über sich selbst im Internet, die er gerne löschen lassen würde. Diese Aufgabe habe ich spaßeshalber nach der neuen DSGVO bearbeitet. Das war schon aufschlussreich. Im alten BDSG musste man regelrecht zwei Mal lesen, um seine Rechte als Betroffener unter den ganzen Ausnahmen zu entdecken. Jetzt findet man sich schon leichter zurecht. Insofern hoffe ich, dass der bürokratische Aufwand den Nutzern etwas bringt. Ich stimme zu: Ergänzendes Material wäre hier gut gewesen. Witzigerweise deutet sich an, dass mich das Thema demnächst auf meiner Arbeitsstelle beschäftigen könnte. Denn auch wir haben bisher versäumt, uns damit in der gebotenen Gründlichkeit zu befassen. Bei allem Ärger über den Aufwand denke ich, dass es nicht für die Katz ist. Im Sozialbereich geht man z.T. mit sehr sensiblen Daten um. Da ist es durchaus sinnvoll, Art und Umfang der Verarbeitung solcher Daten einmal genauer unter die Lupe zu nehmen.
  7. Das Modul IT-Recht ist bei Springer Campus ein Pflichtmodul in den beiden Studiengängen Web- und Medieninformatik sowie Wirtschaftsinformatik. Laut Studienplan ist es für das erste Fachsemester vorgesehen. IT-Recht ist außerdem ein Pflichtmodul der wissenschaftlichen Weiterbildung "Software-Manager". Ich bin im Studium schon recht weit fortgeschritten und habe das Modul im ersten Semester nicht belegt, weil ich erst einmal schauen wollte, ob ich mit Fächern wie Mathematik oder Programmierung zurecht kommen würde. Die Beschäftigung mit Recht kannte ich ein bisschen aus meiner Ausbildung. Dort ging es zwar um ganz andere Gebiete des Rechts, aber immerhin habe ich damals den Eindruck gewonnen, dass ich mich mit solchen Fragen auseinandersetzen kann, auch wenn es mich nicht unbedingt brennend interessiert. Insofern habe ich die Belegung dieses Modul anfangs vertagt und es später irgendwie aus den Augen verloren. Jetzt, im letzten Abschnitt meines Studiums, war mir aufgefallen: "Da fehlt doch noch ein Pflichtmodul!" Also war das Thema jetzt einfach "dran". Das Lehrbuch Das Buch "IT-Recht" von Axel Sodtalbers, Christian Volkmann und Andreas Heise liegt mir in einer Auflage von 2010 vor. Sein Umfang ist mit 315 Seiten für ein Lehrbuch bei Springer Campus etwas unterdurchschnittlich. Gegliedert ist das Buch in drei Teile. Zunächst geht es um Softwarerecht, dann E-Commerce-Recht und schließlich Datenschutzrecht. Gerade beim letzten Thema hat es ja mit der DSGVO viele Neuerungen gegeben. So viel sei vorweg genommen: Acht Jahre sind speziell bei diesem Thema eine lange Zeit. Dieser Teil des Lehrbuches müsste inhaltlich dringend überarbeitet werden. Teil 1 - Softwarerecht Dieser Teil beginnt mit dem Thema Urheberrecht. Es geht darum, wer überhaupt Urheber ist, wie man einer wird und wieso Software unter das Urheberrecht fällt (aber z.B. das Design einer Blumenvase im allgemeinen nicht). Auch die Themen Patentrecht und Halbleiterschutz werden angerissen. Bei Software sind gegenüber anderen geistigen Schöpfungen wie z.B. einem Roman ein paar Besonderheiten zu beachten. Zum einen wird Software von Entwicklern meist im Rahmen eines Dienst- oder Arbeitsverhältnisses erstellt. Die Entwickler sind dann zwar Urheber, aber das Recht zur wirtschaftlichen Verwertung ihrer Schöpfung hat ihr Arbeitgeber. Zum anderen wird Software heute überwiegend in Teams entwickelt. Das gilt schon für kleine Independent Games. Die Zeiten, in denen ein pfiffiger Programmierer im Alleingang einen großen Spielehit oder eine revolutionäre neue Office-Anwendung entwickeln konnte, liegen eine Weile zurück. Es gibt also meistens viele Miturheber. Software wird programmiert, weil man sie nutzen und verwerten möchte. Dazu werden Verträge geschlossen. Insofern spielt das Vertragsrecht eine wichtige Rolle. Interessant war für mich, dass auch bei Individualsoftware im allgemeinen ein Kaufvertrag und nicht etwa ein Werkvertrag zustande kommt. Wenn man etwas verkauft, so unterliegt man der Gewährleistung. Wenn man möchte, kann man durch einen zusätzlich geschlossenen Vertrag darüber hinaus gehende Garantien geben. Kaufverträge enthalten oft AGBs, die jedoch - wenn sie schlecht verfasst sind - unwirksam sein können. Es ist juristisch schwierig, insbesondere die Rechte von Verbrauchern durch ABGs wirksam einzuschränken. Alle diese Themen sind eigentlich allgemeines Recht. Verwiesen wird im Lehrbuch vor allem auf das BGB. Das ist allerdings ein Aspekt des Kurses, der mir gut gefallen hat. Vieles im IT-Recht ist zunächst einmal allgemeines Recht, das in einem speziellen Kontext angewendet wird. In manchen Fällen hat dieser Kontext starke Auswirkungen, in anderen nicht. Jedenfalls lernt man in diesem Lehrbuch durchaus ein paar Dinge, über die man als Bürger und Verbraucher ohnehin informiert sein sollte. (Aber leider oft nicht ist!) Insofern ist dies zwar ein Modul für Informatiker, es hat aber eine gewisse allgemeinbildende Komponente. So etwas schätze ich sehr. Die Fallbeispiele und Übungsaufgaben sind in der Regel in einem IT-Kontext angesiedelt. Meist zielen die Aufgaben darauf ab, zu zeigen, welches allgemeine Recht hier Anwendung findet. Neben der reinen Aufzählung wird dabei natürlich auch eine Begründung und eine Abwägung erwartet. Dieses Zitat wird dem US-Journalisten Dan Rather zugeschrieben. Software erledigt in der Regel routinemäßig anfallende Tätigkeiten automatisiert. Das hat eine unangenehme Folge. Arbeitet sie fehlerhaft, wird der Fehler oft tausendfach wiederholt, was den Schaden in die Höhe treibt. Software wird auch in sicherheitskritischen Bereichen eingesetzt. Zur Steuerung medizinischer Geräte oder zur Steuerung von Maschinen, von denen eine erhebliche Unfallgefahr ausgeht. Insofern ist der Bereich Haftung bei Softwarefehlern für die Hersteller sehr wichtig. Hier ist zu beachten, dass man insbesondere bei Schäden für Leib und Leben die Haftung nicht grundsätzlich durch einen Vertrag ausschließen kann. Und der Hersteller einer Software haftet nicht nur gegenüber seinen Kunden, mit denen er einen Vertrag hat, sondern um Umständen auch gegenüber Dritten, die durch einen Fehler seiner Software geschädigt wurden. Mit neuen Anwendungen wie dem autonomen Fahren wird dieses Thema sicher noch drängender werden. Das autonome Fahren ist übrigens bereits Teil einer Übungsaufgabe, wenn auch im Zusammenhang mit einer Straßenbahn und nicht mit einem Auto. Bleibt noch der für mich besonders spannende Bereich der Open Source Software. Hier geht es darum, verschiedene Arten von Open Source Lizenzen zu unterscheiden. Wer quelloffenen Code in einem eigenen Produkt verwendet muss je nach Lizenz unterschiedliche Dinge beachten. Gut, sich einmal mit so etwas zu beschäftigen. Dieser erste Teil des Moduls hat mir insgesamt gut gefallen. Ich konnte dem Text gut folgen, fand die Fallbeispiele nachvollziehbar und gut ausgewählt. Tests und Übungsaufgaben erschienen mir gut darauf abgestimmt. Teil 2 - E-Commerce-Recht In diesem Teil ging es zunächst noch einmal um das Vertragsrecht, diesmal im Zusammenhang mit E-Commerce. Der Gesetzgeber berücksichtigt, dass Kunden im Zusammenhang mit dem Online-Handel weniger Möglichkeiten haben, Ware vor Abschluss eines Vertrages zu prüfen und sich ein Bild vom Verkäufer einer Sache zu machen. Darum hat der Gesetzgeber mit dem Fernabsatzgesetz und dem Telemediengesetz dem Käufer zusätzliche Rechte verschafft und den Verkäufern und Anbietern umfangreiche Informationspflichten auferlegt. Da heute praktisch jeder Waren im Internet bestellt, dürfte dieses Kapitel für jeden relevant und interessant sein. Im nächsten Abschnitt geht es um Urheberrecht im Internet. Hier dreht es sich um Themen wie Schutz des Designs einer Webseite, Raubkopien geschützer Inhalte aber auch um das Recht auf Privatkopie. Neben dem Urheberrecht spielt bei Webinhalten auch das Markenrecht, das Domainrecht und das Wettbewerbsrecht eine Rolle. Hier landet man schnell bei einem ungeliebten aber wichtigen Thema: "Was gehört in ein Impressum?" Bei allem Ärger über den Abmahnirrsinn versteht man nach diesen Kapiteln immerhin etwas besser, was die grundlegende Idee hinter den einschlägigen und oft lästig erscheinenden Gesetzen ist. Recht spannend ist das Thema der Verantwortlichkeit im Internet, insbesondere wenn es um Inhalte geht, die Rechte verletzen. Das spielt ja auch hier im Forum eine Rolle. So ist zum Beispiel unser Forumsbetreiber Herr Jung als Access-Provider rechtlich nicht verpflichtet, jeden Post VOR seiner Veröffentlichung auf Rechtsverletzungen hin zu überprüfen. Das entbindet ihn aber nicht von seiner Pflicht, entsprechende Inhalte bei Bekanntwerden eines Rechtsverstoßes zu entfernen. Es gibt hier im Forum ja einige Regeln, die Teilnehmer zu beachten haben. Insbesondere gibt es auch Konsequenzen, wenn Regeln nicht eingehalten werden. Dies dient natürlich zum Teil auch dazu, eine gewisse "Forumskultur" zu erhalten. Fernstudium-Infos soll ja einerseits themenbezogen bleiben und andererseits sollen sich Nutzer auch wohl fühlen können. Aber ein Teil der Regeln und Konsequenzen dürfte eben auch damit zu tun haben, dass Herr Jung als Forumsbetreiber nicht für Rechtsverstöße seiner Nutzer haften möchte. Das entsprechende Kapitel im Lehrbuch schafft ein erstes Bewusstsein für diese Problematik. Kurz gestreift werden Fälle mit Berührung zum Ausland, was ja beim Anbieten von Waren, Leistungen und Inhalten im Netz häufig der Fall ist. Bis hierhin gefielen mir Lehrbuch, Tests und Aufgaben ausgesprochen gut. Stellenweise bemerkte ich bei meinen Recherchen zu Einsendeaufgaben, dass manche Gesetze und Verordnungen inzwischen durch neuere ersetzt waren. Das betrifft zum Beispiel weite Teile der BGB-InfoV, die inzwischen durch das EGBGB abgelöst wurde und eigentlich nur noch für Reiseverträge relevant ist. Das finde ich aber gar nicht schlimm. Recht ist ein menschliches Artefakt. Es entwickelt sich durch Gesetzgebung und Rechtsprechung. Schadet gar nicht, wenn man das als Studierender beim Bearbeiten eines Moduls in angemessener Dosierung zu schmecken bekommt. Teil 3 - Datenschutzrecht Leider finde ich die Dosierung im letzten Teil des Buches nicht mehr angemessen. In den letzten Wochen und Monaten hat vermutlich jeder Leser an seinem Mail-Eingang gemerkt: Die DSGVO ist in Kraft getreten und bringt z.B. neue Informationspflichten mit sich. Leider spielt sie im Lehrbuch keine Rolle. Ich versuche zunächst mal, diesem letzten Teil des Kurses etwas positives abzugewinnen, was durchaus gelingt. Geklärt werden zunächst einmal verschiedene Begrifflichkeiten im Zusammenhang mit Datenschutz, die als konzeptionelle Grundlage nicht verkehrt sind. Insbesondere begreift man bei Lektüre der Kapitel schnell: Nach bisherigem Datenschutzrecht sind eigentlich formulierte Ansprüche wie Auskunft über gespeicherte Daten, Löschung, Sperrung oder auch Berichtigung von falschen Daten für einen Betroffenen praktisch nur selten durchzusetzen. Das liegt daran, dass die bisherigen Datenschutzgesetze viele Ausnahmen formulierten. Tatsächlich fiel es mir beim Lesen der Gesetze oft schwer, unter den ganzen Ausnahmen auch noch meine Rechte zu entdecken. Insofern kann man sagen: Der bestehende Datenschutz ließ zu wünschen übrig. Und das, obwohl sich mit dem Internet die Möglichkeiten der missbräuchlichen Nutzung von Daten potenziert haben. Dafür schafft das Kapitel also ein Bewusstsein. Nun hätte ich gerne gewusst, ob das alles mit der DSGVO aus Betroffenensicht besser wird. Immerhin haben ja Firmen, Vereine und öffentliche Einrichtungen viel Arbeit damit, die neuen Regeln umzusetzen. Steht dem auch ein Nutzen für mich gegenüber? In diesem Modul erfährt man es leider nicht. Dafür ist es zu alt. Immerhin glaube ich, nach der Lektüre dieses Kursteils begrifflich besser gerüstet zu sein, Texte zur DSGVO zu lesen und zu verstehen. Das ist zwar auch ein Ergebnis, aber insgesamt finde ich das bei diesem Thema zu wenig. Insofern wäre es dringend Zeit, dass Lehrbuch in diesem Punkt auf einen aktuellen Stand zu bringen. Denkbar wäre auch, entsprechende Kapitel zumindest auf der Online-Plattform zügig nachzurüsten. Ob es entsprechende Pläne gibt, weiß ich nicht. Aber stünde ich noch am Anfang meines Studiums, würde ich mich vor Belegung des Modul einmal danach erkundigen. Um dann gegebenenfalls die Belegung noch zu verschieben. Tests, Einsendeaufgaben und Online-Klausur Über die tutorielle Betreuung kann ich mich nicht beschweren. Die Korrekturen kamen sehr zügig, auch bei der Online-Klausur. Die Tests haben für mich viele unklare Punkte noch einmal ausgeleuchtet. Die Einsendeaufgaben gefielen mir gut, auch und gerade im Hinblick auf die Präsenzklausur. Den Abschlusstest fand ich zu leicht bzw. nicht umfangreich genug. In der zur Verfügung stehenden Zeit hätte man durchaus etwas mehr verlangen dürfen, zumal diese Tests ja automatisch ausgewertet werden, also keinen Korrekturaufwand verursachen. Gut gefallen hat mir dagegen die Online-Klausur, weil die Aufgaben das gesamte Modul gut abdeckten und die Themen zum Teil auch vernetzten. Die Online-Klausur gibt auch in diesem Modul einen Vorgeschmack auf Art und Umfang der Aufgaben in der Präsenzklausur, ohne dieser vorzugreifen. So sollte es sein. Präsenzklausur Ob ich bei der Präsenzklausur auch geliefert habe, wird sich zeigen müssen. Im Vergleich zu den Einsendeaufgaben gab es nämlich einen großen Unterschied: Bei den Einsendeaufgaben konnte ich im Internet nach Gesetzen suchen und mir auch Kommentare oder Urteile durchlesen. Das half dabei, die Fallbeispiele zu beurteilen. Das ging in der Klausur natürlich nicht. Dort war ich auf das angewiesen, was mir auf Papier zur Verfügung stand. Interessant fand ich, dass das Thema Datenschutz keine große Rolle spielte. Vielleicht wird ja auf diese Weise berücksichtigt, dass die entsprechenden Kapitel im Lehrbuch nicht mehr aktuell sind. Ansonsten deckten die Aufgaben den Stoff sehr breit ab. Viele Aufgaben verbanden auch den Stoff verschiedener Kapitel im Lehrbuch. Es hat mir gut gefallen, dass so unterschiedliche Gesichtspunkte zu berücksichtigen waren. Insgesamt war es eine Klausur, die durchaus auch ein bisschen Spaß gemacht hat. Fazit Insgesamt bin ich nun aber froh, mein letztes Pflichtmodul einer schriftlichen Prüfung abgehakt zu haben. Es hat mir mit Sicherheit nicht geschadet, mich wieder einmal mit dem Thema Recht zu beschäftigen, aber Neigung und Interesse richten sich bei mir dann doch auf andere Dinge. Insbesondere sitzt mir das Thema Projektarbeit um Nacken. Hier muss ich nun rasche Fortschritte machen, um die gesetzte Abgabefrist auch einzuhalten. Habe ich einmal freie Zeit, so kreist mein Denken um mein Projekt und nicht so sehr um das Lehrbuch des nächsten Moduls. Darum habe ich auch ein wenig abgewogen, ob ich mir die Zeit für einen umfangreichen Modulbericht nehmen sollte. Zwei Punkte haben mich dazu bewogen: Bislang habe ich für jedes Modul, das ich belegt habe, auch einen Bericht geschrieben. Vor Aufnahme meines Studiums habe ich nach genau solchen Informationen gesucht und sie nicht gefunden. Das war für mich die wesentliche Motivation, diesen Blog anzufangen. Insofern habe mich entschieden, die Sache "durchzuziehen". Allzu viele Beiträge müssen es ja nun nicht mehr werden. Sollte ich IT-Recht bestanden haben, so bleiben mir tatsächlich nur noch 2 Pflichtmodule: Das Projekt und die Bachelorarbeit. Ich befinde mich nun also im letzten Abschnitt meines Studiums, wo es nicht mehr um Aneignung von Wissen geht, sondern darum, dieses anzuwenden und eigenständig neue Themen zu erkunden. Darauf fühle ich mich durch mein bisheriges Studium tatsächlich vorbereitet und ich freue mich auch darauf.
  8. Falls du GdI2 schreibst: Vor der Klausur mal ein paar UML-Klassendiagramme VON HAND zeichnen, das wäre eine gute Übung. Ich habe das Thema "analytische Qualitätssicherung" und insbesondere die Äquivalenzklassenbildung vernachlässigt, weil ich das damals nicht so spannend fand. Ist aber sinnvoll, das gründlich zu bearbeiten. Auch weil das Thema wieder kommt, z.B. im Modul "Software testen".
  9. Im Modul Mathe 1 gibt es gelegentliche Exkurse, bei denen bestimmte Themen des Moduls noch vertieft werden. Das ist interessant und aufschlussreich. Ich mochte das sehr. Es ist aber nicht immer klausurrelevant. Für die Klausurvorbereitung solltest Du Dich an Art und Umfang der Einsendeaufgaben orientieren. Die Aussagenlogik, die jedem Programmierer geläufig ist, ist lediglich die erste Stufe der Logik. In ihr ist die Aussage atomar, d.h. sie kann nicht weiter logisch analysiert werden. Sie ist als ganzes wahr oder falsch. Die nächste Stufe ist die Prädikatenlogik. Mit ihr kann man z.B. logisch präzise fassen, dass ein Objekt bestimmte Eigenschaften hat. Das kann man zum Beispiel in sogenannten Expertensystemen nutzen. Oder in logischen Programmiersprachen wie Prolog. Ab dann wird die Sache sehr vielfältig. Modallogik versucht Möglichkeit und Notwendigkeit zu fassen. Temporallogik fügt der Logik den Aspekt Zeit hinzu. Deontische Logik ermöglicht die Analyse normativer Aussagen, bei denen es zum Beispiel um Verpflichtung und Erlaubnis geht. Ja, hinter Logik steckt sehr viel mehr, als den meisten Informatikern klar ist. Sie ist ein eigener Bereich der Grundlagenforschung. Für die Klausur wichtig sind meiner Meinung nach vor allem Aussagenlogik, Mengenlehre, algebraische Strukturen und der Induktionsbeweis.
  10. Mangelnde Fairness gegenüber Leuten, die zuvor einen Bachelor gemacht haben, kann ich nicht erkennen. Wenn der Bachelor so entscheidendes Wissen vermittelt, wie von @andreas1983 hier dargestellt, dann werden Arbeitgeber dies bei der Personalauswahl zu berücksichtigen wissen. Wenn man vom Wert des klassischen Weges - erst Bachelor, dann Master - so überzeugt ist, dann braucht man auch keine Angst haben, dass andere einem hier die Butter vom Brot nehmen. Den Vergleich mit einem Führerschein finde ich unpassend. Wenn ich einen Führerschein habe, darf ich Auto fahren. Ich muss mich dann keiner Auswahl mehr stellen oder irgendwem plausibel machen, dass ich ein noch besserer Autofahrer bin als andere, die auch Autofahren gelernt haben. Wenn ich keinen Führerschein habe, darf ich nicht Auto fahren. Ein Hochschulabschluss ist etwas anderes. Für die meisten Jobs, in denen Hochschulabsolventen arbeiten, ist ein Hochschulabschluss keine formale Voraussetzung. Wenn ein Unternehmer will, kann er seine Putzfrau als Führungskraft einstellen. Und wenn er will, kann er einem promovierten Wirtschaftswissenschaftler anbieten, dass der für den Mindestlohn Fritten brodelt und Hamburger wendet. Ein Arbeitsverhältnis kommt dadurch zustande, dass zwei Vertragsparteien sich einig waren, es eingehen zu wollen. Ein Master ist ein Bildungsabschluss und kein Berechtigungsschein für eine Karriere.
  11. Das stand nicht im Mittelpunkt des Vortrages. Das Thema wurde schon klar aus der Perspektive Wirtschaftsinformatik betrachtet. Es ging also in erster Linie um die Frage, was für informationstechnische Möglichkeiten es gibt und wie man sie unternehmerisch nutzen kann. Die Probleme Datenschutz und Datensicherheit tauchten auf, aber vor allem unter den Blickwinkeln, dass Datenlecks einem Unternehmen schaden können, und dass es anspruchsvoll ist, Datenschutz und Datensicherheit zu gewährleisten. Natürlich steckt in dem von dir angesprochenen Problem wesentlich mehr. Data Mining Methoden finden Korrelationen, klassifizieren und kategorisieren Nutzer, machen Prognosen über deren Verhalten. Diese Erkenntnisse zu nutzen, bedeutet natürlich, vorhandene oder potentielle Kunden unterschiedlich anzusprechen. Das kann zum Beispiel heißen, dass man einem Kunden ein Produkt oder eine Dienstleistung zu bestimmten Konditionen anbietet und anderen nicht. Nun wäre zum Beispiel denkbar, dass Menschen aufgrund ihrer Rasse, ihrer Herkunft, ihres sozioökonomischen Status oder sogar aufgrund einer Behinderung unterschiedlich behandelt werden. Das könnte auch geschehen, wenn derlei Kriterien gar nicht direkt in die Auswertung eingehen. Im vergangenen Jahr hat ja Justizminister Heiko Maas eine Art Antidiskriminierungsgesetz für Algorithmen gefordert. Dazu gehörte auch die Forderung, die Funktionsweise von Algorithmen transparent zu machen. Hier ist ein entsprechender Artikel im Handelsblatt. Im gleichen Artikel wird Oliver Süme vom eco Branchenverband Internetwirtschaft mit dieser Äußerung wiedergegeben: Das klingt, als müsste zunächst ein Geschäftsmann eine Idee für eine diskriminierende Geschäftspraxis haben, für die er dann einen diskriminierenden Algorithmus in Auftrag gibt. Aber so einfach ist es nicht. Data Mining Techniken sollen ja in vorhandenen Datenbeständen bislang unbekannte Zusammenhänge entdecken. Künstliche neuronale Netze lernen, Muster zu erkennen. Wie sie ihre Leistungen vollbringen, ist auch für ihre Schöpfer nicht nachvollziehbar. Sie sind "Black Boxes". Ich meine, dass es daher durchaus denkbar ist, künftig die Verantwortung für eine de facto diskriminierende Geschäftspraxis auf Algorithmen abzuwälzen, die Korrelationen finden, nach denen man nie explizit gefragt hat. Wie in den Sketchen in Little Britain heißt es dann vielleicht achselzuckend: "Computer sagt sein." Natürlich verstehe ich auch den Einwand, dass eine enge Regulierung ein Wettbewerbsnachteil ist. Dann stehen die Server eben im Ausland, wo es für unsere gewählten Regierungen noch schwieriger wird, überhaupt einen Einfluss auszuüben. Eine einfache Antwort oder eine klare Meinung habe ich nicht. Umso wünschenswerter wäre es, über solche Themen zu diskutieren. Das ist dann natürlich kein reines Informatik-Thema mehr. So ein Bachelorstudiengang ist ja schon jetzt ziemlich vollgestopft mit Themen und Inhalten. Dennoch bleiben stets viele Wünsche offen, was man noch hätte lernen wollen und müssen. Manche Wirtschaftsstudiengänge enthalten ja inzwischen ein Ethik-Modul. Das wurde gerade nach der Finanzkrise chic. Ich glaube aber nicht, dass so etwas ausreicht. Die Bereitschaft, in einem breiteren gesellschaftlichen Rahmen zu denken und über Technikfolgen nachzudenken und zu diskutieren, lässt sich meiner Meinung nach nicht per Curriculum verordnen oder per Klausur abprüfen. Ich sehe es eher so: Neue Technologien und damit verbundener gesellschaftlicher Wandel schaffen Chancen aber auch Probleme und werfen viele neue Fragen auf. Informatiker können zu dieser Diskussion viel beitragen, weil sie besser als andere verstehen, wie neue Techniken funktionieren. Wenn aber technisch kompetente Akteure die gesellschaftliche Perspektive ausblenden, Probleme nicht ernst nehmen, herunterspielen oder sich schlicht für nicht zuständig erklären, müssen sie sich nicht wundern, falls eines Tages auch mal Entscheidungen ohne ihre Beteiligung fallen.
  12. Hier kommt die Fortsetzung meines Berichts über den Springer Campus Präsenztag am 10.03.2018. 12:15 Uhr - Vortrag: Big Data, Prof. Dr. Uwe Schmitz, FH Dortmund Ich gebe die Inhalte des Vortrages auf der Grundlage eigener Notizen in knapper Form wieder. Ausgangssituation Es ist zu erwarten, dass Industrie 4.0 die Industrieproduktion verändern wird. Es fallen massenhaft strukturierte Daten aus operativen Informationssystemen an. Hinzu kommen massenhaft unstrukturierte Daten, z.B. aus sozialen Netzwerken. Viele der anfallenden Daten bleiben noch ungenutzt. Was kennzeichnet Big Data? Volume (Umfang): Das Datenvolumen steigt jedes Jahr im den Faktor 40. Variety (Vielfalt): Es gibt eine Vielfalt der Formate und der Quellen. Daten können strukturiert, unstrukturiert und halbstrukturiert vorliegen. Strukturierte Daten kennzeichnen klassische Datenbanken. Unstrukturierte Daten sind z.B. Photos, Videos oder Audiodateien. Halbstrukturierte Daten sind z.B. E-Mails oder Word-Dokumente. Velocity (Geschwindigkeit): Hier geht es um die Geschwindigkeit, mit der Daten generiert und ausgewertet werden. Velocity hat zwei Aspekte. Zum einen die Geschwindigkeit, mit der Daten verarbeitet werden. Zum anderen die Geschwindigkeit, in der Daten sich ändern. Heute möchte man Updates möglichst in Echtzeit, d.h. die Geschwindigkeit der Verarbeitung soll mit der Geschwindigkeit der Veränderung Schritt halten. Veracity (Richtigkeit): Dies betrifft die Datenqualität. Man möchte wissen, mit welcher Wahrscheinlichkeit ein Wert valide ist. Beispielsweise müssen Stromerzeuger recht zuverlässig wissen, wie das Wetter der nächsten Tage wird, denn das beeinflusst Produktion und Verbrauch von Strom. Value (Mehrwert): Das Sammeln und Auswerten von Daten ist kein Selbstzweck. Die dazu nötigen Investitionen müssen sich lohnen. Aktuell bedeutsame Datenquellen sind noch immer Transaktionsdaten, Protokolldaten, Ereignisdaten. Transaktionsdaten werden seit Jahrzehnten in klassischen relationalen Datenbanken erfasst. Auch Log-Dateien gibt es seit langem. Für die Zukunft werden große Zuwächse bei anderen Datenquellen prognostiziert, z.B. bei Social Media, Sensordaten oder Geodaten. Die gesammelten Daten sind potentiell in allen Unternehmensbereichen nützlich, also z.B. im Vertrieb, in Finanzen & Controlling, im Marketing, in der Produktion, der Logistik, im Supply-Chain-Management und im Kundenservice. Big Data Technologie leistet einen unverzichtbaren Beitrag für die Industrie 4.0. Zu nennen sind vier Bereiche: Smart Factory: Sensoren schaffen bessere Planungsfähigkeit. Smart Operations: Vernetzte Produktion ermöglicht flexible Steuerung der Produktion. Smart Service: Durch Vernetzung von Produkt und Hersteller und werden neue Dienstleistungen möglich. Smart Products: Hier gab es eine kleine Diskussion über die Frage, was ein smartes Produkt kennzeichnet. Beispiel Netflix Die Plattform versucht vorauszusagen, was Nutzer künftig sehen wollen. Nutzerprofile werden dazu ausgewertet, z.B. Korrelationen, wann ein begonnener Film abgebrochen wurde. Auf diese Weise werden Präferenzen für Schauspieler, Inhalte, Themen und ähnliches für bestimmte Nutzergruppen ermittelt. Dies hat Auswirkungen auf die Produktion von Serien. Zum Beispiel wurde die bekannte Serie "House of Cards" auf der Grundlage solcher Nutzerdaten produziert. (Eigene Anmerkung: Natürlich haben Produzenten von Filmen und Serien immer versucht, den Geschmack ihrer Zielgruppen zu treffen. Neu erscheint mir hier, die Geschwindigkeit der Rückkopplung und die Verknüpfung von Informationen. Früher konnte man sagen, dass die Einschaltquoten für eine Serie zurückgegangen sind. Für jeden Zuschauer, der abspringt, kann man heute sagen, was er stattdessen geschaut hat.) Big Data Technologien verändern die Datenhaltung, den Datenzugriff, die analytische Verarbeitung, die Datenintegration und die Visualisierung. Beispiel Datenhaltung In-Memory-Datenbanken laden bei Programmstart den kompletten Datenbestand in den Hauptspeicher. Dies erhöht die Geschwindigkeit der Verarbeitung erheblich. Die Datenbankserver müssen dann natürlich besonders gegen Stromausfälle gesichert werden, z.B. durch Akkus. In zeitlichen Abständen gibt es Backups auf nicht-flüchtige Datenspeicher (Save Points). Diese Datenbanken können viele Terrabytes umfassen. Aufgrund der hohen Geschwindigkeit entfällt der bisherige ETL-Prozess. (ETL steht für Extract, Transform, Load. Bislang mussten Daten aus operativen Systemen aufbereitet und verdichtet werden, bevor man sie analysieren konnte. In-Memory-Datenbanken sind schnell genug, um direkt auf den vollständigen operativen Datenbeständen zu arbeiten.) Vorteile sind z.B. schnelle Reaktion auf Preisschwankungen, schnelle Sperrung bei Missbrauchsverdacht, schnelle Reaktion auf aufkommende Gerüchte (Shitstorm-Erkennung!), Verringerung von Out-of-shelf-Problemen, positiveres Image durch schnellere Reaktion auf Kundenanfragen. Ein Beispiel für eine In-Memory-Datenbank wäre SAP Hana. Beispiel Sentiment-Analyse Bei der Sentiment-Analyse geht es darum, wie eine Person zu etwas steht. So gibt es mittlerweile Standard-Extraktoren für Posts auf Plattformen wie Twitter und Facebook über standardisierte Schnittstellen. Diese ermitteln z.B. Korrelationen zwischen Schlüsselwörtern und Adjektiven wie "successful" oder "bad". Auf die Weise kann man nicht nur schnell ermitteln, wie ein Produkt, ein Service oder eine Organisation wahrgenommen wird, sondern auch, wie diese Wahrnehmung sich aktuell verändert. Das kann man im Marketing und in der Öffentlichkeitsarbeit nutzen. Anforderungen Um Big Data nutzen zu können, muss man verschiedene Arten von Anforderungen erfüllen: Technische Anforderungen: Dazu zählen z.B. Skalierbarkeit, um mit dem rasanten Wachstum der Bestände Schritt halten zu können, aber auch Schnittstellen, um Daten aus immer vielfältigeren Quellen verknüpfen zu können. Personelle Anforderungen: Es erweist sich als schwierig, Mitarbeiter mit den nötigen Kompetenzen zu beschaffen. Dazu später mehr bei den Herausforderungen. Organisatorische Anforderungen: Man braucht Regelungen zum Umgang mit den neuen Daten. Auch Regelungen zum Datenschutz sind wichtig. (Wie man in jüngerer Zeit immer wieder erleben muss, kann sorgloser Umgang mit Kundendaten den Ruf eines Unternehmens nachhaltig schädigen.) Projektspezifische Anforderungen: Hier geht es darum, Business-Cases zu finden, also Möglichkeiten, durch Analyse und Verknüpfung von Daten einen Mehrwert zu erzeugen. Dies könnten Einsparungen in der Produktion sein, eine schnellere Bereitstellung von Diensten als Mitbewerber, eine gezieltere Ansprache von Kunden durch Werbung, eine bessere Planung des Produktportofolios und vieles mehr. Herausforderungen beim Einsatz von Big Data Der Einsatz und die Einführung von Big Data Technologien ist mit verschiedenen Herausforderungen verbunden: Fehlendes analytisches Know-How: Ideale Mitarbeiter haben Kenntnisse in Statistik, BWL und Informationstechnologie. Die Person, die diese Fähigkeiten kombiniert, nennt man Data Scientist. Offen bleibt die Frage, wie wahrscheinlich es ist, diese Kompetenzen tatsächlich häufig genug vereint in einer Person zu finden. Voraussichtlich wird man eher interdisziplinäre Teams bilden müssen. Datenschutz: Hier geht es einerseits darum, was Unternehmen dürfen und müssen, und andererseits darum, wie Kunden auf Sicherheitslecks reagieren. Fehlendes technisches Know-how Datensicherheit: Wie verhindert man z.B. unauthorisierten Zugriff? Kosten Fehlender Business-Case Die Geschäftsprozesse sind nicht reif genug für den Einsatz von Big Data Wie etabliert man Big Data in einem Unternehmen? Dafür gibt es das BITKOM-Vorgehensmodell: Assessment: Eine Ist-Analyse erfasst, was die aktuellen Daten sind und wie die aktuelle Systemlandschaft aussieht. Readyness: Neue Datenquellen werden eingebunden. Die Datenquellen werden vereinheitlicht. Implementierung und Integration: Die eigentliche Einführung einer Big Data Applikation. Konsilidierung und Migration Nutzung der neuen Daten Reportung und Predictive Analytics: Hier geht es um die Gewinnung neuer Einsichten, indem man unbekanntes und ungenutztes Wissen in den zusammengeführten Datenbeständen entdeckt. End-to-End-Prozesse: Man wandelt die gewonnenen Einsichten in Vorteile, indem man neue und bessere Geschäftsprozesse konzipiert und einführt. Im Grunde wird erst durch diesen Schritt der Nutzen realisiert. Optimierung und Tuning: Hier geht es um die Frage, wie eine künftige und bessere Systemlandschaft aussehen könnte. Damit schließt sich ein Kreis und die Phasen können erneut durchlaufen werden. Erwarteter Nutzen Durch den Einsatz von Big Data erwartet man vielfältigen Nutzen: Bessere Informationen über das Informations- und Konsumverhalten der Kunden Bessere Steuerung von Marketing und Vertrieb Optimierte Logistik Einschätzung von Marktpotentialen und Business Cases Höhere Renditen durch optimierte Preisgestaltung: Das ist ein heißes Eisen. Technisch betrachtet, könnten Algorithmen eine Prognose erstellen, wie viel ein Kunde für ein Produkt oder eine Leistung zu zahlen bereit oder in der Lage ist. Sie könnten dann einen individuellen Preis je nach Größe des Geldbeutels und Ausgabenbereitschaft machen. (Eigene Anmerkung: Rechtlich ist das problematisch. Bekannt wurde zum Beispiel, dass Disneyland Paris unterschiedliche Preise je nach Herkunftsland der Kunden nahm.) Wettbewerbsvorteile durch genauere Marktkenntnis Reifegrad-Modelle Reifegrad-Modelle beantworten die Frage: Ist mein Unternehmen reif genug, um Big Data Technologien einsetzen zu können? Ein Beispiel ist das Business Intelligence Maturity Model von Steria Mummert Consulting. Es unterscheidet fünf Stufe der Reife. Lokale Daten, bezogen auf bestimme einzelne Aufgaben Informationsinseln, z.B. nach Unternehmensbereichen Informationsintegration, d.h. die Daten sind unternehmensweit vernetzt Informations-Intelligence, d.h. die Daten sind logisch integriert Informationsgetriebenes Unternehmen Zur Person Prof. Dr. Uwe Schmitz betreut im Online-Studiengang B.Sc. Wirtschaftsinformatik die Module "Strategisches Management & Controlling" und "Grundlagen BWL". Soweit zum ersten Vortrag des Präsenztages. 13:30 Uhr - Vortrag: DevOps, Dr. Hendrik Neumann (W3L AG) Nach einer Pause gab es ab 13:30 Uhr einen weiteren Vortrag zum Thema "DevOps" von Dr. Hendrik Neumann (W3L AG), der ebenfalls interessant und aufschlussreich war. Allerdings machte sich an diesem Punkt bemerkbar, dass ich am gleichen Tag auch noch eine zweistündige Klausur geschrieben hatte. Die Qualität meiner Notizen war leider nicht mehr ausreichend, um die Inhalte hier detailliert wiederzugeben. Fazit Wichtig war wie immer auch der informelle Austausch mit anderen Studierenden. In Kombination mit dem gebotenen Programm war es die lange Anfahrt nach Dortmund wert. Allmählich kommt für mich die Zielgerade in Sicht. Allzu oft werde ich wohl nicht mehr Gelegenheit haben, an einem Präsenztag teilzunehmen. Mindestens einmal fahre ich aber noch nach Dortmund, wahrscheinlicher sogar zweimal. Ich werde hier im Blog berichten.
  13. Sie wurde positiv bewertet. Was mich überrascht hat. 36 von 160 kommt mir nicht viel vor.
  14. Bei Springer Campus sind Präsenztage zugleich auch Prüfungstage. Am Freitag, dem 09.03.2018 gab es drei Slots für schriftliche Prüfungen. Außerdem konnte man am Vormittag auch mündliche Prüfungen ablegen. Ich bin am Freitag angereist, hatte aber keinen Prüfungstermin. Stattdessen hatte ich Gelegenheit vis-a-vis mit dem Professor zu sprechen, der meine Bachelorarbeit betreuen soll. Das erwies sich als ausgesprochen nützlich, weil man in der direkten Kommunikation vieles doch schneller klären kann als per E-Mail. Ein Ergebnis dieses Gespräches ist, dass ich nun auch meine Projektarbeit von ihm betreuen lassen möchte. Die Projektarbeit und die Bachelorarbeit bauen bei mir thematisch nicht aufeinander auf. Deswegen war ich ursprünglich der Ansicht, hier verschiedene Betreuer wählen zu können. Inzwischen ist mir klar geworden, dass die Projektarbeit eine weitere Chance ist, sich mit den Anforderungen wissenschaftlichen Arbeitens in der Informatik vertraut zu machen. Das ist für meine Bachelorarbeit natürlich nützlich und auch weitgehend unabhängig vom jeweils behandelten Thema. Ich hoffe, dass die kontinuierliche Betreuung durch EINEN Professor mir helfen wird, Rückmeldungen und Erfahrungen aus der Projektarbeit für meinen letzten Schritt zu nutzen. Meine Klausur im Modul "Multimedia" hatte ich erst für Samstag, den 10.03.2018 angemeldet. Zwischen 8:30 und 10:30 Uhr war ich fällig. Der eigentliche Präsenztag ging dann nach einer kurzen Kaffeepause um 10:45 Uhr los. 10:45 Uhr - Aktuelles für Studierende Frau Kreissig berichtete über neue Entwicklungen und Themen aus dem Studium. Zeitgleich lief nebenan eine Infoveranstaltung über die Studiengänge Web- und Medieninformatik, Wirtschaftsinformatik, Biologie, Chemie und Elektrotechnik. Wie üblich stellte Frau Kreissig zunächst das Team von Springer Campus vor. Anschließend ging es um die Ergebnisse der Umfrage. 160 Studierende wurden befragt. Es gab 36 Rückläufer. Ich gebe nur einige wenige für mich markante Ergebnisse wieder. Als Studienmotivation wurde natürlich die Erlangung des Bachelors besonders häufig genannt. Aber noch häufiger wurde ein Interesse an persönlicher Weiterentwicklung angegeben. Vielleicht unterscheidet sich ja die Studienmotivation von Fernstudierenden, die in der Regel schon eine berufliche Qualifikation haben, an diesem Punkt von Präsenzstudierenden, für die es meist darum geht, einen ersten berufsqualifizierenden Abschluss zu erlangen. Von den Studierenden geschätzt wurde besonders die organisatorische Betreuung durch das Studienbüro, die festen Ansprechpartner und die inhaltliche Begleitung durch die Tutoren der Module. Auch die hohe Flexibilität im Studiengang wurde postiv bewertet. Kritik gab es an der mangelnden Aktualität einzelner Module. Bei bestimmten Modulen gab es auch den Wunsch nach einem höheren Praxisbezug. Hier sollte man vielleicht im Hinterkopf haben, dass die meisten unserer Studierenden einschlägig beschäftigt sind und somit Theorie im Studium und Praxis im Beruf nebeneinander erleben. Dies ermöglicht womöglich Vergleiche, die typische Studienanfänger an Präsenzhochschulen so nicht ziehen können. Nach einem kurzen Überblick über die Prüfungstermine bis zum nächsten Präsenztag im Sepember 2018 stelle Frau Kreissig neue Dozenten vor. Prof. Dr. Barghorn von der Jade-Hochschule (Wilhelmshaven, Oldenburg, Elsfleth) wird künftig Web-Design betreuen. Dr. habil. Andrea Hermann betreut Softwaretechnik 1 und 2. Prof. Dr. Uwe Schmitz übernimmt Strategisches Management & Controlling. Dieses Modul kann somit wieder belegt werden. Dr. Hartwig übernimmt Softwaremanagement 1 und 2 sowie Selbst- und Zeitmanagement. Andrea Hermann betreut außerdem als Tutorin Wissenschaftliches Arbeiten. Die Vorbereitungen für die Reakkreditierung der Studiengänge Web- und Medieninformatik sowie Wirtschaftsinformatik laufen. In diesem Zusammenhang dürfen die Studierenden damit rechnen, weitere Fragebogen zu erhalten. Studierende wenden sich besonders häufig mit Fragen zum wissenschaftlichen Arbeiten an das Studienbüro. Aus gutem Grund ist das Modul Wissenschaftliches Arbeiten inzwischen ein Pflichtmodul. Das Studienbüro unterstützt bei der Suche nach Betreuern für die Projekt- und Bachelorarbeit. (Aus eigener Erfahrung kann ich sagen, dass diese Vermittlung sehr hilfreich ist. Präsenzstudierende kennen die Professoren aus den Lehrveranstaltungen und haben deshalb vielleicht schon eine Idee, wer sie bei einem bestimmten Thema gut betreuen könnte. Als Fernstudent profitiert man davon, dass die Mitarbeiter des Studienbüros eine Lotsenfunktion übernehmen, denn sie kennen die Professoren vor Ort.) Wer gerne eine Projektarbeit oder seine Bachelorarbeit auf dem Präsenztag präsentieren möchte, ist eingeladen, sich an das Studienbüro zu wenden. (In diesem Zusammenhang erinnere ich mich gerne an die Präsentation einer Bachelorarbeit auf dem letzten Präsenztag, aus der ich für mich viel mitgenommen habe. Ich finde es ungemein nützlich, etwas über die Erfahrungen von Studierenden zu lernen, die einen Schritt weiter sind als man selbst.) Gesellschaftliches Engagement im Fernstudium Ein besonderer inhaltlicher Schwerpunkt an diesem Präsenztag war das Thema "Gesellschaftliches Engagement". Laut Frau Kreissig kommt dieses Thema in Fernstudiengängen oft zu kurz. Präsenzunis bieten ihren Studierenden viele Möglichkeiten, sich außerhalb ihres eigenen Studienganges zu engagieren. Neben Veranstaltungen des Studium generale, die den engen Horizont des eigenen Studienfachs erweitern und ergänzen sollen, gibt es vielfältige Möglichkeiten, sich in der studentischen Selbstverwaltung und in studentischen Gruppen zu engagieren. Dies trägt einerseits dazu bei, das eigene Qualifikationsprofil um soziale, organisatorische und kommunikative Kompetenzen zu ergänzen. Aber unabhängig von diesem qualifizierenden Aspekt ist gesellschaftliches Engagement per se wünschenswert, auch für Fernstudierende. Frau Kreissig stellte als Beispiel einige Projekte und Initiativen vor, die der Springer Verlag unterstützt. Diese sind zum Teil regional (z.B. am Standort Heidelberg), zum Teil international. Wer sich dafür interessiert, findet nähere Informationen auf der Springer Homepage. Darum überspringe ich diesen Teil hier. Interessanter und für mich als Fernstudierenden konkreter fand ich die Frage, was für Möglichkeiten Fernstudierende selbst haben, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ein bisschen skeptisch war ich schon, denn viel zeitlichen Spielraum sehe ich durch die Doppelbelastung von Beruf und Studium eigentlich nicht mehr. Frau Kreissig hat jedoch einige Möglichkeiten vorgestellt, die z.T. sogar einen gewissen Bezug zur Lebenssituation Studium haben. Ein paar möchte ich hier wiedergeben: Projekt- und Bachelorarbeit: Man könnte seine Projekt- oder Bachelorarbeit nicht in einem Unternehmen sondern in einer Non-Profit-Einrichtung oder einem sozial oder gesellschaftlich relevanten Bereich machen. (Hier fühle ich mich an den Studiengang Sozialinformatik der Hochschule Fulda erinnert, für den ich mich ja ursprünglich einmal interessiert hatte. Dort gehört zum Curriculum ein Softwareprojekt im sozialen Bereich. Die Idee finde ich zumindest nachdenkenswert, denn eine Projekt- und Bachelorarbeit muss man ja ohnehin schreiben.) Citizen Science: Viele wissenschaftliche Disziplinen profitieren von der ehrenamtlichen Mitwirkung von Laien. Ein Beispiel ist die Astronomie. Nach einer kurzen Online-Schulung können interessierte Laien etwa helfen, Hubble-Aufnahmen zu kategorisieren, die bislang noch nicht von Algorithmen ausgewertet werden können. (Auch in der Biologie ist man - etwa für Zwecke des Artenschutzes - stark auf ehrenamtliche Naturbeobachter angewiesen.) Interessant finde ich hier den Wissenschaftsbezug des Engagements. Social Hackathons: Hier treffen sich ehrenamtliche Programmierer, um in einem begrenzten Zeitrahmen für ein soziales Projekt eine digitale Lösung zu programmieren, etwa eine Web-Anwendung oder eine Homepage. Das hat einen klaren Bezug zum Informatik-Studium und ist eventuell sogar eine Empfehlung für künftige Arbeitgeber. Neben diesen Möglichkeiten mit Studienbezug stellte Frau Kreissig auch einige eher allgemeine Möglichkeiten vor, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ich möchte hier nur eine Möglichkeit wiedergeben, die wenig Zeit erfordert und potentiell lebensrettend sein kann. Wer alle zwei Jahre eine achtstündige Weiterbildung in Erster Hilfe besucht, kann sich am eigenen Arbeitsplatz als Ersthelfer zur Verfügung stellen. Unternehmen müssen ohnehin Ersthelfer ausbilden und benennen. Weil Mitarbeiter nicht nur am Arbeitsplatz sondern auch in öffentlichen und privaten Räumen unterwegs sind, profitieren indirekt auch Familien und die Gesellschaft davon, dass Menschen mit Kenntnissen in Erster Hilfe in der Nähe sind. Den Abschluss des Vortrags bildete eine Verlosung eines Buches über KI. Soviel zum Abschnitt "Aktuelles für Studierende". In einem meiner nächsten Beiträge möchte ich über den Vortrag "Big Data" von Prof. Dr. Uwe Schmitz berichten. Er betreut im Fernstudiengang das Modul "Strategisches Management & Controlling".
  15. Einbettung in den Studiengang Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt. Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden. Das Lehrbuch Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste. Multimedia wird im Buch aus drei Blickwinkeln betrachtet: Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind. Kapitel: Bild Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen. Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert. Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht. Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht. Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können. Kapitel: Audio Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht. Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können. Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden. Kapitel: Video Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton. Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen. Kapitel: 2D-Animation mit Flash Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten. Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann. Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden. Kapitel: 3D-Animation mit VRML Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte. Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein. Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt. Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt. Kapitel: Einsatz dynamischer Medien Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind. Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel. Die Einsendeaufgaben Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen. Die Präsenzklausur Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben.. Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt. Fazit Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden. Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen. Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.
  16. Hallo Waproks, ich freue mich, dass noch jemand über sein Studium bei Springer Campus bloggen will. Deinen Beiträgen möchte ich folgen. An deinen Eindrücken bin ich sehr interessiert. Ich wünsche Dir einen guten Start ins Studium.
  17. Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager". Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde. Lehrbuch Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge. Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben. Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt. Inhalte & Themen Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab. Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat. Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2". Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden. Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt. Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen: sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren. Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen. Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt. Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie. Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl. Klausur In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht. Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben. Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK. Fazit "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen. Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.
  18. Das Thema Testen kam in unserem Studiengang schon einmal knapp im Modul "Grundlagen der Informatik 2" vor. Das ist bei uns die Einführung in die objektorientierte Programmierung mit Java. Damals wurde vor allem die funktionale Äquivalenzklassenbildung und die Grenzwert-Analyse behandelt. Das war ein Thema, das ich damals noch nicht ganz so spannend fand. Bei der Vorbereitung auf die Klausur habe ich mich dann entschlossen, dieses EINE Kapitel nicht zu wiederholen. In der Klausur kam es natürlich dran, was mich auch ein paar Punkte gekostet hat. Da ich mit OOP ansonsten gut zurecht gekommen war, konnte ich diese Schwäche gut ausgleichen. Im Hinterkopf geblieben ist mir allerdings, dass meine Prüfer anscheinend Testen für ein wichtiges Thema hielten. Da im Curriculum ein eigenes Modul dazu vorgesehen war, wusste ich, da kommt noch mal was.
  19. Zur Rolle des Moduls im Studium Das Modul "Software-Testen" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es wird dort dem Studienbereich "Softwaretechnik" zugerechnet. Formal darf das Modul jederzeit belegt werden, aber als fachliche Grundlage werden viele andere Module empfohlen: Grundlagen der Informatik 1 Grundlagen der Informatik 2 Grundlagen der Informatik 3 Softwaretechnik 1 Softwaremanagement 1 Diese Empfehlung finde ich im Großen und Ganzen plausibel, auch wenn ich selbst das Modul "Softwaremanagement" nocht nicht belegt hatte. Aufgrund der vielfältigen Voraussetzungen wundert es nicht, dass die Belegung erst für das 5. Fachsemester empfohlen wird. Es ist also eines der letzten Pflichtmodule. Für den Studiengang "Wirtschaftsinformatik" ist das Modul nicht vorgesehen, nicht einmal im Wahlpflichtbereich. Es ist aber ein Baustein des Hochschulzertifikates "Software-Manager". Das Lehrbuch Das Buch "Basiswissen Testen von Software" von Torsten Cleff hat knapp 300 Seiten. Der Umfang ist für ein Modul bei Springer Campus also unterdurchschnittlich. Ziel des Lehrbuches ist, Grundwissen zu Testtechniken aber auch zu Prüftechniken zu vermitteln, so dass Fehler möglichst früh entdeckt und behoben werden. Die Erfahrung zeigt, dass die Kosten für die Behebung von Fehlern umso niedriger ausfallen, je früher ein Fehler entdeckt wird. Gemeint sind hier nicht nur Fehler im Quellcode, an die ich zu Beginn des Moduls als erstes gedacht habe. Fehler können auf allen Ebenen der Software-Entwicklung passieren, z.B. auch beim Erfassen von Anforderungen, bei der objektorientierten Analyse oder beim Entwurf, also bevor auch nur die erste Zeile Code geschrieben ist. Grundlagen Im ersten Teil des Buches werden vor allem Begriffe geklärt. Interessant war für mich z.B. die Unterscheidung von Teststufen, die jeweils mit Entwicklungsstufen eines Softwaresystems korrespondieren. Zu den vertraglichen Anforderungen an ein Software-Produkt gehört ein Abnahmetest, zur Produktdefinition ein Systemtest, zum Produktentwurf ein Integrationstest und zum Komponentenentwurf ein Komponententest. Nun ist klar, dass der Komponententest der erste Test ist, den man machen kann, wenn Quellcode vorliegt. Erst kann man die Integration von Komponenten testen und so fort. Die Teststufen folgen also in entgegensetzter Reihenfolge wie die Entwicklungsstufen. Visualisiert man diesen Ablauf, steigt man vom Anforderungsdokument Stufe um Stufe hinab bis zur Implementierung und arbeitet sich dann mit den Tests Stufe im Stufe wieder hinauf bis zu den Anforderungen. Der visualisierte Ablauf hat die Form des Buchstabens V, weshalb man auch vom V-Modell spricht. Interessant sind auch die verschiedenen Integrationsstrategien. Bei der Bottom-up Integration, baut und testet man zunächst Komponenten, die keine Dienste untergeordneter Komponenten in Anspruch nehmen. Dann baut und testet man die Komponenten, die auf diesen aufsetzen. So arbeitet man sich Stufe für Stufe nach oben. Ein Vorteil dieser Strategie ist, dass man keine Platzhalter programmieren muss. Der Nachteil ist, dass man das Zusammenspiel der Komponenten im Großen erst spät testen kann. Darum gibt es auch eine Top-down Integrationsstrategie. Hier werden möglichst bald Komponenten höherer Ordnung getestet. Da diese untergeordnete Komponenten brauchen, die noch nicht vorliegen, muss man viele Platzhalter programmieren. Dafür bekommt man früh einen Eindruck des Gesamtsystems aus Benutzersicht. Interessant waren auch die verschiedenen nicht-funktionalen Testverfahren. So werden z.B. bei einem Stresstest die definierten Leistungsgrenzen eines Systems bewusst überschritten, etwa um zu testen, ob das System nach einer Überlastung wieder in den Normalzustand zurückkehren kann. Testfälle entwickeln Diesen Kursabschnitt betrachte ich als den inhaltlichen Kern des Moduls. Der größte Anteil der Einsendeaufgaben aber auch der Aufgaben in der Online- und Präsenzklausur bezieht sich hierauf. Black-Box-Tests Zunächst geht es um spezifikationsorientierte Testtechniken. Komponenten sollen zu bestimmten Kombinationen von Eingabewerten eine Ausgabe entsprechend der Spezifikation liefern. Diese Tests werden auch als Black-Box-Tests bezeichnet, weil hier nicht interessiert, wie eine Komponente intern arbeitet. Es geht allein darum, ob sie zu gegebenen Eingaben die erwarteten Ausgaben liefert. Die erste derartige Testtechnik ist die funktionale Äquivalenzklassenbildung. Hier fasst man gleichwertige Eingabewerte zu einer Klasse zusammen, aus der man einen Repräsentanten auswählt. Getestet wird nur mit dem Repräsentanten, was den Testaufwand beträchtlich reduziert. Da die Erfahrung zeigt, dass Fehler vor allem an Klassen- und Intervallgrenzen auftreten, gibt es die Grenzwertanalyse. Hier wählt man als Repräsentanten Werte an den Grenzen eines Intervalls. Bei beiden Testtechniken ist wichtig, dass man gültige und ungültige Repräsentanten testet. Ungültige Repräsentanten sollten dann z.B. dazu führen, dass eine Exception geworfen wird. Der Entscheidungstabellentest eignet sich, wenn eine natürlich-sprachliche Testbasis vorliegt. Er ermöglicht, die verschiedenen Kombinationen von Eingangsbedingungen übersichtlich darzustellen. Oft ist es dann möglich, Fälle zusammen zu fassen und die Tabelle auf diese Weise stark zu vereinfachen. Auch dies kann den Testaufwand erheblich reduzieren. Bei der Ursache-Wirkungsanalyse visualisiert man die Beziehungen zwischen Ursachen und Wirkungen als Graph, dessen Kanten logische Verknüpfungen sind. Solche Graphen lassen sich in Entscheidungstabellen überführen. Beim zustandsbezogenen Test modelliert man ein System als Zustandsautomaten. So kann man die Historie des Systems in den Test einbeziehen. Das Zustandsdiagramm lässt sich in eine Zustandstabelle und in eine Zustandsmatrix überführen. Daraus lassen sich wiederum Testfälle ableiten. Interessant ist diese Testart z.B. für Systeme aus der Automatisierungstechnik. Auf höheren Teststufen gibt es den anwendungsfallbasierten Test. Ein konkreter Anwendungsfall wird als Use-Case-Diagramm modelliert. Auch hieraus lassen sich Testfälle ableiten. White-Box-Tests Während bei den spezifikationsorientierten Testtechniken nicht relevant ist, wie eine Komponente ihre Leistung erbringt (Black-Box-Test), muss man für die kontrollfluss-orientierten Testtechniken den Quellcode eines Programmes kennen. Darum werden diese auch als White-Box-Tests bezeichnet. Bei diesen Testtechniken visualisiert man den Kontrollfluss durch den Quelltext als Graph. Beim Anweisungsüberdeckungstest möchte man durch geschickte Auswahl möglichst weniger Testfälle sicherstellen, dass alle Anweisungen des Quellcodes ausgeführt werden. Beim Zweigüberdeckungstest sollen die Testfälle nicht nur alle Anweisungen (Knoten) des Graphen abdecken. Auch alle Zweige (Kanten) sollen mindestens ein Mal durchlaufen werden. Dieser Test ist also umfassender als der Anweisungsüberdeckungstest. Noch weiter geht der Bedingungsüberdeckungstest. Er beschäftigt sich mit der Kombination von Bedingungen, die erfüllt sein müssen, damit ein Zweig durchlaufen werden kann. Diese lassen sich z.B. wie eine Digitalschaltung visualisieren. Beim Pfadüberdeckungstest müssen nicht nur alle Kanten durchlaufen werden, sondern jeder mögliche Pfad vom Startpunkt bis zum Endpunkt eines Programmes. Die Zahl möglicher Pfade wächst oft sehr schnell. Entsprechend wächst auch die Zahl nötiger Testfälle. Erfahrungsbasiertes Testen Freies Testen ist ein erfahrungsbasiertes Verfahren. Die Testfälle basieren auf Testhypothesen eines erfahrenden Testers. Da hier die Intuition eine große Rolle spielt, sind solche Verfahren schlecht formalisierbar und nicht leicht in den Entwicklungsprozess zu integrieren. Sie werden daher meist nur ergänzend eingesetzt. Fehlerhypothesen lassen sich methodischer ableiten, wenn man auf der Grundlage bisher entdeckter Fehler Fehlerklassen bildet. Das sind Gruppierungen typischer Schwachstellen, die in vergangenen Tests an ähnlichen Systemen aufgefallen sind. Ein Beispiel für so eine Fehlerklasse wären etwa Fehler bei Klassen oder Datentypen. Konkrete Ausprägungen dieser Fehlerklasse wären dann z.B. Fehler bei Mehrfachvererbung, Typtransformationen oder fehlerhafte Deklarationen von Attributen oder Methoden. Exploratives Testen ergänzt das erfahrungsbasierte Testen um ein Element der Analyse und Reflexion. Die dadurch gewonnenen Einsichten werden für die Entwicklung der nächsten Fehlerhypothesen genutzt. Auch dies ist ein Versuch, erfahrungsbasiertes Testen methodischer zu machen. Testen vs. prüfen Ein weiterer thematischer Schwerpunkt des Moduls sind Prüftechniken. Während bei Tests vorausgesetzt ist, dass man ein Testobjekt ausführen kann, wird bei einer Prüfung ein Artefakt der Softwareentwicklung nicht ausgeführt sondern inhaltlich nach formalen Kriterien kontrolliert. Dies hat verschiedene Vorteile: Nicht nur Quellcode kann geprüft werden, sondern auch Spezifikationen, Modelle, Dokumentationen oder andere Artefakte des Entwicklungsprozesses. Man benötigt keine Testumgebung, Testdaten oder Testtreiber Testen kann man erst, wenn Code vorliegt. Prüfen kann man dagegen in jeder Phase. Entscheidend ist, dass man durch Prüfverfahren Fehler viel früher entdecken kann als durch Tests. Dadurch lassen sich Kosten vermeiden. Allerdings lassen sich durch Prüfungen nicht alle Arten von Fehlern entdecken. Zum Beispiel lassen sich Leistungskennzahlen auf diesem Weg nicht ermitteln, denn dazu müsste Code ausgeführt werden. Im Kurs behandelte manuelle Prüftechniken sind die Inspektion, das technische Review, der Walkthrough und das informelle Review. Softwaremaße Es gibt aber auch automatisierte Prüftechniken. So lassen sich z.B. mit geeigneten Werkzeugen sogenannte Softwaremaße bestimmen. Ein gängiges Maß ist sind zum Beispiel die Lines of Code (LOC), mit denen der Umfang eines Quellcodes angegeben wird. Dieses Maß ist nicht so selbstverständlich, wie es auf den ersten Blick scheint. LOCs können stark schwanken, je nachdem welche Formatierungskonventionen angewendet wurden. Dennoch werden LOCs häufig für grobe Umfangsschätzungen verwendet. Ein genaueres Umfangsmaß ist das Halstead-Maß. Dazu muss man zunächst alle Operanden und Operatoren eines Quellcodes auszählen. Die Anzahl unterschiedlicher Operatoren bezeichnet man mit N1, die der unterschiedlichen Operanden als N2. Operatoren sind z.B. Schlüsselwörter einer Programiersprache, Klammern aber auch Modifier, die die Sichtbarkeit einer Variable festlegen. Operanden sind z.B. Variablen oder auch boolesche Werte wie true oder false. Halstead bezeichnet nun die Summe N1+N2 als Vokabular eines Programmes. Als Volumen bezeichnet er die Summe N1+N2+log(N1+N2). Man kann sich vorstellen, dass das manuelle Auszählen von Operatoren und Operanden für Menschen eine mühselige Arbeit ist. So etwas kann automatisch von Werkzeugen erledigt werden, weshalb man in diesem Zusammenhang von automatisierten Prüftechniken spricht. Das McCabe Maß wird auch als zyklomatische Komplexität beschrieben. Um das McCabe-Maß berechnen zu können, muss man die Knoten und Kanten eines Kontrollflussgraphen auszählen und die Anzahl verbundener Kontrollflussgraphen bestimmen. McCabe liefert die maximale Zahl linear unabhängiger Programmpfade. Damit kann man abschätzen, wieviele Testfälle man für einen Zweigüberdeckungstest braucht. Es gibt auch Maße für Bindung und Kopplung von Komponenten. Problemmuster Problemmuster sind Anomalien im Quelltext, die erfahrungsgemäß die technische Qualität eines Programms senken. Sie lassen sich durch geeignete Werkzeuge aufspüren, damit sie überarbeitet werden können. Ein bekanntes Beispiel ist die Codedopplung. Wenn an verschiedenen Stellen des Programmes identischer Quellcode steht, muss man bei Änderungen alle entsprechenden Stellen finden. So etwas wird von einem Wartungsprogrammierer leicht übersehen. Meist ist es dann besser, solchen Code in einer eigene Komponente oder Methode zusammenzufassen. Das vermeidet Probleme bei künftiger Wartung. Im Kurs werden viele weitere Problemmuster vorgestellt, etwa mangelnder Polymorphismus, die Verletzung des Geheimnisprinzips, die Verwendung einfacher Typen, die zu Datenklumpen führt oder auch problematisch zusammengesetzte Datentypen. In den letzten Kapiteln geht es um das Management von Softwaretests sowie die Automatisierung von Tests. In diesem Zusammenhang werden auch ein paar Testwerkzeuge knapp vorgestellt. Online-Tests und Einsende-Aufgaben Die Tests decken die Inhalte des Moduls gut ab. Die Einsendeaufgaben konzentrieren sich vor allem auf die Kapitel zur Entwicklung von Testfällen. Aber auch das Entdecken von Problemmustern in Quellcode und die Bestimmung von Softwaremaßen spielt eine Rolle. Man vereinfacht Entscheidungstabellen, zeichnet Kontrollflussgraphen zum Quelltext, verbessert Anomalien in Quellcode, visualisiert komplexe Bedingungen als Digitalschaltung, zeichnet Zustandsautomaten, findet Testklassen, Repräsentanten und Testfälle. Die Aufgaben sind also recht vielfältig. Bei einigen Aufgabentypen hätte ein wenig mehr Übungsmaterial nicht geschadet. Die Aufgaben sind aber didaktisch geschickt gewählt, so dass sie zum Verständnis der vermittelten Konzepte beitragen. Insbesondere geben die Aufgaben einen guten Vorgeschmack auf das, was einen in der Online- und in der Präsenzklausur erwartet. Die Rückmeldungen meines Tutors kamen auch in diesem Modul sehr zügig. Sein Stil war manchmal etwas knapp, so dass ich gelegentlich noch einmal nachfragen musste. Das hat sich aber dann auch gelohnt und kleinere Unsicherheiten behoben. Ich hatte übrigens den gleichen Tutor wie im Modul "Grundlagen der Informatik 2" zu Beginn meines Studiums. Bei ihm habe ich objektorientiertes Programmieren gelernt. Ich habe mich sehr gefreut, gegen Ende meines Studiums noch einmal von ihm betreut zu werden. Präsenzklausur Die Aufgabentypen der Klausur ähnelten den Einsendeaufgaben, so dass man eigentlich gut vorbereitet sein sollte, wenn man alle Aufgaben bearbeitet und die Rückmeldungen seines Tutors genutzt hat. Wissensfragen zu den Prüftechniken spielten auch eine gewisse Rolle. Ich empfand das Arbeitspensum als angemessen für die Dauer der Klausur. Bei den Aufgaben zur Äquivalenzklassenbildung und Grenzwertanalyse wollte man den Studierenden anscheinend etwas Zeit ersparen, indem man Tabellen zur Verfügung gestellt hat, in die man z.B. Testfälle eintragen konnte. Das Layout dieser Tabellen war für mich allerdings ungewohnt und überraschend. Ich selber hätte meine Tabellen anders aufgebaut, so dass ich gelegentlich Lösungen in falsche Felder eingetragen habe, was ich dann wieder korrigieren musste. Das hat Zeit und Nerven gekostet. Nach der Klausur sprach ich mit einem Kommilitonen, dem es ähnlich ergangen war wie mir. Der hatte die zur Verfügung gestellten Tabellen gar nicht erst genutzt sondern sich lieber selbst welche gezeichnet. Diese Freiheit hätte ich mir auch nehmen sollen. Die dafür nötige Zeit hätte ich bestimmt mit Zinsen zurück bekommen. Wegen dieser Schwierigkeiten rechnete ich damit, ein paar Flüchtigkeitsfehler gemacht zu haben. Diese Sorge war anscheinend unbegründet. Das Klausurergebnis war erfreulich und spiegelte auch meinen subjektiven Eindruck wieder, den Stoff des Moduls im wesentlichen verstanden zu haben. Fazit Grundsätzlich finde ich es sehr sinnvoll, dass das Curriculum ein eigenes Modul zum Thema Testen enthält. Gut gefallen haben mir vor allem die Kapitel zur Entwicklung von Testfällen, weil ich hier die Einsendeaufgaben didaktisch klug gewählt und auch interessant und abwechslungsreich fand. Auch das Thema Problemmuster war für mich spannend. Es hat Spaß gemacht, in fremdem Quellcode nach problematischen Stellen zu suchen und sich bessere Lösungen zu überlegen. Weniger interessant waren für mich die Kapitel zu Prüftechniken und zum Management von Testfällen. Diese empfand ich als theoretischer und trockener, was sich bei diesem Stoff wohl auch nicht vermeiden lässt. Wegen dieser für mich etwas zäheren Abschnitte zählt Softwaretesten zwar nicht zu meinen Favoriten im Studienbereich Softwaretechnik, aber ich ziehe hier ein positives Fazit.
  20. Ich kenne ein paar Angebote für berufsbegleitende Masterstudiengänge im Bereich Informatik, aber bislang noch keines, wo mir die inhaltlichen Schwerpunkte so richtig gefallen. Vor allem würde ich gerne zunächst einmal abwarten, ob mir der Bachelor überhaupt eine berufliche Veränderung ermöglicht. Ich möchte allerdings im Bachelor gerne noch ein paar zusätzliche Module machen, so dass mir prinzipiell auch ein Masterstudiengang mit 90 ECTS offen stünde, falls ich denn mal einen machen wollte.
  21. So sicher ist das nicht. Ich gehe davon aus, dass ich für die Projekt- und die Bachelorarbeit etwas mehr Zeit einplanen muss. Außerdem gibt es noch ein paar Module, die ich noch belegen möchte, um mir die Option auf einen Master mit 90 ECTS offen zu halten. Dafür habe ich zwar noch keine konkreten Pläne, aber das könnte in ein paar Jahren ja anders aussehen.
  22. Eine gewisse Rolle dürfte spielen, dass ich mir im dritten Jahr intensiver Beschäftigung mit Informatik langsam wieder wünsche, mich mit einer breiteren Auswahl an Themen zu beschäftigen. Wegen des allgemeinbildenden Charakters war das Modul 'Wissenschaftliches Arbeiten" auch eine schöne Abwechslung. Ich hätte z.B. auch noch Lust, im Wahlbereich so etwas wie soziale Kompetenz oder Rhetorik zu belegen. Aber mal schauen. Im Moment habe ich noch genug anderes um die Ohren. Langsam freue ich mich auch wieder darauf, ganz andere Sachen machen zu können. Ich kann z.B. seit ein paar Monaten nicht mehr Gitarre spielen, weil ich eine fiese Entzündung im linken Daumen habe. Ich habe mir jetzt ein kompaktes Digitalpiano aus der Einsteigerklasse zugelegt. Tasten drücken geht noch. Es ist aber frustrierend, wieder mit "Hänschen klein" anfangen zu müssen. Das ist also eine Sache, in die ich gerne mehr Zeit stecken würde, um hier mehr Erfolgserlebnisse zu haben. Nach der Bachelorarbeit will ich da richtig loslegen.
  23. Ich hatte vor Beginn meines Studiums meine Arbeitszeit auf 30 Stunden reduziert. Über die Zeit, die ins Studium fließt, führe ich nicht Buch, aber viel ist es schon. Allerdings merke ich auch, dass meine Motivation und meine Kraft allmählich nachlassen. Ich konnte in den letzten Jahren viele Interessen nicht verfolgen, weil ich meine Energie vorwiegend in das Studium gesteckt habe. Allmählich wird der Wunsch drängend, mich auch mal wieder mit anderen Dingen zu beschäftigen.
  24. 5. Semester - Wintersemester 2018 - Geschäftsprozessmanagement - BWL2 - Wissenschaftliches Arbeiten - Software-Management - Software testen - Aktuelle Webtechniken 4. Semester - Sommersemester 2017 - Web-Anwendungen 2 - Web-Engineering - Softwaretechnik 2 - Softwaretechnik 3 - Content Management Systeme (CMS) - Data-Mining - XML - BWL1 3. Semester - Wintersemester 2016/2017 - Mathematik 3 - Softwaretechnik 1 - Nicht-sequentielle Programmierung - Statistik - IT-Sicherheit - Mobile Computing 2. Semester - Sommersemester 2016 - Grundlagen der Informatik 3 - Grundlagen der Informatik 4 - Web-Anwendungen 1 - Web-Ergonomie und Web-Design - Computernetze - Mathematik 2 1. Semester - Wintersemester 2015/2016 - Grundlagen der Informatik 1 - Grundlagen der Informatik 2 - Rechnerstrukturen und Betriebssysteme - Datenbanken und SQL - Mathematik 1 - Web-Programmierung Zusätzlich belegte Module an anderen FHs - theoretische Informatik (WINGS Wismar) - Programmieren in C++ (Virtuelle Hochschule Bayern) Noch fehlende Pflichtmodule: - Multimedia - IT-Recht - Projektarbeit - Bachelorarbeit
  25. Das Modul "Wissenschaftliches Arbeiten" gehört zum Studienbereich "Basiskompetenz Beruf", in dem man verschiedene "Soft Skill" Module belegen kann. Die anderen Module dieses Bereichs sind "Soziale Kompetenz", "Selbst- und Zeitmanagement", "Rhetorik", "Präsentieren" und "Kreativitätstechniken". "Wissenschaftliches Arbeiten" nimmt unter diesen Modulen eine besondere Stellung ein. Es kann als einziges auch als Wahlpflichtmodul belegt werden. Wer also zu Beginn seines Studiums lieber "Rhetorik" belegen möchte, kann "Wissenschaftliches Arbeiten" noch kurz vor der Projekt- und Bachelorarbeit nachholen. Wichtiger ist allerdings, dass dieses Modul auf die Anfertigung der Bachelorarbeit vorbereitet. Früher war die Belegung freiwillig aber dringend empfohlen. Soweit ich informiert bin, ist das Modul inzwischen Pflicht für neu eingeschriebene Studenten, weil es in Einzelfällen Probleme bei der Anfertigung der Bachelorarbeiten gab. Das ist fatal, weil bei einer nicht bestandenen Bachelorarbeit ja schon die komplette Studienzeit investiert wurde. Auch eine schlechte Note ist hier besonders ärgerlich. Zum einen, weil die Bachelorarbeit stärker in die Endnote eingeht als andere Module, zum anderen, weil die Bachelorarbeit als eigenständige Leistung in einem (oft) selbstgewählten Themengebiet auch in der Außenwahrnehmung durch Arbeitgeber eine höhere Bedeutung hat als andere Module. Anscheinend hat sich an der FH Dortmund gezeigt, dass Studierende, die eine Einführung ins wissenschaftliche Arbeiten belegt haben, die formalen Anforderungen einer Bachelorarbeit besser bewältigen. Und das ist ja auch nicht überraschend. Die Methoden wissenschaftlichen Arbeitens kann und muss man lernen. Lehrbuch und Themen Professor Balzert ist einer der Autoren des Lehrbuches "Wissenschaftliches Arbeiten". Ich meine, den Stil und den sauberen Aufbau seiner Lehrbücher zur Softwaretechnik auch in diesem Buch wiederzuerkennen. Weitere Autoren sind Marion Schröder und Christian Schäfer. Frau Schröder kennen manche Studierende auch als Autorin des Lehrbuches "Heureka, ich hab's gefunden! Kreativitätstechniken, Problemlösung & Ideenfindung". Der reine Textteil hat über 400 Seiten. Ich kenne andere Einführungen ins wissenschaftliche Arbeiten und finde diese klar formuliert und gründlich. Wie schon in anderen Büchern von Herrn Balzert, klärt er zu Beginn wichtige Begriffe. Insbesondere behandelt er Qualitätskriterien wissenschaftlichen Arbeitens: Ehrlichkeit, Objektivität, Überprüfbarkeit, Reliabilität, Validität, Verständlichkeit, Relevanz, Logische Argumentation, Orginalität, Nachvollziehbarkeit, Fairness und Verantwortung. Diese Begriffe werden analysiert und durch konkrete Beispiele lebendig und verständlich gemacht. Diese Kapitel haben mir besonders gefallen. Eine so trennscharfe Analyse der Begriffe kenne ich eher aus geisteswissenschaftlichen Texten. Allein deswegen hat mir dieses Modul viel Freude gemacht. Im weitern Verlauf geht es dann um Techniken und Konventionen wissenschaftlichen Arbeitens. Zunächst geht es um den inhaltlichen Aufbau verschiedener Arten von wissenschaftlichen Arbeiten. Eine empirische Arbeit hat zwar im Prinzip einen ähnlichen Aufbau wie eine konstruktive Arbeit, aber Umfang und Gewichtung der verschiedenen Abschnitte unterscheiden sich deutlich. Darum ist es wichtig, sich darüber klar zu werden, was für eine Art wissenschaftlicher Arbeit man schreiben möchte. Unterschieden werden hier: Literaturarbeit empirische Arbeit konstruktive Arbeit theoretische Arbeit Insbesondere die konstruktive Arbeit ist für Informatiker relevant. Hier geht es darum, durch systematisches Vorgehen ein technisches Erzeugnis zu erstellen, also z.B. ein Software-System. Die Projektarbeit im Studiengang Web- und Medieninformatik ist eine konstruktive Arbeit. Soweit ich informiert bin, kann die Bachelorarbeit auch einen anderen Charakter haben. In verschiedenen Studienabschnitten sind unterschiedliche Arten wissenschaftlicher Arbeiten zu erstellen. Es ist ein Unterschied, ob man eine Hausarbeit, eine Bachelorarbeit, eine Masterarbeit, einen wissenschaftlichen Artikel oder eine Dissertation schreibt. Mich haben natürlich zunächst einmal die Anforderungen an eine Bachelorarbeit interessiert, aber es ist schon interessant zu wissen, auf welche Höhen das Niveau noch steigen kann. Ich habe zwar momentan keine konkreten Pläne für einen Master, aber das könnte ja irgendwann noch einmal Thema werden. Schließlich geht es um den formalen Aufbau wissenschaftlicher Arbeiten, also um Dinge wie Satzspiegel, Textgestaltung, Seitennummerierung, Fußnoten, Anhänge und insbesondere Verzeichnisse. Hier erhält man viele wertvolle Tipps, wie man sich eine geeignete Dokumentenvorlage erstellt, um dann auch zügig arbeiten zu können. Im Modul sind Dokumentvorlagen für Word, LibreOffice und LaTEX enthalten, die man sich herunterladen kann. Ich habe ein wenig mit der LaTEX-Vorlage experimentiert. Leider hätte ich hier noch einige Anpassungen an die deutsche Sprache vornehmen müssen, weil insbesondere das Erstellen von Verzeichnissen noch unbefriedigend funktionierte. Für meinen mündlichen Vortrag habe ich aus Zeitdruck mit der LibreOffice-Vorlage gearbeitet, die ich für meine Zwecke etwas angepasst habe. Das Thema Formatierung ist nicht aufregend, aber für solche formalen Dinge kann später viel Zeit draufgehen. Die kann sich sparen, wenn man sich vorher die Mühe macht, eine gescheite Vorlage zu bauen. Literaturverzeichnissysteme können einem die Arbeit erleichtern, erfordern aber natürlich auch eine gewisse Einarbeitung. Darum ist es gut, sich schon vor Anmeldung einer Bachelorarbeit mit so etwas zu beschäftigen. LaTEX möchte ich mir noch einmal genauer anschauen. Ich habe den Eindruck, dass man damit viel Zeit sparen kann, wenn man die anfänglichen Hürden nimmt. Eine wichtige Rolle nimmt im Modul natürlich das korrekte Zitieren von Quellen ein. Hier geht es zunächst einmal darum, zu verstehen, was für Quellen zitierfähig und zitierwürdig sind. Dann geht es darum, sich in Absprache mit der Hochschule bzw. dem Betreuer für eine der verschiedenen Zitierweisen zu entscheiden und diese auch konsequent durchzuhalten. Dabei hilft wieder eine gute Dokumentenvorlage. Unterschiedliche Arten von Veröffentlichungen müssen im Literaturverzeichnis auch unterschiedlich behandelt werden. Insbesondere Quellen aus dem Internet sind nicht einfach zu referenzieren, weil eine Quelle unter einem Link nicht unbedingt dauerhaft zu finden ist. Es gibt verschiedene Möglichkeiten, damit umzugehen, die im Modul thematisiert werden. Es folgt ein Kapitel über wissenschaftlichen Schreibstil, verständliches Schreiben und die Visualisierung von Inhalten. Ein weiteres Kapitel behandelt unterschiedliche Forschungsmethoden mit ihren Stärken und Schwächen. Unterschieden werden hier: schriftliche Befragung Fragebögen und Interview-Leitfäden Experiment Interview Gruppendiskussion Beobachtung Inhaltsanalyse Je nach Gegenstand und Forschungsschwerpunkt sind unterschiedliche Methoden angemessen. Auch dieses Kapitel hat eine erkenntnistheoretische Komponente. Ein wichtiger Teil des Kurses beschäftigt sich damit, wie man sich seine Arbeitszeit gut einteilt, um seine Arbeit auch rechtzeitig abschließen zu können. Hier fällt der Begriff Projektmanagement, den ich etwas übertrieben finde, weil für mich dazu gehört, dass zumindest ein kleines Team koordiniert wird. Selbst- und Zeitmanagement hielte ich für die passendere Bezeichnung. Gleichwohl erhält man hier wertvolle Tipps, wie man die Arbeit an einer Bachelorarbeit in überschaubare Teilschritte gliedern und Meilensteine definieren kann. Gezeigt wird auch die Arbeit mit Software-Tools zum Projektmanagement. Ich habe die Arbeit damit ausprobiert, hatte aber den Eindruck, dass hier das Verhältnis zwischen Einarbeitungsaufwand und Nutzen nicht stimmt. Wenn man ein Projekt mit vielen Beteiligten zu managen hat, mag das freilich ganz anders aussehen. In diesem Abschnitt wird auch behandelt, wann und wie oft man sich mit seinem Betreuer austauschen sollte. Der letzte Kursabschnitt handelt von der Präsenation der Ergebnisse in einem mündlichen Vortrag, denn eine Bachelorarbeit muss ja in den meisten Fällen auch verteidigt werden. Die Inhalte dieses Abschnittes überlappen sich zum Teil mit dem Modul "Präsentieren". Einsendeaufgaben Die Einsendeaufgaben sind zahlreich und vielfältig und beziehen sich auf alle Kursteile. Spaß gemacht haben mir zum Beispiel die Aufgaben zur Stilverbesserung. Am besten gefallen haben die Aufgaben zu den Qualitätskriterien wissenschaftlichen Arbeitens, weil sie oft eine kreative Komponente hatten. Die Korrekturen durch meine Tutoren kamen sehr zügig. Gut gefallen hat mir, dass sie Informatikerin ist und das Thema "Wissenschaftliches Arbeiten" aus dieser Perspektive betreut. Auch die Tests waren zahlreich und deckten den Stoff engmaschig ab. Prüfung Eine Besonderheit dieses Moduls ist, dass die Klausur nur eine Stunde dauert, dafür aber eine mündliche Prüfung zum Modul gehört. Diese muss ein bisschen früher anmeldet werden als eine Klausurteilnahme, weil der organisatorische Aufwand höher ist. Mündliche Prüfungen finden nur in Dortmund statt, üblicherweise am Freitag Vormittag. Die mündliche Prüfung besteht aus einem Vortrag von 20 Minuten. Anschließend beantwortet man noch Fragen zum Thema. Man reicht drei Themenvorschläge ein: ein allgemeines Informatikthema ein spezielles Informatikthema ein allgemeines Thema (das also nichts mit Informatik zu tun hat) Ich hätte am liebsten ein Thema aus der Entwicklungspsychologie vorgetragen, aber ausgewählt wurde mein Vorschlag "Grundlegende Merkmale und Muster funktionaler Programmierung". Dieses Thema war auch gut, weil es schon einen gewissen Bezug zu dem hat, was ich in meiner Bachelorarbeit gerne machen würde. Insofern war die mündliche Prüfung auch eine Gelegenheit, sich hier schon mal ein bisschen einzulesen. Welches Thema ausgewählt wurde, erfährt man übrigens erst zwei Wochen vor dem Prüfungstag. Es geht nun darum, die im Modul gelernten Techniken im kleineren Maßstab anzuwenden. Erwartet wird z.B. die Recherche und Auswahl relevanter Literatur. Die Art des Vortrages ist nicht genau vorgegeben, aber Beamervorträge sind heute üblich. Ein Handout ist nicht zwingend, es kostet aber Punkte, wenn es fehlt. Außerdem ist das Handout eine Möglichkeit, das Verfassen einer schriftlichen Arbeit zu üben und auch Feedback dazu zu erhalten. Darum meine ich, es lohnt sich, hier zumindest etwas in der Art einer Hausarbeit abzuliefern. Zwei Wochen sind durchaus wenig Zeit für eine saubere Arbeitsweise im Sinne der vermittelten Techniken und Qualitätskriterien. Es macht viel Spaß, ein selbst gewähltes Thema zu recherchieren und zu bearbeiten, aber es ist auch viel Arbeit, insbesondere, wenn man eigentlich erst nach seinem Job Zeit hat, sich mit seinem Thema zu befassen. Die mündliche Prüfung erhöht den Bearbeitungsaufwand des Moduls erheblich. Ich vermute, dass das auch für andere Module mit mündlicher Prüfung gilt. Ein kritischer Punkt bei meinem Vortrag war die Einhaltung der Redezeit, was auch zu Punktabzug geführt hat. Auch beim Punkt Einbeziehung des Publikums habe ich noch einiges zu lernen. Fachlich war es zu meiner Überraschung in Ordnung. Ich war nämlich die ganze Zeit der Ansicht, viel zu wenig Stoff behandelt zu haben, und habe mir den Kopf zerbrochen, wie ich noch mehr Themen in die 20 Minuten quetschen kann. Für das nächste Mal werde ich lernen müssen, stärker Wesentliches vom Unwesentlichen zu trennen. In den Klausuraufgaben geht es unter anderem um Qualitätskriterien wissenschaftlichen Arbeitens. Es werden etwa Vorgehensweisen, Aussagen oder Schlussfolgerungen präsentiert und man soll dann erklären, warum das keine saubere wissenschaftliche Arbeitsweise ist und was man besser machen müsste. Für die Endnote werden die Punkte aus mündlicher und schriftlicher Prüfung addiert. Mit meinem Prüfungsergebnis war ich zufrieden, auch wenn die mündliche Prüfung gezeigt hat, dass es noch Punkte gibt, an denen ich arbeiten muss. Fazit Ich hätte erwartet, dass dieses Modul zwar nützlich für die Bachelorarbeit aber nicht besonders spannend ist. Zu meiner Überraschung hat die Bearbeitung mir unheimlich viel Spaß gemacht. Thematisch war es eine echte Abwechslung. Es hat eben nicht nur und nicht mal schwerpunktmäßig mit Informatik zu tun. Tatsächlich ist das Lehrbuch eine allgemeine Einführung ins wissenschaftliche Arbeiten. Die Beispiele stammen darum nicht nur aus der Informatik sondern z.B. auch den Sozialwissenschaften oder ganz anderen Disziplinen. Das Modul ist im Gegensatz zu den meisten anderen Modulen meines fachbezogenen Studiums allgemeinbildend. Was hier vermittelt wird, entwickelt auch die Fähigkeit zu kritischem Denken. Bei den Einsendeaufgaben und auch bei den Themenvorschlägen für die mündliche Prüfung hat man größere Entscheidungsspielräume als bei anderen Aufgaben im Informatik-Studium. Rückblickend betrachte ich das Modul "Wissenschaftliches Arbeiten" als eines der schönsten in meinem Studium.
×
  • Neu erstellen...