Zum Inhalt springen

kurtchen

Communitymitglied
  • Gesamte Inhalte

    879
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von kurtchen

  1. Hier kommt die Fortsetzung meines Berichts über den Springer Campus Präsenztag am 10.03.2018. 12:15 Uhr - Vortrag: Big Data, Prof. Dr. Uwe Schmitz, FH Dortmund Ich gebe die Inhalte des Vortrages auf der Grundlage eigener Notizen in knapper Form wieder. Ausgangssituation Es ist zu erwarten, dass Industrie 4.0 die Industrieproduktion verändern wird. Es fallen massenhaft strukturierte Daten aus operativen Informationssystemen an. Hinzu kommen massenhaft unstrukturierte Daten, z.B. aus sozialen Netzwerken. Viele der anfallenden Daten bleiben noch ungenutzt. Was kennzeichnet Big Data? Volume (Umfang): Das Datenvolumen steigt jedes Jahr im den Faktor 40. Variety (Vielfalt): Es gibt eine Vielfalt der Formate und der Quellen. Daten können strukturiert, unstrukturiert und halbstrukturiert vorliegen. Strukturierte Daten kennzeichnen klassische Datenbanken. Unstrukturierte Daten sind z.B. Photos, Videos oder Audiodateien. Halbstrukturierte Daten sind z.B. E-Mails oder Word-Dokumente. Velocity (Geschwindigkeit): Hier geht es um die Geschwindigkeit, mit der Daten generiert und ausgewertet werden. Velocity hat zwei Aspekte. Zum einen die Geschwindigkeit, mit der Daten verarbeitet werden. Zum anderen die Geschwindigkeit, in der Daten sich ändern. Heute möchte man Updates möglichst in Echtzeit, d.h. die Geschwindigkeit der Verarbeitung soll mit der Geschwindigkeit der Veränderung Schritt halten. Veracity (Richtigkeit): Dies betrifft die Datenqualität. Man möchte wissen, mit welcher Wahrscheinlichkeit ein Wert valide ist. Beispielsweise müssen Stromerzeuger recht zuverlässig wissen, wie das Wetter der nächsten Tage wird, denn das beeinflusst Produktion und Verbrauch von Strom. Value (Mehrwert): Das Sammeln und Auswerten von Daten ist kein Selbstzweck. Die dazu nötigen Investitionen müssen sich lohnen. Aktuell bedeutsame Datenquellen sind noch immer Transaktionsdaten, Protokolldaten, Ereignisdaten. Transaktionsdaten werden seit Jahrzehnten in klassischen relationalen Datenbanken erfasst. Auch Log-Dateien gibt es seit langem. Für die Zukunft werden große Zuwächse bei anderen Datenquellen prognostiziert, z.B. bei Social Media, Sensordaten oder Geodaten. Die gesammelten Daten sind potentiell in allen Unternehmensbereichen nützlich, also z.B. im Vertrieb, in Finanzen & Controlling, im Marketing, in der Produktion, der Logistik, im Supply-Chain-Management und im Kundenservice. Big Data Technologie leistet einen unverzichtbaren Beitrag für die Industrie 4.0. Zu nennen sind vier Bereiche: Smart Factory: Sensoren schaffen bessere Planungsfähigkeit. Smart Operations: Vernetzte Produktion ermöglicht flexible Steuerung der Produktion. Smart Service: Durch Vernetzung von Produkt und Hersteller und werden neue Dienstleistungen möglich. Smart Products: Hier gab es eine kleine Diskussion über die Frage, was ein smartes Produkt kennzeichnet. Beispiel Netflix Die Plattform versucht vorauszusagen, was Nutzer künftig sehen wollen. Nutzerprofile werden dazu ausgewertet, z.B. Korrelationen, wann ein begonnener Film abgebrochen wurde. Auf diese Weise werden Präferenzen für Schauspieler, Inhalte, Themen und ähnliches für bestimmte Nutzergruppen ermittelt. Dies hat Auswirkungen auf die Produktion von Serien. Zum Beispiel wurde die bekannte Serie "House of Cards" auf der Grundlage solcher Nutzerdaten produziert. (Eigene Anmerkung: Natürlich haben Produzenten von Filmen und Serien immer versucht, den Geschmack ihrer Zielgruppen zu treffen. Neu erscheint mir hier, die Geschwindigkeit der Rückkopplung und die Verknüpfung von Informationen. Früher konnte man sagen, dass die Einschaltquoten für eine Serie zurückgegangen sind. Für jeden Zuschauer, der abspringt, kann man heute sagen, was er stattdessen geschaut hat.) Big Data Technologien verändern die Datenhaltung, den Datenzugriff, die analytische Verarbeitung, die Datenintegration und die Visualisierung. Beispiel Datenhaltung In-Memory-Datenbanken laden bei Programmstart den kompletten Datenbestand in den Hauptspeicher. Dies erhöht die Geschwindigkeit der Verarbeitung erheblich. Die Datenbankserver müssen dann natürlich besonders gegen Stromausfälle gesichert werden, z.B. durch Akkus. In zeitlichen Abständen gibt es Backups auf nicht-flüchtige Datenspeicher (Save Points). Diese Datenbanken können viele Terrabytes umfassen. Aufgrund der hohen Geschwindigkeit entfällt der bisherige ETL-Prozess. (ETL steht für Extract, Transform, Load. Bislang mussten Daten aus operativen Systemen aufbereitet und verdichtet werden, bevor man sie analysieren konnte. In-Memory-Datenbanken sind schnell genug, um direkt auf den vollständigen operativen Datenbeständen zu arbeiten.) Vorteile sind z.B. schnelle Reaktion auf Preisschwankungen, schnelle Sperrung bei Missbrauchsverdacht, schnelle Reaktion auf aufkommende Gerüchte (Shitstorm-Erkennung!), Verringerung von Out-of-shelf-Problemen, positiveres Image durch schnellere Reaktion auf Kundenanfragen. Ein Beispiel für eine In-Memory-Datenbank wäre SAP Hana. Beispiel Sentiment-Analyse Bei der Sentiment-Analyse geht es darum, wie eine Person zu etwas steht. So gibt es mittlerweile Standard-Extraktoren für Posts auf Plattformen wie Twitter und Facebook über standardisierte Schnittstellen. Diese ermitteln z.B. Korrelationen zwischen Schlüsselwörtern und Adjektiven wie "successful" oder "bad". Auf die Weise kann man nicht nur schnell ermitteln, wie ein Produkt, ein Service oder eine Organisation wahrgenommen wird, sondern auch, wie diese Wahrnehmung sich aktuell verändert. Das kann man im Marketing und in der Öffentlichkeitsarbeit nutzen. Anforderungen Um Big Data nutzen zu können, muss man verschiedene Arten von Anforderungen erfüllen: Technische Anforderungen: Dazu zählen z.B. Skalierbarkeit, um mit dem rasanten Wachstum der Bestände Schritt halten zu können, aber auch Schnittstellen, um Daten aus immer vielfältigeren Quellen verknüpfen zu können. Personelle Anforderungen: Es erweist sich als schwierig, Mitarbeiter mit den nötigen Kompetenzen zu beschaffen. Dazu später mehr bei den Herausforderungen. Organisatorische Anforderungen: Man braucht Regelungen zum Umgang mit den neuen Daten. Auch Regelungen zum Datenschutz sind wichtig. (Wie man in jüngerer Zeit immer wieder erleben muss, kann sorgloser Umgang mit Kundendaten den Ruf eines Unternehmens nachhaltig schädigen.) Projektspezifische Anforderungen: Hier geht es darum, Business-Cases zu finden, also Möglichkeiten, durch Analyse und Verknüpfung von Daten einen Mehrwert zu erzeugen. Dies könnten Einsparungen in der Produktion sein, eine schnellere Bereitstellung von Diensten als Mitbewerber, eine gezieltere Ansprache von Kunden durch Werbung, eine bessere Planung des Produktportofolios und vieles mehr. Herausforderungen beim Einsatz von Big Data Der Einsatz und die Einführung von Big Data Technologien ist mit verschiedenen Herausforderungen verbunden: Fehlendes analytisches Know-How: Ideale Mitarbeiter haben Kenntnisse in Statistik, BWL und Informationstechnologie. Die Person, die diese Fähigkeiten kombiniert, nennt man Data Scientist. Offen bleibt die Frage, wie wahrscheinlich es ist, diese Kompetenzen tatsächlich häufig genug vereint in einer Person zu finden. Voraussichtlich wird man eher interdisziplinäre Teams bilden müssen. Datenschutz: Hier geht es einerseits darum, was Unternehmen dürfen und müssen, und andererseits darum, wie Kunden auf Sicherheitslecks reagieren. Fehlendes technisches Know-how Datensicherheit: Wie verhindert man z.B. unauthorisierten Zugriff? Kosten Fehlender Business-Case Die Geschäftsprozesse sind nicht reif genug für den Einsatz von Big Data Wie etabliert man Big Data in einem Unternehmen? Dafür gibt es das BITKOM-Vorgehensmodell: Assessment: Eine Ist-Analyse erfasst, was die aktuellen Daten sind und wie die aktuelle Systemlandschaft aussieht. Readyness: Neue Datenquellen werden eingebunden. Die Datenquellen werden vereinheitlicht. Implementierung und Integration: Die eigentliche Einführung einer Big Data Applikation. Konsilidierung und Migration Nutzung der neuen Daten Reportung und Predictive Analytics: Hier geht es um die Gewinnung neuer Einsichten, indem man unbekanntes und ungenutztes Wissen in den zusammengeführten Datenbeständen entdeckt. End-to-End-Prozesse: Man wandelt die gewonnenen Einsichten in Vorteile, indem man neue und bessere Geschäftsprozesse konzipiert und einführt. Im Grunde wird erst durch diesen Schritt der Nutzen realisiert. Optimierung und Tuning: Hier geht es um die Frage, wie eine künftige und bessere Systemlandschaft aussehen könnte. Damit schließt sich ein Kreis und die Phasen können erneut durchlaufen werden. Erwarteter Nutzen Durch den Einsatz von Big Data erwartet man vielfältigen Nutzen: Bessere Informationen über das Informations- und Konsumverhalten der Kunden Bessere Steuerung von Marketing und Vertrieb Optimierte Logistik Einschätzung von Marktpotentialen und Business Cases Höhere Renditen durch optimierte Preisgestaltung: Das ist ein heißes Eisen. Technisch betrachtet, könnten Algorithmen eine Prognose erstellen, wie viel ein Kunde für ein Produkt oder eine Leistung zu zahlen bereit oder in der Lage ist. Sie könnten dann einen individuellen Preis je nach Größe des Geldbeutels und Ausgabenbereitschaft machen. (Eigene Anmerkung: Rechtlich ist das problematisch. Bekannt wurde zum Beispiel, dass Disneyland Paris unterschiedliche Preise je nach Herkunftsland der Kunden nahm.) Wettbewerbsvorteile durch genauere Marktkenntnis Reifegrad-Modelle Reifegrad-Modelle beantworten die Frage: Ist mein Unternehmen reif genug, um Big Data Technologien einsetzen zu können? Ein Beispiel ist das Business Intelligence Maturity Model von Steria Mummert Consulting. Es unterscheidet fünf Stufe der Reife. Lokale Daten, bezogen auf bestimme einzelne Aufgaben Informationsinseln, z.B. nach Unternehmensbereichen Informationsintegration, d.h. die Daten sind unternehmensweit vernetzt Informations-Intelligence, d.h. die Daten sind logisch integriert Informationsgetriebenes Unternehmen Zur Person Prof. Dr. Uwe Schmitz betreut im Online-Studiengang B.Sc. Wirtschaftsinformatik die Module "Strategisches Management & Controlling" und "Grundlagen BWL". Soweit zum ersten Vortrag des Präsenztages. 13:30 Uhr - Vortrag: DevOps, Dr. Hendrik Neumann (W3L AG) Nach einer Pause gab es ab 13:30 Uhr einen weiteren Vortrag zum Thema "DevOps" von Dr. Hendrik Neumann (W3L AG), der ebenfalls interessant und aufschlussreich war. Allerdings machte sich an diesem Punkt bemerkbar, dass ich am gleichen Tag auch noch eine zweistündige Klausur geschrieben hatte. Die Qualität meiner Notizen war leider nicht mehr ausreichend, um die Inhalte hier detailliert wiederzugeben. Fazit Wichtig war wie immer auch der informelle Austausch mit anderen Studierenden. In Kombination mit dem gebotenen Programm war es die lange Anfahrt nach Dortmund wert. Allmählich kommt für mich die Zielgerade in Sicht. Allzu oft werde ich wohl nicht mehr Gelegenheit haben, an einem Präsenztag teilzunehmen. Mindestens einmal fahre ich aber noch nach Dortmund, wahrscheinlicher sogar zweimal. Ich werde hier im Blog berichten.
  2. Sie wurde positiv bewertet. Was mich überrascht hat. 36 von 160 kommt mir nicht viel vor.
  3. Bei Springer Campus sind Präsenztage zugleich auch Prüfungstage. Am Freitag, dem 09.03.2018 gab es drei Slots für schriftliche Prüfungen. Außerdem konnte man am Vormittag auch mündliche Prüfungen ablegen. Ich bin am Freitag angereist, hatte aber keinen Prüfungstermin. Stattdessen hatte ich Gelegenheit vis-a-vis mit dem Professor zu sprechen, der meine Bachelorarbeit betreuen soll. Das erwies sich als ausgesprochen nützlich, weil man in der direkten Kommunikation vieles doch schneller klären kann als per E-Mail. Ein Ergebnis dieses Gespräches ist, dass ich nun auch meine Projektarbeit von ihm betreuen lassen möchte. Die Projektarbeit und die Bachelorarbeit bauen bei mir thematisch nicht aufeinander auf. Deswegen war ich ursprünglich der Ansicht, hier verschiedene Betreuer wählen zu können. Inzwischen ist mir klar geworden, dass die Projektarbeit eine weitere Chance ist, sich mit den Anforderungen wissenschaftlichen Arbeitens in der Informatik vertraut zu machen. Das ist für meine Bachelorarbeit natürlich nützlich und auch weitgehend unabhängig vom jeweils behandelten Thema. Ich hoffe, dass die kontinuierliche Betreuung durch EINEN Professor mir helfen wird, Rückmeldungen und Erfahrungen aus der Projektarbeit für meinen letzten Schritt zu nutzen. Meine Klausur im Modul "Multimedia" hatte ich erst für Samstag, den 10.03.2018 angemeldet. Zwischen 8:30 und 10:30 Uhr war ich fällig. Der eigentliche Präsenztag ging dann nach einer kurzen Kaffeepause um 10:45 Uhr los. 10:45 Uhr - Aktuelles für Studierende Frau Kreissig berichtete über neue Entwicklungen und Themen aus dem Studium. Zeitgleich lief nebenan eine Infoveranstaltung über die Studiengänge Web- und Medieninformatik, Wirtschaftsinformatik, Biologie, Chemie und Elektrotechnik. Wie üblich stellte Frau Kreissig zunächst das Team von Springer Campus vor. Anschließend ging es um die Ergebnisse der Umfrage. 160 Studierende wurden befragt. Es gab 36 Rückläufer. Ich gebe nur einige wenige für mich markante Ergebnisse wieder. Als Studienmotivation wurde natürlich die Erlangung des Bachelors besonders häufig genannt. Aber noch häufiger wurde ein Interesse an persönlicher Weiterentwicklung angegeben. Vielleicht unterscheidet sich ja die Studienmotivation von Fernstudierenden, die in der Regel schon eine berufliche Qualifikation haben, an diesem Punkt von Präsenzstudierenden, für die es meist darum geht, einen ersten berufsqualifizierenden Abschluss zu erlangen. Von den Studierenden geschätzt wurde besonders die organisatorische Betreuung durch das Studienbüro, die festen Ansprechpartner und die inhaltliche Begleitung durch die Tutoren der Module. Auch die hohe Flexibilität im Studiengang wurde postiv bewertet. Kritik gab es an der mangelnden Aktualität einzelner Module. Bei bestimmten Modulen gab es auch den Wunsch nach einem höheren Praxisbezug. Hier sollte man vielleicht im Hinterkopf haben, dass die meisten unserer Studierenden einschlägig beschäftigt sind und somit Theorie im Studium und Praxis im Beruf nebeneinander erleben. Dies ermöglicht womöglich Vergleiche, die typische Studienanfänger an Präsenzhochschulen so nicht ziehen können. Nach einem kurzen Überblick über die Prüfungstermine bis zum nächsten Präsenztag im Sepember 2018 stelle Frau Kreissig neue Dozenten vor. Prof. Dr. Barghorn von der Jade-Hochschule (Wilhelmshaven, Oldenburg, Elsfleth) wird künftig Web-Design betreuen. Dr. habil. Andrea Hermann betreut Softwaretechnik 1 und 2. Prof. Dr. Uwe Schmitz übernimmt Strategisches Management & Controlling. Dieses Modul kann somit wieder belegt werden. Dr. Hartwig übernimmt Softwaremanagement 1 und 2 sowie Selbst- und Zeitmanagement. Andrea Hermann betreut außerdem als Tutorin Wissenschaftliches Arbeiten. Die Vorbereitungen für die Reakkreditierung der Studiengänge Web- und Medieninformatik sowie Wirtschaftsinformatik laufen. In diesem Zusammenhang dürfen die Studierenden damit rechnen, weitere Fragebogen zu erhalten. Studierende wenden sich besonders häufig mit Fragen zum wissenschaftlichen Arbeiten an das Studienbüro. Aus gutem Grund ist das Modul Wissenschaftliches Arbeiten inzwischen ein Pflichtmodul. Das Studienbüro unterstützt bei der Suche nach Betreuern für die Projekt- und Bachelorarbeit. (Aus eigener Erfahrung kann ich sagen, dass diese Vermittlung sehr hilfreich ist. Präsenzstudierende kennen die Professoren aus den Lehrveranstaltungen und haben deshalb vielleicht schon eine Idee, wer sie bei einem bestimmten Thema gut betreuen könnte. Als Fernstudent profitiert man davon, dass die Mitarbeiter des Studienbüros eine Lotsenfunktion übernehmen, denn sie kennen die Professoren vor Ort.) Wer gerne eine Projektarbeit oder seine Bachelorarbeit auf dem Präsenztag präsentieren möchte, ist eingeladen, sich an das Studienbüro zu wenden. (In diesem Zusammenhang erinnere ich mich gerne an die Präsentation einer Bachelorarbeit auf dem letzten Präsenztag, aus der ich für mich viel mitgenommen habe. Ich finde es ungemein nützlich, etwas über die Erfahrungen von Studierenden zu lernen, die einen Schritt weiter sind als man selbst.) Gesellschaftliches Engagement im Fernstudium Ein besonderer inhaltlicher Schwerpunkt an diesem Präsenztag war das Thema "Gesellschaftliches Engagement". Laut Frau Kreissig kommt dieses Thema in Fernstudiengängen oft zu kurz. Präsenzunis bieten ihren Studierenden viele Möglichkeiten, sich außerhalb ihres eigenen Studienganges zu engagieren. Neben Veranstaltungen des Studium generale, die den engen Horizont des eigenen Studienfachs erweitern und ergänzen sollen, gibt es vielfältige Möglichkeiten, sich in der studentischen Selbstverwaltung und in studentischen Gruppen zu engagieren. Dies trägt einerseits dazu bei, das eigene Qualifikationsprofil um soziale, organisatorische und kommunikative Kompetenzen zu ergänzen. Aber unabhängig von diesem qualifizierenden Aspekt ist gesellschaftliches Engagement per se wünschenswert, auch für Fernstudierende. Frau Kreissig stellte als Beispiel einige Projekte und Initiativen vor, die der Springer Verlag unterstützt. Diese sind zum Teil regional (z.B. am Standort Heidelberg), zum Teil international. Wer sich dafür interessiert, findet nähere Informationen auf der Springer Homepage. Darum überspringe ich diesen Teil hier. Interessanter und für mich als Fernstudierenden konkreter fand ich die Frage, was für Möglichkeiten Fernstudierende selbst haben, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ein bisschen skeptisch war ich schon, denn viel zeitlichen Spielraum sehe ich durch die Doppelbelastung von Beruf und Studium eigentlich nicht mehr. Frau Kreissig hat jedoch einige Möglichkeiten vorgestellt, die z.T. sogar einen gewissen Bezug zur Lebenssituation Studium haben. Ein paar möchte ich hier wiedergeben: Projekt- und Bachelorarbeit: Man könnte seine Projekt- oder Bachelorarbeit nicht in einem Unternehmen sondern in einer Non-Profit-Einrichtung oder einem sozial oder gesellschaftlich relevanten Bereich machen. (Hier fühle ich mich an den Studiengang Sozialinformatik der Hochschule Fulda erinnert, für den ich mich ja ursprünglich einmal interessiert hatte. Dort gehört zum Curriculum ein Softwareprojekt im sozialen Bereich. Die Idee finde ich zumindest nachdenkenswert, denn eine Projekt- und Bachelorarbeit muss man ja ohnehin schreiben.) Citizen Science: Viele wissenschaftliche Disziplinen profitieren von der ehrenamtlichen Mitwirkung von Laien. Ein Beispiel ist die Astronomie. Nach einer kurzen Online-Schulung können interessierte Laien etwa helfen, Hubble-Aufnahmen zu kategorisieren, die bislang noch nicht von Algorithmen ausgewertet werden können. (Auch in der Biologie ist man - etwa für Zwecke des Artenschutzes - stark auf ehrenamtliche Naturbeobachter angewiesen.) Interessant finde ich hier den Wissenschaftsbezug des Engagements. Social Hackathons: Hier treffen sich ehrenamtliche Programmierer, um in einem begrenzten Zeitrahmen für ein soziales Projekt eine digitale Lösung zu programmieren, etwa eine Web-Anwendung oder eine Homepage. Das hat einen klaren Bezug zum Informatik-Studium und ist eventuell sogar eine Empfehlung für künftige Arbeitgeber. Neben diesen Möglichkeiten mit Studienbezug stellte Frau Kreissig auch einige eher allgemeine Möglichkeiten vor, sich neben Studium und Beruf gesellschaftlich zu engagieren. Ich möchte hier nur eine Möglichkeit wiedergeben, die wenig Zeit erfordert und potentiell lebensrettend sein kann. Wer alle zwei Jahre eine achtstündige Weiterbildung in Erster Hilfe besucht, kann sich am eigenen Arbeitsplatz als Ersthelfer zur Verfügung stellen. Unternehmen müssen ohnehin Ersthelfer ausbilden und benennen. Weil Mitarbeiter nicht nur am Arbeitsplatz sondern auch in öffentlichen und privaten Räumen unterwegs sind, profitieren indirekt auch Familien und die Gesellschaft davon, dass Menschen mit Kenntnissen in Erster Hilfe in der Nähe sind. Den Abschluss des Vortrags bildete eine Verlosung eines Buches über KI. Soviel zum Abschnitt "Aktuelles für Studierende". In einem meiner nächsten Beiträge möchte ich über den Vortrag "Big Data" von Prof. Dr. Uwe Schmitz berichten. Er betreut im Fernstudiengang das Modul "Strategisches Management & Controlling".
  4. Einbettung in den Studiengang Das Modul "Multimedia" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es ist eines von sechs Modulen des Schwerpunktes Web- und Medien. Für Studierende der Wirtschaftsinformatik ist es nicht Pflicht, sie können es aber als Wahlpflichtmodul belegen. Formal gibt es keine Zugangsvoraussetzungen. Das Modul "Web-Design & Web-Ergonomie" wird zwar zur Vorbereitung empfohlen, aber aus meiner Sicht ist das nicht nötig. Der Studienplan ordnet "Multimedia" ins vierte Fachsemester ein. Ich habe es später belegt, meine aber, dass man es genauso gut auch schon im ersten Semester hätte belegen können, denn es ist inhaltlich nicht eng an andere Module gekoppelt. Das Modul "Multimedia" ist außerdem eines von fünf Modulen des Hochschulzertifikates "Web-Frontend-Programmierer". Studierende der Web- und Medieninformatik erwerben dieses Zertifikat mit ihren Pflichtmodulen fast automatisch. Lediglich das Wahlpflichtmodul "Web-Engineering" muss noch dazu belegt werden. Das Lehrbuch Das Buch "Dynamische Medien" von Maximilian Eibl hat einen Umfang von ca. 340 Seiten. Da beim Thema Multimedia naturgemäß viele Abbildungen nötig sind, ist die Textmenge überschaubar. Das Buch ist von 2011, was für ein Modul zu diesem Thema schon ein stattliches Alter ist. Damit sind ein paar Probleme verbunden, auf die ich später noch eingehe. So viel sei aber an dieser Stelle schon gesagt: Von allen Modulen, die ich bei Springer Campus belegt habe, erscheint mir dieses als dasjenige, das am dringendsten überarbeitet werden müsste. Multimedia wird im Buch aus drei Blickwinkeln betrachtet: Technik: Hier geht es darum, wie Bild, Video und Ton codiert und komprimiert werden. Auch wenn Formate und Codecs sich ändern, bleiben doch viele Prinzipien gleich. Erstellung von Medien: Bilder, Videos und Audioaufnahmen müssen irgendwie erstellt oder zumindest bearbeitet werden. Dafür gibt es Tools wie Photoshop oder Adobe Flash. Das Bedienkonzept dieser Tools und die damit verbundenen Möglichkeiten werden im Kurs vorgestellt. Solche Produkte entwickeln sich rasch weiter und hier merkt man am deutlichsten, dass die letzte Überarbeitung des Moduls schon einige Jahre zurück liegt. Auswahl und Einsatz von Medien: Hier geht es um die Frage, welche Arten von Medien für welche Zwecke und welche Zielgruppe geeignet sind. Für die hier vermittelten Prinzipien ist zu erwarten, dass sie keinem so raschen Wandel unterworfen sind. Kapitel: Bild Ein Verständnis von digitalen Bildern und Bildformaten ist hilfreich für ein späteres Verständnis von Video und Videoformaten. Darum die nachvollziehbare Entscheidung des Autors, sich zunächst mit statischen Bildern zu befassen. Es geht um Pixel, Bildgrößen, Farbtiefe, Farbmodelle, die Pixeldichte in verschiedenen Medien und insbesondere um die Datenmengen, die aus diesen grundlegenden Werten resultieren. Der Autor geht auf verschiedene Dateiformate zur Speicherung von (Pixel-)Grafiken ein und welche Vorzüge sie für welche Anwendungsbereiche haben. Beispiele sind GIF, JPEG, PNG, RAW, TIF. Hier wird auch kurz skizziert, wie verlustfreie und verlustbehaftete Kompression funktioniert. Das Kapitel liefert einen kurzen Einblick in Adobe Photoshop. Mich stört hier ein wenig die ausschließliche Bezugnahme auf das Produkt eines bestimmten Herstellers, auch wenn man im Fall von Photoshop von einem Standard sprechen muss. Hier hätte man meiner Meinung nach zumindest anreißen können, dass es auch quelloffene Alternativen gibt. Das hätte das ganze etwas neutraler gemacht. Es folgen Abschnitte über die Technik von Digitalkameras. Hier geht es um Chipgrößen, die Unterscheidung von Farben durch den Einsatz von Bayer-Filtern, Sensoren, Objektive, Autofokus, Blende, Verschlusszeiten und dergleichen. Wer eine digitale Spiegelreflexkamera besitzt, nicht immer nur die Automatik verwendet sondern auch einmal selbst die verschiedenen Möglichkeiten zur Bildgestaltung genutzt hat, wird hier nicht viel Neues erfahren. Wer solche Erfahrungen noch nicht gemacht hat, bekommt eine knappe Einführung. Ganz gut gefallen hat mir die Berechnung des Bildwinkels aus Brennweite und Chipgröße, wodurch man z.B. abschätzen kann, welcher Brennweite bei Kleinbildfilm das Objektiv einer Digitalkamera entspricht. Vermisst habe ich hier einen Abschnitt über 2D-Vektorgrafik, etwa am Beispiel SVG, das ja auch gut fürs Web geeignet ist. Hier hätte man auch einen inhaltlichen Bezug zum Modul "XML" herstellen können. Kapitel: Audio Den Anfang machen hier Überlegungen zur Physik von Schallwellen und zum Vorgang der Digitalisierung. Zur Sprache kommt z.B. das Nyquist-Theorem. Es besagt, dass die Abtastrate mehr als das doppelte der höchsten im Signal enthaltenen Frequenz betragen sollte. Für Audio werden nur zwei Dateiformate vorgestellt: Wave und MP3. Im Abschnitt zur MP3-Codierung wird immerhin skizziert, welche psychoakkustischen Erkenntnisse dieser zugrunde liegen. Interessant ist etwa der Effekt der Rückwärtsmaskierung. Eine laute Frequenz überdeckt leisere Frequenzen nicht nur im Moment ihres Auftretens sondern paradoxerweise schon bis zu 20 Millisekunden bevor sie erklingt. Das liegt daran, dass laute Frequenzen von unserer Wahrnehmung schneller verarbeitet werden. Die lauten Reize können also kurz zuvor aufgenommene leisere Reize "überholen" und diese somit rückwirkend verdecken. Wie die MP3-Codierung im Detail algorithmisch funktioniert versteht man so zwar noch nicht, aber man begreift zumindest, was diese möglich macht. Der Aspekt Erstellung und Bearbeitung wird hier am Beispiel Adobe Soundbooth gezeigt. Das gibt es inzwischen gar nicht mehr (aber das Nachfolgeprodukt Audition CC). Die gezeigten Möglichkeiten hätte man meiner Meinung nach genauso gut am Beispiel des quelloffenen Programms Audacity vermitteln können. Mir hätte gefallen, wenn weitere Audioformate vorgekommen wären, z.B. das freie Format OGG. Gut gefunden hätte ich auch, wenn der Autor nicht allein auf Audioformate sondern auch auf Dateiformate zur Speicherung von Musikinformation eingegangen wäre. Beispiele dafür wären MIDI und MusicXML. Da MIDI und MusicXML Notenereignisse und nicht Schallwellen beschreiben, kann man diese Dateien zum Beispiel maschinell nach bestimmten musikalischen Mustern durchsuchen. Es ist ein anderer Ansatz zur Speicherung von Musik und steht zu Audioformaten etwa in der Relation wie Vektorgrafik zu Pixelgrafik. Abgesehen von diesen offen gebliebenen Wünschen war ich mit diesem Kapitel aber zufrieden. Kapitel: Video Hier geht es um Codecs zur Videokompression. Man erhält eine Vorstellung, wie diese funktionieren. Die geht zwar nicht tief genug, um so etwas selbst nachprogrammieren zu können, aber im wesentlichen versteht man, was dabei abläuft. Es folgt ein sehr knapper Einblick in die Videobearbeitung mit Adobe Premiere und die Einbindung von Titeln und Ton. Es fällt auf, dass insbesondere die genannten Auflösungen im Zeitalter von Videostreams mit 4K anachronistisch wirken. Das macht das hier beschriebene aber nicht falsch oder irrelevant. Eine Einordnung der Themen in den aktuellen Nutzungskontext würde hier als Überarbeitung durchaus genügen. Kapitel: 2D-Animation mit Flash Das Thema 2D-Animation wird am Beispiel Adobe Flash abgehandelt. Hier muss man unterscheiden zwischen Adobe Flash zur Erstellung von 2D-Animationen und dem Flash-Player, der früher nötig war, um Animationen im Browser abspielen zu können. Letzterer ist wegen zahlloser Sicherheitslücken in Verruf geraten. Internetnutzer brauchen ihn nicht mehr, weil HTML5 die Einbindung von Video und Audio auch ohne ein proprietäres Plugin unterstützt. Mobile Geräte von Apple unterstützen Flash schon seit längerem nicht mehr, ohne das deren Nutzer deswegen auf multimediale Inhalte verzichten müssten. Aber 2D-Animationen müssen ja auch irgendwie erstellt werden. Dies wird im Kurs also am Beispiel Adobe Flash gezeigt. Der Kurstext ist tatsächlich eine Art knappes Tutorial, wie man verschiedene Arten von Animationen mit Flash erstellt. Dabei kommen z.B. Features wie Formtweening zur Sprache. Mit knapp 70 Seiten nimmt dieses Kapitel einen recht großen Raum ein. In der Lernplattform gibt es zusätzlich eine knappe Einführung in ActionScript. Flash heißt inzwischen Adobe Animate und die damit erstellten Animationen lassen sich selbstverständlich in Formaten auswerfen, die man direkt per HTML5 einbinden kann. Eine Bezugnahme auf Adobe Animate wäre eine naheliegende Möglichkeit, das Modul zu aktualisieren und gleichzeitig das bisherige Konzept zu erhalten. Auch hier würde ich mir wünschen, wenn Alternativen zumindest knapp vorgestellt würden. Kapitel: 3D-Animation mit VRML Dieses Kapitel ist die große Baustelle des Moduls. Von VRML hatte ich noch nie gehört. Es handelt sich um eine Beschreibungssprache für 3D-Welten, die übers Internet übertragen und mittels eines Plugins im Browser gerendert werden können. Die Syntax erinnert stark an JSON. Mag sein, dass das im Jahr 2011 noch als vielversprechende Technologie erschien. Ich musste erst mal suchen, wie ich für mein System einen Viewer auftreibe, mit dem ich die Codebeispiele aus dem Kurs ausprobieren konnte. Am Ende des Kapitels wird auf den prospektiven Nachfolger von VRML eingangen. X3D ist im wesentlichen VRML mit XML-Syntax. Auch diese Technik scheint mir nicht sehr relevant zu sein. Die Behandlung von WebGL wäre eine Möglichkeit, den Kurs zu aktualisieren und zugleich des bisherige Konzept zu erhalten. WebGL wird von gängigen Browsern unterstützt. Lieber wäre mir gewesen, man hätte eine 3D-Bibliothek einer gängigen Programmiersprache vorgestellt. Alternativ hätte man auch einen Schritt zurück gehen können, um zu untersuchen, wie 3D-Vektorgrafik grundsätzlich funktioniert. Die nötigen Grundlagen in linearer Algebra wären ja durch das Modul "Mathematik für Informatik" und auch durch das Kapitel "Grafik" im Modul "Angewandte Mathematik" vorhanden. Damit hätte man die Perspektive Technik stärker behandelt. Kapitel: Einsatz dynamischer Medien Im letzten Kapitel geht es um Auswahl und Einsatz dynamischer Medien für verschiedene kommunikative Zwecke und Nutzergruppen. Grundlage ist die DIN EN ISO 14915. Der Autor stellt zunächst verschiedene Informations- und Medientypen vor, um dann Kriterien für Auswahl und Kombination von Medien - z.B. in Webseiten - zu entwickeln. Dieses Kapitel hat mir sehr gut gefallen, insbesondere weil zu erwarten ist, dass die hier vermittelten Inhalte eine höhere Halbwertszeit haben, da sie nicht an bestimmte Technologien gebunden sind. Nur kurz erwähnt wird das Thema behindertenfreundliche Gestaltung. Ich freue mich, dass es überhaupt den Weg ins Modul gefunden hat, aber für eine Neuauflage würde ich mir wünschen, dass es ein wenig mehr Raum bekommt. Dies ist dann allerdings auch meine einzige Kritik an dem ansonsten gelungenen Kapitel. Die Einsendeaufgaben Die Einsendeaufgaben im Modul zielten mir insgesamt zu stark auf Wissensreproduktion und ich fand sie auch zu leicht. Die Rückmeldungen meines Tutors kamen sehr zügig, was bei den Aufgabentypen allerdings auch nicht überraschend war. Lediglich die Online-Klausur war ein bisschen fordernder. Hier sollte ein Konzept für eine multimediale Präsentation zu einem technischen Vorgang erstellt werden. Dies bezog sich natürlich in erster Linie auf das Kapitel 7 zur Auswahl und Mischung von Medien. Hier durfte man ein bisschen kreativ sein. Ansonsten hätte es schon schwieriger sein dürfen. Die Präsenzklausur Da ich von den Kapiteln zu Flash und VRML nicht so begeistert war, ging ich diesmal mit geringeren Ambitionen in die Präsenzklausur. Der Prüfer hat seine Sache aber gut gemacht. Die Mehrheit der Fragen bezog sich auf Grundlagenwissen, das nicht an bestimmte Technologien und Produkte gebunden ist. Auch das Kapitel zur Auswahl und Mischung von Medien spielte eine große Rolle. Hier musste man wieder ein Konzept erstellen, um mittels Medien bestimmte Inhalte zielgruppengerecht zu vermitteln. Dazu gehörten auch kleine Skizzen. Die Klausurfragen haben viel dazu beigetragen, dass ich am Ende durchaus das Gefühl hatte, aus diesem Modul noch einiges mitgenommen zu haben.. Zu erwähnen ist, dass dies eine Klausur ohne Hilfsmittel ist. Man darf einen einfachen Taschenrechner benutzen. Eine Formelsammlung wird zur Verfügung gestellt. Fazit Insgesamt bleibt es bei meiner Einschätzung: Von allen Modulen, die ich bei Springer Campus belegt habe, müsste dieses am dringendsten überarbeitet werden. Man könnte das Pferd natürlich auch mal komplett anders aufzäumen. Warum nicht ein Modul zur Grafikprogrammierung mit engen Bezügen zu den Modulen Mathe2 und Mathe3? Oder wie wäre es mit einem Modul zur Datenvisualisierung (etwa mit JavaScript) mit enger Anbindung an die Inhalte des Moduls Statistik? Ich finde, beides würde gut ins Gesamtkonzept des Studienganges passen. Den Studienbereich "Web- und Medieninformatik" habe ich mit diesem Modul nun jedenfalls abgeschlossen und es gibt in diesem Bereich auch keine Wahlpflichtmodule mehr, die ich belegen könnte. Als nächstes steht das Pflichtmodul "IT-Recht" an, dass ich laut Studienplan eigentlich schon im ersten Semester hätte belegen sollen. Außerdem müsste ich allmählich mit meiner Projektarbeit beginnen.
  5. Hallo Waproks, ich freue mich, dass noch jemand über sein Studium bei Springer Campus bloggen will. Deinen Beiträgen möchte ich folgen. An deinen Eindrücken bin ich sehr interessiert. Ich wünsche Dir einen guten Start ins Studium.
  6. Das Modul "Software-Management 1" ist ein Pflichtmodul in den Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik". Es ist für das 4. oder 5. Semester vorgesehen. Als fachliche Grundlagen werden die Module "Grundlagen der Informatik 1-3" genannt. Es wird also im wesentlichen erwartet, dass man Kenntnisse in objektorientierter Programmierung hat. Mit Software-Technik muss man sich noch nicht unbedingt auskennen. "Software-Management 1" ist auch Bestandteil des Hochschulzertifikates "Software-Manager". Ich habe das Modul recht spät belegt, weil ich das Thema nicht unbedingt zum Anbeißen fand. Damit bin ich anscheinend nicht alleine. In Gesprächen mit Kommilitonen habe ich den Eindruck gewonnen, dass Software-Management kein Thema ist, für das sich viele Informatik-Studenten begeistern. Das erwähnt der Autor des Lehrbuches, Herr Balzert, sogar in seinem Vorwort. In seinen Vorlesungen zum Software-Management hat er regelmäßig gefragt, wer denn gerne Software-Manager werden wollte. Meistens meldete sich niemand. Seine Studenten äußerten, Software-Management sei eher etwas für BWLer. Ich muss zugeben, dass ich ähnlich empfinde. Lehrbuch Das Lehrbuch "Softwaremanagement" stammt aus der Feder von Herrn Balzert und ist mit der gleichen Gründlichkeit verfasst wie seine anderen Lehrbücher. Ich schätze seinen Schreibstil und seine didaktischen Fähigkeiten sehr, aber als dieses Buch mit der Post kam, war ich zunächst einmal eingeschüchtert: An die 700 Seiten Lehrtext zuzüglich Anhänge. Das Lehrbuch ist aber für 2 Module vorgesehen, nämlich auch für "Software-Management 2", das kein Pflichtmodul ist. Nur wenig mehr als 200 Seiten beziehen sich auf das Modul "Software-Management 1". Zur meiner anfänglichen Überraschung sind das die letzten 200 Seiten. Das Buch behandelt nämlich zunächst einmal ausführlich allgemeine Management-Prinzipien und arbeitet dann heraus, wie diese sich im Software-Management konkretisieren. Pflicht für alle Studierenden sind lediglich die Kapitel zu Prozess- und Qualitätsmodellen, die einen ganz klaren Software-Bezug haben. Obwohl es relativ wenig Lesestoff ist, war die Bearbeitung des Moduls für mich mühsam. Prozess- und Qualitätsmodelle sind für mich leider kein spannender Lesestoff, auch wenn ich anerkennen möchte, dass der Autor hier wieder einmal sehr gründlich gearbeitet hat. Wer mit dem Thema etwas anfangen kann, darf im Wahlpflichtbereich dann noch das Modul "Software-Management 2" belegen und sich dann damit beschäftigen, wie Softwaremanagement mit allgemeinen Management-Prinzipien zusammenhängt. Inhalte & Themen Da ich leider keinen innigen Bezug zu den Themen des Moduls entwickeln konnte, handele ich die Inhalte diesmal relativ knapp ab. Das Kapitel "Was ist ein Prozessmodell?" behandelt Notationen und Werkzeuge sowie Anforderungen an Geschäftsprozesse. Hier gibt es gewisse inhaltliche Bezüge zum Modul "Geschäftsprozess-Management". Man ist im Vorteil, wenn man das schon bearbeitet hat. Das etwas umfangreichere Kapitel "Was ist ein Qualitätsmodell?" behandelt FCM- und GQM-Modelle. Hier sehe ich Bezüge zum Modul "Software-Technik 2". Es folgt ein eigenes Kapitel zum Thema Qualitätsmanagement. Hier werden konstruktive und analytische Maßnahmen der Qualitätssicherung unterschieden. Das war schon einmal Thema im Modul "Grundlagen der Informatik 2". Man sieht also, dass dieses Modul durchaus sinnvoll in das Gesamt-Curriculum des Studiengangs eingebettet ist. Ich finde es immer gut, wenn Zusammenhänge zwischen Modulen erkennbar sind. Natürlich ist es didaktisch auch hilfreich, wenn Themen wiederkehren und aus neuen Blickwinkeln betrachtet werden. Die ersten drei Kapitel bilden sozusagen das theoretische und begriffliche Fundament für die folgenden. Es geht nun um manuelle Prüfmethoden: Inspektion, Review, Walkthrough. Die werden ja später im Studiengang noch einmal im Modul "Softwaretesten" behandelt. Im Kapitel "Basismodelle" lernt man verschiedene Entwicklungsmodelle kennen: sequentielles Modell nebenläufiges Modell inkrementelles Modell evolutionäres Modell komponentenbasiertes Modell Prototypen-Modell Modell für geographisch verteilte Entwicklungen Modell für Produktfamilien QS-erweiterte Modelle V-Modell Spiralmodell und deren Kombinationsmöglichkeiten Die Aufzählung macht deutlich, dass der Autor viele Fälle unterscheidet. Bei jedem Modell geht es um Vorzüge und Probleme, die es für bestimmte Entwicklungsszenarien geeigneter machen als für andere. Dieses Kapitel war für mich eines der interessanteren. Besonders trockene Kost war für mich das Kapitel "Rahmenmodelle". Ich nenne nur ein paar Schlagworte: CMMI, SPICE-/ISO15504, ISO12207, ISO9000, ISO9001ff, TQM. ISO900x kannte ich bereits aus dem Kontext meiner aktuellen beruflichen Tätigkeit im Sozialbereich. Grob zusammengefasst geht es um verschiedene Ansätze, Qualitätsmanagement-Systeme aufzubauen. Das Kapitel "Monumentale Modelle" behandelt ausführlich das V-Modell XT. XT steht dabei für Extreme Tailoring, also die behauptete Anpassungsfähigkeit des Modells. Weiterhin werden RUP, PSP und TSP vorgestellt. Recht spannend fand ich dagegen das Kapitel zu agilen Modellen. Hier bin ich gegen Ende des Moduls noch einmal regelrecht aufgewacht, denn die Verfechter dieser Modelle formulieren z.T. ungewöhnliche Standpunkte, die sie recht selbstbewusst vertreten. Das liest sich erfrischend anders. Themen sind eXtreme Programming, Industrial XP, eXtreme Programming 2, Feature Driven Development, Scrum und die Crystal-Familie. Im letzten Kapitel geht es noch einmal um den Vergleich von monumentalen und agilen Modellen und Kriterien der Auswahl. Klausur In der Präsenzklausur gab es recht viele Aufgaben, die sich im Bearbeitungsaufwand stark unterschieden. Vermutlich war hier das Ziel, einerseits die Inhalte breit abzudecken und andererseits auch mal zu schauen, wie tief das Verständnis der Studierenden denn reicht. Ich hatte leider etwas Pech bei den Aufgaben. Schwächen hatte ich eher bei den Punktebringern. Sicher fühlte ich mich bei den Aufgaben mit weniger Punkten. Insgesamt sind die Aufgaben eher vom Typ Wissensreproduktion. Dies ist ein Modul, bei dem Auswendiglernen von Fakten benotungsrelevant ist. So etwas liegt mir nicht besonders. Bei erster konservativer Schätzung meinte ich, die Hälfte der Punkte sicher zu haben, so dass ich zumindest erwartete, bestanden zu haben. Ich neige dazu, vorsichtig zu schätzen. Mein Ergebnis war gar nicht mal so schlecht. Da ich mir beim Abschlusstest und der Online-Klausur ein paar Bonuspunkte erarbeitet hatte, war die Endnote dann wirklich OK. Fazit "Software-Management 1" war für mich zähe Kost. Interessant waren für mich in erster Linie die Kapitel zu Basismodellen und agilen Modellen. Besonders trocken fand ich die Rahmenmodelle. Ich glaube nicht, dass der Kursautor viel hätte besser machen können, um mir diese Inhalte irgendwie schmackhafter zu präsentieren. Das Modul ist geschafft. Es war für mich das letzte im Studienbereich "Software-Technik". Diesen großen Block konnte ich also nun hinter mir lassen. Ich werde wohl auch nicht in Versuchung kommen, "Software-Management 2" als Wahlpflichtmodul zu belegen. Das Lehrbuch liegt mir ja vor. Die Kapitel zu den allgemeinen Management-Prinzipien sehen auch tatsächlich spannender aus als die Inhalte von "Software-Management 1". Aber es bleibt dabei: Software-Management ist kein Thema, für das ich mich begeistern kann.
  7. Das Thema Testen kam in unserem Studiengang schon einmal knapp im Modul "Grundlagen der Informatik 2" vor. Das ist bei uns die Einführung in die objektorientierte Programmierung mit Java. Damals wurde vor allem die funktionale Äquivalenzklassenbildung und die Grenzwert-Analyse behandelt. Das war ein Thema, das ich damals noch nicht ganz so spannend fand. Bei der Vorbereitung auf die Klausur habe ich mich dann entschlossen, dieses EINE Kapitel nicht zu wiederholen. In der Klausur kam es natürlich dran, was mich auch ein paar Punkte gekostet hat. Da ich mit OOP ansonsten gut zurecht gekommen war, konnte ich diese Schwäche gut ausgleichen. Im Hinterkopf geblieben ist mir allerdings, dass meine Prüfer anscheinend Testen für ein wichtiges Thema hielten. Da im Curriculum ein eigenes Modul dazu vorgesehen war, wusste ich, da kommt noch mal was.
  8. Zur Rolle des Moduls im Studium Das Modul "Software-Testen" ist ein Pflichtmodul im Studiengang "Web- und Medieninformatik". Es wird dort dem Studienbereich "Softwaretechnik" zugerechnet. Formal darf das Modul jederzeit belegt werden, aber als fachliche Grundlage werden viele andere Module empfohlen: Grundlagen der Informatik 1 Grundlagen der Informatik 2 Grundlagen der Informatik 3 Softwaretechnik 1 Softwaremanagement 1 Diese Empfehlung finde ich im Großen und Ganzen plausibel, auch wenn ich selbst das Modul "Softwaremanagement" nocht nicht belegt hatte. Aufgrund der vielfältigen Voraussetzungen wundert es nicht, dass die Belegung erst für das 5. Fachsemester empfohlen wird. Es ist also eines der letzten Pflichtmodule. Für den Studiengang "Wirtschaftsinformatik" ist das Modul nicht vorgesehen, nicht einmal im Wahlpflichtbereich. Es ist aber ein Baustein des Hochschulzertifikates "Software-Manager". Das Lehrbuch Das Buch "Basiswissen Testen von Software" von Torsten Cleff hat knapp 300 Seiten. Der Umfang ist für ein Modul bei Springer Campus also unterdurchschnittlich. Ziel des Lehrbuches ist, Grundwissen zu Testtechniken aber auch zu Prüftechniken zu vermitteln, so dass Fehler möglichst früh entdeckt und behoben werden. Die Erfahrung zeigt, dass die Kosten für die Behebung von Fehlern umso niedriger ausfallen, je früher ein Fehler entdeckt wird. Gemeint sind hier nicht nur Fehler im Quellcode, an die ich zu Beginn des Moduls als erstes gedacht habe. Fehler können auf allen Ebenen der Software-Entwicklung passieren, z.B. auch beim Erfassen von Anforderungen, bei der objektorientierten Analyse oder beim Entwurf, also bevor auch nur die erste Zeile Code geschrieben ist. Grundlagen Im ersten Teil des Buches werden vor allem Begriffe geklärt. Interessant war für mich z.B. die Unterscheidung von Teststufen, die jeweils mit Entwicklungsstufen eines Softwaresystems korrespondieren. Zu den vertraglichen Anforderungen an ein Software-Produkt gehört ein Abnahmetest, zur Produktdefinition ein Systemtest, zum Produktentwurf ein Integrationstest und zum Komponentenentwurf ein Komponententest. Nun ist klar, dass der Komponententest der erste Test ist, den man machen kann, wenn Quellcode vorliegt. Erst kann man die Integration von Komponenten testen und so fort. Die Teststufen folgen also in entgegensetzter Reihenfolge wie die Entwicklungsstufen. Visualisiert man diesen Ablauf, steigt man vom Anforderungsdokument Stufe um Stufe hinab bis zur Implementierung und arbeitet sich dann mit den Tests Stufe im Stufe wieder hinauf bis zu den Anforderungen. Der visualisierte Ablauf hat die Form des Buchstabens V, weshalb man auch vom V-Modell spricht. Interessant sind auch die verschiedenen Integrationsstrategien. Bei der Bottom-up Integration, baut und testet man zunächst Komponenten, die keine Dienste untergeordneter Komponenten in Anspruch nehmen. Dann baut und testet man die Komponenten, die auf diesen aufsetzen. So arbeitet man sich Stufe für Stufe nach oben. Ein Vorteil dieser Strategie ist, dass man keine Platzhalter programmieren muss. Der Nachteil ist, dass man das Zusammenspiel der Komponenten im Großen erst spät testen kann. Darum gibt es auch eine Top-down Integrationsstrategie. Hier werden möglichst bald Komponenten höherer Ordnung getestet. Da diese untergeordnete Komponenten brauchen, die noch nicht vorliegen, muss man viele Platzhalter programmieren. Dafür bekommt man früh einen Eindruck des Gesamtsystems aus Benutzersicht. Interessant waren auch die verschiedenen nicht-funktionalen Testverfahren. So werden z.B. bei einem Stresstest die definierten Leistungsgrenzen eines Systems bewusst überschritten, etwa um zu testen, ob das System nach einer Überlastung wieder in den Normalzustand zurückkehren kann. Testfälle entwickeln Diesen Kursabschnitt betrachte ich als den inhaltlichen Kern des Moduls. Der größte Anteil der Einsendeaufgaben aber auch der Aufgaben in der Online- und Präsenzklausur bezieht sich hierauf. Black-Box-Tests Zunächst geht es um spezifikationsorientierte Testtechniken. Komponenten sollen zu bestimmten Kombinationen von Eingabewerten eine Ausgabe entsprechend der Spezifikation liefern. Diese Tests werden auch als Black-Box-Tests bezeichnet, weil hier nicht interessiert, wie eine Komponente intern arbeitet. Es geht allein darum, ob sie zu gegebenen Eingaben die erwarteten Ausgaben liefert. Die erste derartige Testtechnik ist die funktionale Äquivalenzklassenbildung. Hier fasst man gleichwertige Eingabewerte zu einer Klasse zusammen, aus der man einen Repräsentanten auswählt. Getestet wird nur mit dem Repräsentanten, was den Testaufwand beträchtlich reduziert. Da die Erfahrung zeigt, dass Fehler vor allem an Klassen- und Intervallgrenzen auftreten, gibt es die Grenzwertanalyse. Hier wählt man als Repräsentanten Werte an den Grenzen eines Intervalls. Bei beiden Testtechniken ist wichtig, dass man gültige und ungültige Repräsentanten testet. Ungültige Repräsentanten sollten dann z.B. dazu führen, dass eine Exception geworfen wird. Der Entscheidungstabellentest eignet sich, wenn eine natürlich-sprachliche Testbasis vorliegt. Er ermöglicht, die verschiedenen Kombinationen von Eingangsbedingungen übersichtlich darzustellen. Oft ist es dann möglich, Fälle zusammen zu fassen und die Tabelle auf diese Weise stark zu vereinfachen. Auch dies kann den Testaufwand erheblich reduzieren. Bei der Ursache-Wirkungsanalyse visualisiert man die Beziehungen zwischen Ursachen und Wirkungen als Graph, dessen Kanten logische Verknüpfungen sind. Solche Graphen lassen sich in Entscheidungstabellen überführen. Beim zustandsbezogenen Test modelliert man ein System als Zustandsautomaten. So kann man die Historie des Systems in den Test einbeziehen. Das Zustandsdiagramm lässt sich in eine Zustandstabelle und in eine Zustandsmatrix überführen. Daraus lassen sich wiederum Testfälle ableiten. Interessant ist diese Testart z.B. für Systeme aus der Automatisierungstechnik. Auf höheren Teststufen gibt es den anwendungsfallbasierten Test. Ein konkreter Anwendungsfall wird als Use-Case-Diagramm modelliert. Auch hieraus lassen sich Testfälle ableiten. White-Box-Tests Während bei den spezifikationsorientierten Testtechniken nicht relevant ist, wie eine Komponente ihre Leistung erbringt (Black-Box-Test), muss man für die kontrollfluss-orientierten Testtechniken den Quellcode eines Programmes kennen. Darum werden diese auch als White-Box-Tests bezeichnet. Bei diesen Testtechniken visualisiert man den Kontrollfluss durch den Quelltext als Graph. Beim Anweisungsüberdeckungstest möchte man durch geschickte Auswahl möglichst weniger Testfälle sicherstellen, dass alle Anweisungen des Quellcodes ausgeführt werden. Beim Zweigüberdeckungstest sollen die Testfälle nicht nur alle Anweisungen (Knoten) des Graphen abdecken. Auch alle Zweige (Kanten) sollen mindestens ein Mal durchlaufen werden. Dieser Test ist also umfassender als der Anweisungsüberdeckungstest. Noch weiter geht der Bedingungsüberdeckungstest. Er beschäftigt sich mit der Kombination von Bedingungen, die erfüllt sein müssen, damit ein Zweig durchlaufen werden kann. Diese lassen sich z.B. wie eine Digitalschaltung visualisieren. Beim Pfadüberdeckungstest müssen nicht nur alle Kanten durchlaufen werden, sondern jeder mögliche Pfad vom Startpunkt bis zum Endpunkt eines Programmes. Die Zahl möglicher Pfade wächst oft sehr schnell. Entsprechend wächst auch die Zahl nötiger Testfälle. Erfahrungsbasiertes Testen Freies Testen ist ein erfahrungsbasiertes Verfahren. Die Testfälle basieren auf Testhypothesen eines erfahrenden Testers. Da hier die Intuition eine große Rolle spielt, sind solche Verfahren schlecht formalisierbar und nicht leicht in den Entwicklungsprozess zu integrieren. Sie werden daher meist nur ergänzend eingesetzt. Fehlerhypothesen lassen sich methodischer ableiten, wenn man auf der Grundlage bisher entdeckter Fehler Fehlerklassen bildet. Das sind Gruppierungen typischer Schwachstellen, die in vergangenen Tests an ähnlichen Systemen aufgefallen sind. Ein Beispiel für so eine Fehlerklasse wären etwa Fehler bei Klassen oder Datentypen. Konkrete Ausprägungen dieser Fehlerklasse wären dann z.B. Fehler bei Mehrfachvererbung, Typtransformationen oder fehlerhafte Deklarationen von Attributen oder Methoden. Exploratives Testen ergänzt das erfahrungsbasierte Testen um ein Element der Analyse und Reflexion. Die dadurch gewonnenen Einsichten werden für die Entwicklung der nächsten Fehlerhypothesen genutzt. Auch dies ist ein Versuch, erfahrungsbasiertes Testen methodischer zu machen. Testen vs. prüfen Ein weiterer thematischer Schwerpunkt des Moduls sind Prüftechniken. Während bei Tests vorausgesetzt ist, dass man ein Testobjekt ausführen kann, wird bei einer Prüfung ein Artefakt der Softwareentwicklung nicht ausgeführt sondern inhaltlich nach formalen Kriterien kontrolliert. Dies hat verschiedene Vorteile: Nicht nur Quellcode kann geprüft werden, sondern auch Spezifikationen, Modelle, Dokumentationen oder andere Artefakte des Entwicklungsprozesses. Man benötigt keine Testumgebung, Testdaten oder Testtreiber Testen kann man erst, wenn Code vorliegt. Prüfen kann man dagegen in jeder Phase. Entscheidend ist, dass man durch Prüfverfahren Fehler viel früher entdecken kann als durch Tests. Dadurch lassen sich Kosten vermeiden. Allerdings lassen sich durch Prüfungen nicht alle Arten von Fehlern entdecken. Zum Beispiel lassen sich Leistungskennzahlen auf diesem Weg nicht ermitteln, denn dazu müsste Code ausgeführt werden. Im Kurs behandelte manuelle Prüftechniken sind die Inspektion, das technische Review, der Walkthrough und das informelle Review. Softwaremaße Es gibt aber auch automatisierte Prüftechniken. So lassen sich z.B. mit geeigneten Werkzeugen sogenannte Softwaremaße bestimmen. Ein gängiges Maß ist sind zum Beispiel die Lines of Code (LOC), mit denen der Umfang eines Quellcodes angegeben wird. Dieses Maß ist nicht so selbstverständlich, wie es auf den ersten Blick scheint. LOCs können stark schwanken, je nachdem welche Formatierungskonventionen angewendet wurden. Dennoch werden LOCs häufig für grobe Umfangsschätzungen verwendet. Ein genaueres Umfangsmaß ist das Halstead-Maß. Dazu muss man zunächst alle Operanden und Operatoren eines Quellcodes auszählen. Die Anzahl unterschiedlicher Operatoren bezeichnet man mit N1, die der unterschiedlichen Operanden als N2. Operatoren sind z.B. Schlüsselwörter einer Programiersprache, Klammern aber auch Modifier, die die Sichtbarkeit einer Variable festlegen. Operanden sind z.B. Variablen oder auch boolesche Werte wie true oder false. Halstead bezeichnet nun die Summe N1+N2 als Vokabular eines Programmes. Als Volumen bezeichnet er die Summe N1+N2+log(N1+N2). Man kann sich vorstellen, dass das manuelle Auszählen von Operatoren und Operanden für Menschen eine mühselige Arbeit ist. So etwas kann automatisch von Werkzeugen erledigt werden, weshalb man in diesem Zusammenhang von automatisierten Prüftechniken spricht. Das McCabe Maß wird auch als zyklomatische Komplexität beschrieben. Um das McCabe-Maß berechnen zu können, muss man die Knoten und Kanten eines Kontrollflussgraphen auszählen und die Anzahl verbundener Kontrollflussgraphen bestimmen. McCabe liefert die maximale Zahl linear unabhängiger Programmpfade. Damit kann man abschätzen, wieviele Testfälle man für einen Zweigüberdeckungstest braucht. Es gibt auch Maße für Bindung und Kopplung von Komponenten. Problemmuster Problemmuster sind Anomalien im Quelltext, die erfahrungsgemäß die technische Qualität eines Programms senken. Sie lassen sich durch geeignete Werkzeuge aufspüren, damit sie überarbeitet werden können. Ein bekanntes Beispiel ist die Codedopplung. Wenn an verschiedenen Stellen des Programmes identischer Quellcode steht, muss man bei Änderungen alle entsprechenden Stellen finden. So etwas wird von einem Wartungsprogrammierer leicht übersehen. Meist ist es dann besser, solchen Code in einer eigene Komponente oder Methode zusammenzufassen. Das vermeidet Probleme bei künftiger Wartung. Im Kurs werden viele weitere Problemmuster vorgestellt, etwa mangelnder Polymorphismus, die Verletzung des Geheimnisprinzips, die Verwendung einfacher Typen, die zu Datenklumpen führt oder auch problematisch zusammengesetzte Datentypen. In den letzten Kapiteln geht es um das Management von Softwaretests sowie die Automatisierung von Tests. In diesem Zusammenhang werden auch ein paar Testwerkzeuge knapp vorgestellt. Online-Tests und Einsende-Aufgaben Die Tests decken die Inhalte des Moduls gut ab. Die Einsendeaufgaben konzentrieren sich vor allem auf die Kapitel zur Entwicklung von Testfällen. Aber auch das Entdecken von Problemmustern in Quellcode und die Bestimmung von Softwaremaßen spielt eine Rolle. Man vereinfacht Entscheidungstabellen, zeichnet Kontrollflussgraphen zum Quelltext, verbessert Anomalien in Quellcode, visualisiert komplexe Bedingungen als Digitalschaltung, zeichnet Zustandsautomaten, findet Testklassen, Repräsentanten und Testfälle. Die Aufgaben sind also recht vielfältig. Bei einigen Aufgabentypen hätte ein wenig mehr Übungsmaterial nicht geschadet. Die Aufgaben sind aber didaktisch geschickt gewählt, so dass sie zum Verständnis der vermittelten Konzepte beitragen. Insbesondere geben die Aufgaben einen guten Vorgeschmack auf das, was einen in der Online- und in der Präsenzklausur erwartet. Die Rückmeldungen meines Tutors kamen auch in diesem Modul sehr zügig. Sein Stil war manchmal etwas knapp, so dass ich gelegentlich noch einmal nachfragen musste. Das hat sich aber dann auch gelohnt und kleinere Unsicherheiten behoben. Ich hatte übrigens den gleichen Tutor wie im Modul "Grundlagen der Informatik 2" zu Beginn meines Studiums. Bei ihm habe ich objektorientiertes Programmieren gelernt. Ich habe mich sehr gefreut, gegen Ende meines Studiums noch einmal von ihm betreut zu werden. Präsenzklausur Die Aufgabentypen der Klausur ähnelten den Einsendeaufgaben, so dass man eigentlich gut vorbereitet sein sollte, wenn man alle Aufgaben bearbeitet und die Rückmeldungen seines Tutors genutzt hat. Wissensfragen zu den Prüftechniken spielten auch eine gewisse Rolle. Ich empfand das Arbeitspensum als angemessen für die Dauer der Klausur. Bei den Aufgaben zur Äquivalenzklassenbildung und Grenzwertanalyse wollte man den Studierenden anscheinend etwas Zeit ersparen, indem man Tabellen zur Verfügung gestellt hat, in die man z.B. Testfälle eintragen konnte. Das Layout dieser Tabellen war für mich allerdings ungewohnt und überraschend. Ich selber hätte meine Tabellen anders aufgebaut, so dass ich gelegentlich Lösungen in falsche Felder eingetragen habe, was ich dann wieder korrigieren musste. Das hat Zeit und Nerven gekostet. Nach der Klausur sprach ich mit einem Kommilitonen, dem es ähnlich ergangen war wie mir. Der hatte die zur Verfügung gestellten Tabellen gar nicht erst genutzt sondern sich lieber selbst welche gezeichnet. Diese Freiheit hätte ich mir auch nehmen sollen. Die dafür nötige Zeit hätte ich bestimmt mit Zinsen zurück bekommen. Wegen dieser Schwierigkeiten rechnete ich damit, ein paar Flüchtigkeitsfehler gemacht zu haben. Diese Sorge war anscheinend unbegründet. Das Klausurergebnis war erfreulich und spiegelte auch meinen subjektiven Eindruck wieder, den Stoff des Moduls im wesentlichen verstanden zu haben. Fazit Grundsätzlich finde ich es sehr sinnvoll, dass das Curriculum ein eigenes Modul zum Thema Testen enthält. Gut gefallen haben mir vor allem die Kapitel zur Entwicklung von Testfällen, weil ich hier die Einsendeaufgaben didaktisch klug gewählt und auch interessant und abwechslungsreich fand. Auch das Thema Problemmuster war für mich spannend. Es hat Spaß gemacht, in fremdem Quellcode nach problematischen Stellen zu suchen und sich bessere Lösungen zu überlegen. Weniger interessant waren für mich die Kapitel zu Prüftechniken und zum Management von Testfällen. Diese empfand ich als theoretischer und trockener, was sich bei diesem Stoff wohl auch nicht vermeiden lässt. Wegen dieser für mich etwas zäheren Abschnitte zählt Softwaretesten zwar nicht zu meinen Favoriten im Studienbereich Softwaretechnik, aber ich ziehe hier ein positives Fazit.
  9. Ich kenne ein paar Angebote für berufsbegleitende Masterstudiengänge im Bereich Informatik, aber bislang noch keines, wo mir die inhaltlichen Schwerpunkte so richtig gefallen. Vor allem würde ich gerne zunächst einmal abwarten, ob mir der Bachelor überhaupt eine berufliche Veränderung ermöglicht. Ich möchte allerdings im Bachelor gerne noch ein paar zusätzliche Module machen, so dass mir prinzipiell auch ein Masterstudiengang mit 90 ECTS offen stünde, falls ich denn mal einen machen wollte.
  10. So sicher ist das nicht. Ich gehe davon aus, dass ich für die Projekt- und die Bachelorarbeit etwas mehr Zeit einplanen muss. Außerdem gibt es noch ein paar Module, die ich noch belegen möchte, um mir die Option auf einen Master mit 90 ECTS offen zu halten. Dafür habe ich zwar noch keine konkreten Pläne, aber das könnte in ein paar Jahren ja anders aussehen.
  11. Eine gewisse Rolle dürfte spielen, dass ich mir im dritten Jahr intensiver Beschäftigung mit Informatik langsam wieder wünsche, mich mit einer breiteren Auswahl an Themen zu beschäftigen. Wegen des allgemeinbildenden Charakters war das Modul 'Wissenschaftliches Arbeiten" auch eine schöne Abwechslung. Ich hätte z.B. auch noch Lust, im Wahlbereich so etwas wie soziale Kompetenz oder Rhetorik zu belegen. Aber mal schauen. Im Moment habe ich noch genug anderes um die Ohren. Langsam freue ich mich auch wieder darauf, ganz andere Sachen machen zu können. Ich kann z.B. seit ein paar Monaten nicht mehr Gitarre spielen, weil ich eine fiese Entzündung im linken Daumen habe. Ich habe mir jetzt ein kompaktes Digitalpiano aus der Einsteigerklasse zugelegt. Tasten drücken geht noch. Es ist aber frustrierend, wieder mit "Hänschen klein" anfangen zu müssen. Das ist also eine Sache, in die ich gerne mehr Zeit stecken würde, um hier mehr Erfolgserlebnisse zu haben. Nach der Bachelorarbeit will ich da richtig loslegen.
  12. Ich hatte vor Beginn meines Studiums meine Arbeitszeit auf 30 Stunden reduziert. Über die Zeit, die ins Studium fließt, führe ich nicht Buch, aber viel ist es schon. Allerdings merke ich auch, dass meine Motivation und meine Kraft allmählich nachlassen. Ich konnte in den letzten Jahren viele Interessen nicht verfolgen, weil ich meine Energie vorwiegend in das Studium gesteckt habe. Allmählich wird der Wunsch drängend, mich auch mal wieder mit anderen Dingen zu beschäftigen.
  13. 5. Semester - Wintersemester 2018 - Geschäftsprozessmanagement - BWL2 - Wissenschaftliches Arbeiten - Software-Management - Software testen - Aktuelle Webtechniken 4. Semester - Sommersemester 2017 - Web-Anwendungen 2 - Web-Engineering - Softwaretechnik 2 - Softwaretechnik 3 - Content Management Systeme (CMS) - Data-Mining - XML - BWL1 3. Semester - Wintersemester 2016/2017 - Mathematik 3 - Softwaretechnik 1 - Nicht-sequentielle Programmierung - Statistik - IT-Sicherheit - Mobile Computing 2. Semester - Sommersemester 2016 - Grundlagen der Informatik 3 - Grundlagen der Informatik 4 - Web-Anwendungen 1 - Web-Ergonomie und Web-Design - Computernetze - Mathematik 2 1. Semester - Wintersemester 2015/2016 - Grundlagen der Informatik 1 - Grundlagen der Informatik 2 - Rechnerstrukturen und Betriebssysteme - Datenbanken und SQL - Mathematik 1 - Web-Programmierung Zusätzlich belegte Module an anderen FHs - theoretische Informatik (WINGS Wismar) - Programmieren in C++ (Virtuelle Hochschule Bayern) Noch fehlende Pflichtmodule: - Multimedia - IT-Recht - Projektarbeit - Bachelorarbeit
  14. Das Modul "Wissenschaftliches Arbeiten" gehört zum Studienbereich "Basiskompetenz Beruf", in dem man verschiedene "Soft Skill" Module belegen kann. Die anderen Module dieses Bereichs sind "Soziale Kompetenz", "Selbst- und Zeitmanagement", "Rhetorik", "Präsentieren" und "Kreativitätstechniken". "Wissenschaftliches Arbeiten" nimmt unter diesen Modulen eine besondere Stellung ein. Es kann als einziges auch als Wahlpflichtmodul belegt werden. Wer also zu Beginn seines Studiums lieber "Rhetorik" belegen möchte, kann "Wissenschaftliches Arbeiten" noch kurz vor der Projekt- und Bachelorarbeit nachholen. Wichtiger ist allerdings, dass dieses Modul auf die Anfertigung der Bachelorarbeit vorbereitet. Früher war die Belegung freiwillig aber dringend empfohlen. Soweit ich informiert bin, ist das Modul inzwischen Pflicht für neu eingeschriebene Studenten, weil es in Einzelfällen Probleme bei der Anfertigung der Bachelorarbeiten gab. Das ist fatal, weil bei einer nicht bestandenen Bachelorarbeit ja schon die komplette Studienzeit investiert wurde. Auch eine schlechte Note ist hier besonders ärgerlich. Zum einen, weil die Bachelorarbeit stärker in die Endnote eingeht als andere Module, zum anderen, weil die Bachelorarbeit als eigenständige Leistung in einem (oft) selbstgewählten Themengebiet auch in der Außenwahrnehmung durch Arbeitgeber eine höhere Bedeutung hat als andere Module. Anscheinend hat sich an der FH Dortmund gezeigt, dass Studierende, die eine Einführung ins wissenschaftliche Arbeiten belegt haben, die formalen Anforderungen einer Bachelorarbeit besser bewältigen. Und das ist ja auch nicht überraschend. Die Methoden wissenschaftlichen Arbeitens kann und muss man lernen. Lehrbuch und Themen Professor Balzert ist einer der Autoren des Lehrbuches "Wissenschaftliches Arbeiten". Ich meine, den Stil und den sauberen Aufbau seiner Lehrbücher zur Softwaretechnik auch in diesem Buch wiederzuerkennen. Weitere Autoren sind Marion Schröder und Christian Schäfer. Frau Schröder kennen manche Studierende auch als Autorin des Lehrbuches "Heureka, ich hab's gefunden! Kreativitätstechniken, Problemlösung & Ideenfindung". Der reine Textteil hat über 400 Seiten. Ich kenne andere Einführungen ins wissenschaftliche Arbeiten und finde diese klar formuliert und gründlich. Wie schon in anderen Büchern von Herrn Balzert, klärt er zu Beginn wichtige Begriffe. Insbesondere behandelt er Qualitätskriterien wissenschaftlichen Arbeitens: Ehrlichkeit, Objektivität, Überprüfbarkeit, Reliabilität, Validität, Verständlichkeit, Relevanz, Logische Argumentation, Orginalität, Nachvollziehbarkeit, Fairness und Verantwortung. Diese Begriffe werden analysiert und durch konkrete Beispiele lebendig und verständlich gemacht. Diese Kapitel haben mir besonders gefallen. Eine so trennscharfe Analyse der Begriffe kenne ich eher aus geisteswissenschaftlichen Texten. Allein deswegen hat mir dieses Modul viel Freude gemacht. Im weitern Verlauf geht es dann um Techniken und Konventionen wissenschaftlichen Arbeitens. Zunächst geht es um den inhaltlichen Aufbau verschiedener Arten von wissenschaftlichen Arbeiten. Eine empirische Arbeit hat zwar im Prinzip einen ähnlichen Aufbau wie eine konstruktive Arbeit, aber Umfang und Gewichtung der verschiedenen Abschnitte unterscheiden sich deutlich. Darum ist es wichtig, sich darüber klar zu werden, was für eine Art wissenschaftlicher Arbeit man schreiben möchte. Unterschieden werden hier: Literaturarbeit empirische Arbeit konstruktive Arbeit theoretische Arbeit Insbesondere die konstruktive Arbeit ist für Informatiker relevant. Hier geht es darum, durch systematisches Vorgehen ein technisches Erzeugnis zu erstellen, also z.B. ein Software-System. Die Projektarbeit im Studiengang Web- und Medieninformatik ist eine konstruktive Arbeit. Soweit ich informiert bin, kann die Bachelorarbeit auch einen anderen Charakter haben. In verschiedenen Studienabschnitten sind unterschiedliche Arten wissenschaftlicher Arbeiten zu erstellen. Es ist ein Unterschied, ob man eine Hausarbeit, eine Bachelorarbeit, eine Masterarbeit, einen wissenschaftlichen Artikel oder eine Dissertation schreibt. Mich haben natürlich zunächst einmal die Anforderungen an eine Bachelorarbeit interessiert, aber es ist schon interessant zu wissen, auf welche Höhen das Niveau noch steigen kann. Ich habe zwar momentan keine konkreten Pläne für einen Master, aber das könnte ja irgendwann noch einmal Thema werden. Schließlich geht es um den formalen Aufbau wissenschaftlicher Arbeiten, also um Dinge wie Satzspiegel, Textgestaltung, Seitennummerierung, Fußnoten, Anhänge und insbesondere Verzeichnisse. Hier erhält man viele wertvolle Tipps, wie man sich eine geeignete Dokumentenvorlage erstellt, um dann auch zügig arbeiten zu können. Im Modul sind Dokumentvorlagen für Word, LibreOffice und LaTEX enthalten, die man sich herunterladen kann. Ich habe ein wenig mit der LaTEX-Vorlage experimentiert. Leider hätte ich hier noch einige Anpassungen an die deutsche Sprache vornehmen müssen, weil insbesondere das Erstellen von Verzeichnissen noch unbefriedigend funktionierte. Für meinen mündlichen Vortrag habe ich aus Zeitdruck mit der LibreOffice-Vorlage gearbeitet, die ich für meine Zwecke etwas angepasst habe. Das Thema Formatierung ist nicht aufregend, aber für solche formalen Dinge kann später viel Zeit draufgehen. Die kann sich sparen, wenn man sich vorher die Mühe macht, eine gescheite Vorlage zu bauen. Literaturverzeichnissysteme können einem die Arbeit erleichtern, erfordern aber natürlich auch eine gewisse Einarbeitung. Darum ist es gut, sich schon vor Anmeldung einer Bachelorarbeit mit so etwas zu beschäftigen. LaTEX möchte ich mir noch einmal genauer anschauen. Ich habe den Eindruck, dass man damit viel Zeit sparen kann, wenn man die anfänglichen Hürden nimmt. Eine wichtige Rolle nimmt im Modul natürlich das korrekte Zitieren von Quellen ein. Hier geht es zunächst einmal darum, zu verstehen, was für Quellen zitierfähig und zitierwürdig sind. Dann geht es darum, sich in Absprache mit der Hochschule bzw. dem Betreuer für eine der verschiedenen Zitierweisen zu entscheiden und diese auch konsequent durchzuhalten. Dabei hilft wieder eine gute Dokumentenvorlage. Unterschiedliche Arten von Veröffentlichungen müssen im Literaturverzeichnis auch unterschiedlich behandelt werden. Insbesondere Quellen aus dem Internet sind nicht einfach zu referenzieren, weil eine Quelle unter einem Link nicht unbedingt dauerhaft zu finden ist. Es gibt verschiedene Möglichkeiten, damit umzugehen, die im Modul thematisiert werden. Es folgt ein Kapitel über wissenschaftlichen Schreibstil, verständliches Schreiben und die Visualisierung von Inhalten. Ein weiteres Kapitel behandelt unterschiedliche Forschungsmethoden mit ihren Stärken und Schwächen. Unterschieden werden hier: schriftliche Befragung Fragebögen und Interview-Leitfäden Experiment Interview Gruppendiskussion Beobachtung Inhaltsanalyse Je nach Gegenstand und Forschungsschwerpunkt sind unterschiedliche Methoden angemessen. Auch dieses Kapitel hat eine erkenntnistheoretische Komponente. Ein wichtiger Teil des Kurses beschäftigt sich damit, wie man sich seine Arbeitszeit gut einteilt, um seine Arbeit auch rechtzeitig abschließen zu können. Hier fällt der Begriff Projektmanagement, den ich etwas übertrieben finde, weil für mich dazu gehört, dass zumindest ein kleines Team koordiniert wird. Selbst- und Zeitmanagement hielte ich für die passendere Bezeichnung. Gleichwohl erhält man hier wertvolle Tipps, wie man die Arbeit an einer Bachelorarbeit in überschaubare Teilschritte gliedern und Meilensteine definieren kann. Gezeigt wird auch die Arbeit mit Software-Tools zum Projektmanagement. Ich habe die Arbeit damit ausprobiert, hatte aber den Eindruck, dass hier das Verhältnis zwischen Einarbeitungsaufwand und Nutzen nicht stimmt. Wenn man ein Projekt mit vielen Beteiligten zu managen hat, mag das freilich ganz anders aussehen. In diesem Abschnitt wird auch behandelt, wann und wie oft man sich mit seinem Betreuer austauschen sollte. Der letzte Kursabschnitt handelt von der Präsenation der Ergebnisse in einem mündlichen Vortrag, denn eine Bachelorarbeit muss ja in den meisten Fällen auch verteidigt werden. Die Inhalte dieses Abschnittes überlappen sich zum Teil mit dem Modul "Präsentieren". Einsendeaufgaben Die Einsendeaufgaben sind zahlreich und vielfältig und beziehen sich auf alle Kursteile. Spaß gemacht haben mir zum Beispiel die Aufgaben zur Stilverbesserung. Am besten gefallen haben die Aufgaben zu den Qualitätskriterien wissenschaftlichen Arbeitens, weil sie oft eine kreative Komponente hatten. Die Korrekturen durch meine Tutoren kamen sehr zügig. Gut gefallen hat mir, dass sie Informatikerin ist und das Thema "Wissenschaftliches Arbeiten" aus dieser Perspektive betreut. Auch die Tests waren zahlreich und deckten den Stoff engmaschig ab. Prüfung Eine Besonderheit dieses Moduls ist, dass die Klausur nur eine Stunde dauert, dafür aber eine mündliche Prüfung zum Modul gehört. Diese muss ein bisschen früher anmeldet werden als eine Klausurteilnahme, weil der organisatorische Aufwand höher ist. Mündliche Prüfungen finden nur in Dortmund statt, üblicherweise am Freitag Vormittag. Die mündliche Prüfung besteht aus einem Vortrag von 20 Minuten. Anschließend beantwortet man noch Fragen zum Thema. Man reicht drei Themenvorschläge ein: ein allgemeines Informatikthema ein spezielles Informatikthema ein allgemeines Thema (das also nichts mit Informatik zu tun hat) Ich hätte am liebsten ein Thema aus der Entwicklungspsychologie vorgetragen, aber ausgewählt wurde mein Vorschlag "Grundlegende Merkmale und Muster funktionaler Programmierung". Dieses Thema war auch gut, weil es schon einen gewissen Bezug zu dem hat, was ich in meiner Bachelorarbeit gerne machen würde. Insofern war die mündliche Prüfung auch eine Gelegenheit, sich hier schon mal ein bisschen einzulesen. Welches Thema ausgewählt wurde, erfährt man übrigens erst zwei Wochen vor dem Prüfungstag. Es geht nun darum, die im Modul gelernten Techniken im kleineren Maßstab anzuwenden. Erwartet wird z.B. die Recherche und Auswahl relevanter Literatur. Die Art des Vortrages ist nicht genau vorgegeben, aber Beamervorträge sind heute üblich. Ein Handout ist nicht zwingend, es kostet aber Punkte, wenn es fehlt. Außerdem ist das Handout eine Möglichkeit, das Verfassen einer schriftlichen Arbeit zu üben und auch Feedback dazu zu erhalten. Darum meine ich, es lohnt sich, hier zumindest etwas in der Art einer Hausarbeit abzuliefern. Zwei Wochen sind durchaus wenig Zeit für eine saubere Arbeitsweise im Sinne der vermittelten Techniken und Qualitätskriterien. Es macht viel Spaß, ein selbst gewähltes Thema zu recherchieren und zu bearbeiten, aber es ist auch viel Arbeit, insbesondere, wenn man eigentlich erst nach seinem Job Zeit hat, sich mit seinem Thema zu befassen. Die mündliche Prüfung erhöht den Bearbeitungsaufwand des Moduls erheblich. Ich vermute, dass das auch für andere Module mit mündlicher Prüfung gilt. Ein kritischer Punkt bei meinem Vortrag war die Einhaltung der Redezeit, was auch zu Punktabzug geführt hat. Auch beim Punkt Einbeziehung des Publikums habe ich noch einiges zu lernen. Fachlich war es zu meiner Überraschung in Ordnung. Ich war nämlich die ganze Zeit der Ansicht, viel zu wenig Stoff behandelt zu haben, und habe mir den Kopf zerbrochen, wie ich noch mehr Themen in die 20 Minuten quetschen kann. Für das nächste Mal werde ich lernen müssen, stärker Wesentliches vom Unwesentlichen zu trennen. In den Klausuraufgaben geht es unter anderem um Qualitätskriterien wissenschaftlichen Arbeitens. Es werden etwa Vorgehensweisen, Aussagen oder Schlussfolgerungen präsentiert und man soll dann erklären, warum das keine saubere wissenschaftliche Arbeitsweise ist und was man besser machen müsste. Für die Endnote werden die Punkte aus mündlicher und schriftlicher Prüfung addiert. Mit meinem Prüfungsergebnis war ich zufrieden, auch wenn die mündliche Prüfung gezeigt hat, dass es noch Punkte gibt, an denen ich arbeiten muss. Fazit Ich hätte erwartet, dass dieses Modul zwar nützlich für die Bachelorarbeit aber nicht besonders spannend ist. Zu meiner Überraschung hat die Bearbeitung mir unheimlich viel Spaß gemacht. Thematisch war es eine echte Abwechslung. Es hat eben nicht nur und nicht mal schwerpunktmäßig mit Informatik zu tun. Tatsächlich ist das Lehrbuch eine allgemeine Einführung ins wissenschaftliche Arbeiten. Die Beispiele stammen darum nicht nur aus der Informatik sondern z.B. auch den Sozialwissenschaften oder ganz anderen Disziplinen. Das Modul ist im Gegensatz zu den meisten anderen Modulen meines fachbezogenen Studiums allgemeinbildend. Was hier vermittelt wird, entwickelt auch die Fähigkeit zu kritischem Denken. Bei den Einsendeaufgaben und auch bei den Themenvorschlägen für die mündliche Prüfung hat man größere Entscheidungsspielräume als bei anderen Aufgaben im Informatik-Studium. Rückblickend betrachte ich das Modul "Wissenschaftliches Arbeiten" als eines der schönsten in meinem Studium.
  15. Zur Rolle des Moduls "Aktuelle Webtechniken" im Studiengang WMI Das Modul "Aktuelle Webtechniken" ist ein Wahlpflicht-Modul und richtet sich an Studierende im Studiengang "Web- und Medieninformatik". Es ist außerdem Teil des Hochschulzertifikates "Web-Entwickler". Für Wirtschaftsinformatiker scheint es mir weniger geeignet. Das liegt daran, dass das Modul "Web-Anwendungen 2" als fachliche Grundlage sehr empfehlenswert ist. Dieses ist aber für Wirtschaftsinformatiker nicht Pflicht und müsste daher ebenfalls als Wahlpflichtmodul belegt werden. Als weitere fachliche Grundlage für dieses Modul wird "XML" genannt. Aufgrund der Voraussetzungen wird man "Aktuelle Webtechniken" wohl gegen Ende seines Studiums belegen, also im 5. oder 6. Fachsemester. Inhaltlich geht es um die Entwicklung von Web-Anwendungen mit dem serverseitigen Framework JavaServer Faces. Das Lehrbuch Das Lehrbuch "JavaServer Faces" von Michael Goll und Marcel Urbanek hat einen Umfang von ca. 250 Seiten. Im Vergleich zu anderen Lehrbüchern bei Springer Campus klingt das wenig. Allerdings ist die Schrift kleiner und der Text recht eng gesetzt, so dass bei gleicher Seitenzahl mehr Inhalt drin steckt, als man zunächst vermuten würde. Der Text ist ziemlich dicht geschrieben. Das Tempo, in dem die Inhalte vermittelt werden, ist recht hoch. Möglich ist das, weil die meisten Studierenden ja Vorkenntnisse in JavaServer Pages und XML haben. Ohne diese Grundlage wäre es deutlich schwieriger, dem Text zu folgen. Die Inhalte ähneln denen des Moduls JSP. Allerdings geht es hier um ein aktuelleres serverseitiges Web-Framework auf Grundlage von Java. Während man in JSP HTML und Java-Code in einer Seite mischt, gibt es in JSF eine saubere Trennung. Funktionalität wird in Bean-Klassen implementiert. Das sind Java-Klassen mit öffentlichen Gettern und Settern für alle Attribute sowie einem parameterlosen Standardkonstruktor. Dies erlaubt dem Framework die Erzeugung und die Befüllung von Objekten dieser Klassen. Weil sie vom Framework gemanaged werden, nennt man sie auch Managed Beans. Damit das Framework weiß, welche Managed Beans zur Verfügung stehen, muss man sie ihm in einer XML-Datei bekannt machen. Die eigentlichen Seiten werden dann mit Tags des Frameworks aufgebaut. Hier stellt man Bindings zu Methoden oder Attributen der Managed Beans her. Das ist ein sauberer und übersichtlicher Ansatz, um Webanwendungen aufzubauen. Die Arbeitsweise erinnert mich an ASP.Net und die damit verbundene Code-behind-Technik. Weitere Themen sind: - Templating - Internationalisierung - Navigation - Konverter - Validierung - Listener - Erweiterte Komponenten Alle diese Themen werden durch Codebeispiele praxisnah behandelt. Es ist sehr empfehlenswert, diese Beispiele in einer geeigneten IDE auszuprobieren und sie abzuwandeln, um ein Gefühl dafür zu bekommen, wie JSF arbeitet. Empfohlen wird als IDE Eclipse. Ich bevorzuge Netbeans und habe das Modul damit bearbeitet. Das war so auch gut machbar. Nach den recht praktischen ersten zwei Dritteln des Moduls folgen im letzten Drittel vertiefende Themen, die theoretischer und auch anspruchsvoller sind. Hier geht es darum, wie das Framework arbeitet, was für Abläufe durch einen HTTP-Request ausgelöst werden und was für Objekte dabei in welcher Reihenfolge erzeugt werden. Nicht zuletzt geht es darum, wie man eigene JSF-Komponenten, eigene Renderer und eigene Tags implementiert. Ich finde, JSF ist ein schönes Framework. Gut gefallen haben mir z.B. die Konzepte für Navigation und für die Konvertierung und Validierung von Nutzereingaben. Tests und Einsendeaufgaben Die Tests und Aufgaben decken den Stoff gut ab. Für meinen Geschmack hätten es mehr Aufgaben sein dürfen. Sie waren aber ausreichend, um mit allen großen Themenblöcken praktische Erfahrungen zu machen. Eigene Initiative und eine gewisse Experimentierfreude beim Ausprobieren von Codebeispielen halte ich für empfehlenswert. Leider fand ich die Formulierung der Aufgaben oft unklar oder mehrdeutig. Das Nachdenken darüber, was der Autor der Aufgabe gemeint haben könnte, hat bei mir oft wesentlich länger gedauert als die eigentliche Lösung der Aufgabe. Das war für mich oft unbefriedigend. Die Rückmeldungen meines Tutors kamen zügig. Auf Fragen bekam ich rasche und zufriedenstellende Antworten. Auch die Online-Klausur wurde zügig korrigiert. Die Online-Klausur passte gut zu den Einsendeaufgaben und den im Kurs behandelten Themen. Sie war durchaus auch eine gute Vorbereitung auf die Präsenzklausur. So sollte es sein Präsenzklausur Ich hätte erwartet, dass die Präsenzklausur vor allem die ersten zwei Drittel des Moduls abdecken würde, also die eher praktischen Teile. Dort lag auch ein Schwerpunkt. Es wurden aber auch die theoretischeren Teile durch Wissensfragen abgeprüft. Bei der Arbeit mit JSF hat man mit unterschiedlichen Dateien in unterschiedlichen Sprachen und Formaten zu tun: XML-Dateien, Java-Quellcode, JSF-Seiten mit Tags. In der Klausur spielten alle eine Rolle. Der Schwierigkeitsgrad der Aufgaben war unterschiedlich. Es gab einfachere Punktebringer aber auch schwierigere und umfangreichere Aufgaben für diejenigen, die eine gute Note haben möchten. Leider hatte ich auch diesmal wieder ein Problem mit der Formulierung mancher Aufgaben. Zeit ist ein entscheidender Faktor in dieser Klausur. Man muss relativ viel schreiben. Auch wenn man im Grunde schon eine Lösung im Kopf hat, wird es knapp, diese auch aufs Papier zu bringen. Ich würde empfehlen, ein paar Einsendeaufgaben von Hand abzuschreiben, um im Schreiben von XML auf ein gewisses Tempo zu kommen. Ich habe es leider nicht geschafft, alle Aufgaben in der gegebenen Zeit zu bearbeiten. Das hatte natürlich Auswirkungen auf meine Note, die nicht so gut ausgefallen ist, wie ich mir im Vorfeld erhofft hatte. Fazit Nach dem Modul "Web-Anwendungen 2", welches serverseitige Web-Programmierung mit JSP abhandelt, wird in "Aktuelle Webtechniken" mit JSF ein weiteres serverseitiges und Java-basiertes Framework vorgestellt. JSF ähnelt ein wenig ASP.Net. Mir hat das Modul Spaß gemacht und ich finde, serverseitige Programmierung ist eine der Stärken des Studienganges "Web- und Medieninformatik". Das Modul ist etwas für Studierende, die auch Freude an JSP und XML hatten. Es ist außerdem eine Gelegenheit, noch mal einmal Zeit mit dem Schreiben von Code zu verbringen. Gegen Ende des Studiums gibt es ja viele Module, die recht theorielastig sind. Da ist JSF eine willkommene Abwechslung. Mein nicht ganz so tolles Abschneiden bei Klausur nehme ich nicht so schwer. Am diesem Punkt meines Studiums stehen einfach schon so viele Noten fest, dass mein Spielraum zu Beeinflussung meiner Abschlussnote ohnehin gering ist. Ich freue mich also einfach, dass ich hier noch einmal die Gelegenheit hatte, ein Modul zu bearbeiten, dass ich inhaltlich sehr genießen konnte.
  16. Grippe-Schutzimpfung ist eine zweischneidige Sache. Ich habe das viele Jahre lang konsequent durchgezogen. Leider habe ich speziell diese Impfung nie gut vertragen. Hat mich immer für mehrere Tage umgehauen. Hatte dann leider auch nie den Eindruck, seltener oder weniger schlimm krank zu werden. Irgendwann hatte ich die Nase voll und hab es bleiben gelassen. Vielleicht fange ich damit wieder an, wenn ich alt bin. Dann steigt ja das Risiko, dass es Komplikationen gibt.
  17. Vor etwa 4 Wochen habe ich meine Klausur zum Modul "BWL2" geschrieben. Irgendwie hatte ich mir schon gedacht, dass diese Woche das Ergebnis kommen würde, denn wer nimmt schon gerne Arbeit mit ins nächste Jahr. Und so war es denn auch: Heute kam die ersehnte Mail. Das Ergebnis ist erfreulich. Ich hatte während der Bearbeitung ja den Eindruck, dass mir die Themen dieses Moduls zugänglicher waren als insbesondere das externe Rechnungswesen aus BWL2. Aber diesen Eindruck hatte ich ja schon im Modul "Geschäftsprozess-Management", wo mein Klausur-Ergebnis zwar in Ordnung aber auch nicht gerade umwerfend war. Diesmal ist es mir anscheinend gelungen, das Gelernte in der knappen Zeit der Klausur auch umzusetzen. Die BWL hat sich ja leider als der Bremsklotz meines Studiums erwiesen. Für die wenigen Module habe ich deutlich mehr Bearbeitungszeit aufwenden müssen als für andere Module, die ich zum Kern-Curriculum eines Informatikstudienganges zählen würde. Dass es sich diesmal gelohnt hat, sich die nötige Zeit zu nehmen, empfinde ich als schönen Abschluss des Studienbereiches BWL. Ganz ausgeschlossen ist es nicht, dass ich noch einmal auf die BWL zurückkomme. Springer Campus bietet z.B. ein Modul "Electronic Business", das durchaus gut zum Profil eines Studienganges "Web- und Medieninformatik" passen würde. Ob ich das probiere, muss ich mir noch überlegen. In erster Linie möchte ich mich nun darauf konzentrieren, ein paar Module abzuschließen, die mir den Weg zur Projekt- und Bachelorarbeit ebnen sollen. Zu nennen ist hier insbesondere das Modul "Wissenschaftliches Arbeiten", das viel spannender ist als ich vermutet hätte. Natürlich spielen hier Formalien eine große Rolle, aber es gibt auch eine erkenntnis- und wissenschaftstheoretische Seite. Das hätte ich in einem FH-Studiengang einer anwendungsbezogenen Disziplin wie Informatik so gar nicht erwartet. Es macht mir jedenfalls Spaß, darüber zu reflektieren, und ich glaube, für die Projekt- und für Bachelor-Arbeit wird mir dieses Modul viel bringen.
  18. Genau so ist es. Tatsächlich gilt das für beides, für die Projektarbeit und für die Bachelorarbeit. Springer Campus empfiehlt uns, dass diese beiden Arbeit aufeinander aufbauen. Aktuell habe ich für die Projektarbeit aber etwas anderes vor als für die Projektarbeit. Die beiden Themen unterscheiden sich stark, aber ich finde beide auch sehr interessant, aus ganz unterschiedlichen Gründen. Für die Bachelorarbeit braucht man natürlich einen Professor mit Prüfberechtigung an der FH Dortmund. Mir war zunächst nicht klar, wie ich einen Betreuer finde. Ich hatte (naiv) angenommen, dass ich mit meiner Idee so ein bisschen "hausieren" gehen müsste. Die verschiedenen Professoren haben ja unterschiedliche Forschungsschwerpunkte. Bei einem Telefonat hat mir unsere Studiengangskoordinatorin dann erklärt, dass es nicht so sinnvoll ist, einfach mal irgendwelche Professoren anzumailen. Ich habe ihr dann Skizzen für 2 Ideen geschickt. Sie hat mich ein paar Tage darauf zurückgerufen und mir nach einem längeren Telefonat einen Prüfer empfohlen. Anfangs war ich ein wenig skeptisch, ob so eine Vermittlung funktionieren kann. Aber der Prüfer, den sie mir empfohlen hat, kennt sich mit dem Thema, das ich gerne bearbeiten würde, gut aus. Und scheint auch Lust zu haben, diese Arbeit zu betreuen. Bis jetzt habe ich jedenfalls den Eindruck, dass mich das Studienbüro sehr gut beraten hat. Bachelor- und Projektarbeit haben mir im Vorfeld ein bisschen Sorgen gemacht, weil ich ja bislang noch nicht im IT-Bereich arbeite. Anderen Studierenden laufen passende Themen oft am Arbeitsplatz über den Weg. Damit durfte ich nicht rechnen. Jetzt, wo beide Sachen ein bisschen Gestalt annehmen, freue ich mich schon richtig darauf.
  19. Das Modul "BWL2" ist ein Pflichtmodul in den beiden Studiengängen "Web- und Medieninformatik" und "Wirtschaftsinformatik" bei Springer Campus. Die Web- und Medieninformatiker sollen es schon im zweiten Semester belegen, die Wirtschaftsinformatiker erst ein Semester später. Das liegt daran, dass die Wirtschaftsinformatiker im ersten Semester zunächst ein Modul "Grundlagen der BWL" belegen, was alles weitere ein Semester nach hinten verschiebt. Wenn ich auf meine Schwierigkeiten mit den BWL-Modulen zurückblicke, meine ich, es wäre gar keine schlechte Idee gewesen, dieses Grundlagenmodul freiwillig zu belegen. Damit hätte ich vielleicht zum Teil ausgleichen können, dass ich im Bereich BWL keine Vorkenntnisse hatte. Gut möglich, dass mir der Stoff von BWL1 und BWL2 so leichter gefallen wäre. Die Rolle der BWL-Module im Studiengang Web- und Medieninformatiker belegen außer BWL1 und BWL2 auch noch Geschäftsprozess-Management. Wirtschaftsinformatiker belegen weitere BWL-Module: E-Business, Strategisches Management und Controlling, Human-Ressources. Und natürlich viele Wirtschaftsinformatik-Module. Die meisten von denen und auch das Modul "E-Business" dürfen Web- und Medieninformatiker im Wahlbereich belegen. BWL2 soll nach BWL1 belegt werden, was ich rückblickend nicht für unbedingt nötig halte. Mir scheint, dass die Inhalte der Module wenig aufeinander aufbauen, so dass ich eine Umkehrung der Reihenfolge für durchaus möglich halte. Dafür sprechen würde, dass insbesondere der Kurs Ökonomie aus dem Modul BWL2 einen gewissen Überblick über das Fachgebiet verschafft, der es vielleicht ein wenig erleichtert, die spezielleren Inhalte aus BWL1 einzuordnen, nämlich internes und externes Rechnungswesen. BWL2 gilt als inhaltliche Voraussetzung für Geschäftsprozess-Management. Ich habe Geschäftsprozessmanagement vor BWL2 belegt, was auch gut möglich war. Die Kapitel zur strategischen Planung und zu Organisationsformen aus BWL2 wären aber doch eine gute Vorbereitung auf Geschäftsprozess-Management gewesen, so dass ich hier anderen Studierenden dazu raten würde, die Module in der offiziell empfohlenen Reihenfolge zu bearbeiten. Aufbau des Kurses BWL2 gehört zu den Modulen, die aus zwei separaten Kursen bestehen. Es gibt 2 Lehrbücher, 2 Online-Abschlusstests, 2 Online-Klausuren, 2 Korrektoren für Einsendeaufgaben aber eine gemeinsame Präsenzklausur. Nach meiner Erfahrung erhöht eine solche Zweiteilung den Bearbeitungsaufwand ein wenig. So habe ich das auch diesmal empfunden. Am Umfang der Lehrbücher liegt das aber nicht. Die Titel "Basiswissen Unternehmensführung" von Klaus Menzel und "Basiswissen Ökonomie" von Rainer Ostermann und Frank Wischmann kommen zusammen auf rund 400 Seiten, was für Module bei Springer Campus üblich ist. Die Autoren Wischmann und Ostermann waren mir bekannt, denn sie haben auch die Lehrbücher für BWL1 verfasst. Inhalte des Kurses Unternehmensführung Im Kurs Unternehmensführung geht es um Zielsysteme, Strategische Planung, Unternehmensbewertung, wertorientierte Unternehmensführung und Organisationsstrukturen. Diese Inhalte haben mich anfangs wenig interessiert, aber das Buch war zugänglich geschrieben und die Kapitel wurden durch Fallbespiele begleitet, die den Stoff lebendig machten. Zum Teil wurden hier Dialoge aus Besprechungen wiedergegeben, in denen sich unterschiedliche Ansätze und Denkschulen offenbarten. Das fand ich didaktisch gut gelungen und hat mir oft weitergeholfen, mir den (für mich recht trockenen) Stoff zu erschließen. Im Kapitel Zielsysteme geht es zum Beispiel darum, Ziele in Zielhierachien einzuordnen, um Abhängigkeiten zwischen Zielen zu erkennen. Man sieht so, welche Unterziele erreicht werden müssen, um übergeordnete Ziele erreichen zu können. Ein häufiges Problem ist, dass Ziele nicht immer miteinander kompatibel sind. Häufig bestehen Zielkonflikte, die aufgelöst werden müssen. Dazu kann es nötig werden, Ziele zu gewichten. Der bei Erreichung erwartete Nutzen, die Wahrscheinlichkeit der Realisierung, aber auch die Beeinflussbarkeit spielen bei solchen Bewertungen eine Rolle. Schließlich braucht man Methoden, um bei konfliktären Zielen durch Dialog und Verhandlung zu Entscheidungen zu kommen. Wo Einigungen nicht möglich sind, werden oft übergeordnete Instanzen entscheiden müssen. Im Kapitel Strategischen Planung geht es um die langfristige Ausrichtung des Unternehmens. Strategische Entscheidungen wären zum Beispiel, in einem neuen Geschäftsfeld tätig werden zu wollen, den Produktionsstandort zu verlagern, das Unternehmen an die Börse zu bringen oder bestimmte Produktlinien komplett aufzugeben. Für strategische Entscheidungen braucht man Instrumente zur Analyse und Planung, von denen man im Kurs einige kennenlernt. Die SWOT-Analyse identifiziert Stärken und Schwächen des Unternehmens, aber auch Chancen und Risiken. Die Portfolio-Analyse bewertet die angebotenen Produkte des eigenen Unternehmens nach Kriterien wie Wachstum und Marktanteil und kategorisiert sie in Poor Dogs, Questions Marks, Stars und Cash Cows. Eine Cash Cow ist zum Beispiel ein Produkt mit hohem relativen Marktanteil aber nur noch geringem Wachstum. Cash Cows sollen ohne zusätzlich Investitionen Geld bringen. Stars sind dagegen Produkt mit hohem relativem Marktanteil und hohem Wachstum. In solche Produkte soll verstärkt investiert werden. Wichtig für die strategische Planung sind auch Prognosen künftiger Entwicklungen, denn auf diese möchte man sich durch die strategischen Entscheidungen ja vorbereiten. Hier wird unterschieden zwischen quantitativen Methoden, die Zahlenwerte aus der Vergangenheit in Form von Zeitreihen analysieren, und qualitativen Methoden, die mit Einschätzungen von Experten arbeiten. Im Kapitel geht es aber auch um Denkschulen strategischer Planung, die sich aus unterschiedlichen Wissenschaftsgebieten entwickelt haben und sich in den Vorgehensweisen stark unterscheiden. Schließlich geht es um Grenzen strategischer Planung, die sich zum Beispiel daraus ergeben, dass Prognosen auf der Grundlage vergangener Entwicklungen nicht immer zuverlässig sind. Schwierigkeiten hatte ich in erster Linie mit dem Kapitel Unternehmensbewertung. Entweder war es für mich zu dicht geschrieben oder es mangelte mir an Vorwissen. Hier geht es darum, welchen Wert ein Unternehmen hat. Es gibt sehr unterschiedliche Methoden, den Wert eines Unternehmens zu bewerten. Welche davon geeignet ist, hängt vom Anlass der Bewertung ab. So wird ein Kreditgeber sich unter anderem dafür interessieren, was bei Liquidation eines Unternehmens erlöst werden kann. Das Vermögen des Unternehmens sieht er als Sicherheit für den Fall einer Insolvenz. Dagegen wird ein Investor sich eher dafür interessieren, welche Erträge das Unternehmen abwirft, weil er es nicht liquidieren sondern betreiben will. Besonders interessant ist der Potentialwert eines Unternehmens. Hier geht es darum, bislang ungenutzte Möglichkeiten und Chancen zu erkennen und zu bewerten. Dies ist zum Beispiel relevant bei Fusionen. Die Kombination der Fähigkeiten zweier Unternehmen kann neue Werte schaffen, die den Wert des aufgekauften Einzelunternehmens übersteigen. Gut gefallen hat mir das Kapitel zu Organisationsstrukturen. Hier ging es zum Beispiel um Vor- und Nachteile traditioneller Organisationsstrukturen im Vergleich zu Projektorganisationsformen und zweckorientierten Organisationsformen. Hier sah ich inhaltliche Bezüge zum Modul Geschäftsprozess-Management, das ich leider vorher belegt hatte. Inhalte des Kurses Ökonomie Im Kurs Ökonomie geht es zunächst um Grundtatbestände des Wirtschaftens. Im Schnelldurchgang werden hier wichtige Grundbegriffe geklärt und behandelt: Nachfrage und Bedürfnisse, Produktionsfaktoren, Wirtschaftsordnungen, Wirtschaftskreislauf und Wirtschaftsprinzipien, Kennziffern betrieblichen Handelns, volkswirtschaftliche Gesamtrechnung, Begriffe wie Bruttoinlandsprodukt oder Bruttosozialprodukt, Märkte, Preismechanismen, Preisbildung in Polypolen, Oligopolen und Monopolen, Dynamik der Wirtschaft. Obwohl sehr dicht geschrieben, konnte ich diesem Teil des Kurses gut folgen und meine, hier auch einige Bausteine für meine Allgemeinbildung aufgesammelt zu haben. Nach einem kurzen Kapitel über konstituive Entscheidungen wird der bis dato eher volkswirtschaftlich orientierte Kurs wieder betriebswirtschaftlich. Es geht um drei Typen konstituiver Entscheidungen: - die Wahl des Tätigkeitsfeldes - die Wahl des Standortes - die Wahl der Rechtsform Während ich dem Kapitel zur Standortwahl gut folgen konnte, fand ich insbesondere das Kapitel zur Rechtsform zu gedrängt geschrieben, um den Stoff wirklich zu begreifen. Natürlich wurde hier regelmäßig auf weitere Fachliteratur verwiesen, aber so sehr interessierte mich das Thema dann doch nicht. Insgesamt bin ich überrascht, dass der Kurs Ökonomie mir unterm Strich etwas weniger Spaß gemacht hat als Unternehmensführung. Ich hätte das Gegenteil erwartet. Möglicherweise liegt es daran, dass Unternehmensführung ein bisschen ausführlicher geschrieben ist als Ökonomie. Ich schätze, mit etwa 100 Seiten mehr Umfang hätte ich den Ökonomie-Kurs besser verwerten können. Dazu möchte ich bemerken, dass ich zu Schulzeiten keinen Unterricht zu Wirtschaftsthemen genossen habe und solche Inhalte auch in meiner Ausbildung keine Rolle gespielt haben. Wer mehr Vorkenntnisse oder Vorerfahrungen mitbringt, kann die im Kurs Ökonomie dargebotenen Inhalte wahrscheinlich besser aufnehmen als ich. Einsendeaufgaben und Tests Die Einsendeaufgaben haben mein Verständnis des Stoffes sicher verbessert. Im Kurs Unternehmensführung waren es mehr als im Kurs Ökonomie. Die Rückmeldungen meiner Tutoren kamen überwiegend zügig. Sie waren für mich auch interessant, weil mir oft Punkte fehlten und ich so erfuhr, was ich für die Klausur noch einmal wiederholen musste. Klausur Die Präsenzklausur ist ohne Hilfsmittel zu schreiben, was mir bei diesem Stoff ein bisschen Sorgen gemacht hat. Die waren aber unbegründet. Die Klausur deckte den Stoff breit ab und behandelte beide Kurse bzw. Lehrbücher gleichmäßig, zumindest was die erreichbaren Punkte anging. Breit gestellte Klausuren halte ich für faire Klausuren, weil Erfolg oder Misserfolg nicht davon abhängen, ob zufällig die eigenen Lieblingsthemen auftauchten. Insbesondere muss man nicht befürchten, wegen kleinerer Schwächen in einem Teilgebiet durchzufallen. Wer sich redlich bemüht, den gesamten Stoff zu bearbeiten, sollte hier Erfolge sehen. Es gab unterschiedliche Aufgabentypen: Ein Diagramm zeichnen, Multiple Choice, doch der Schwerpunkt lag auf dem Erklären von Begriffen und Zusammenhängen (z.T. mit Bezug zu politischen und gesellschaftlichen Themen). Anzahl und Umfang der Aufgaben passten gut zur Bearbeitungszeit. Manche Aufgaben waren recht knapp zu beantworten, andere ausführlicher. Es gab "Punktebringer", aber auch ein paar speziellere Fragen für das letzte Quäntchen Punkte. Hier ging es erkennbar darum, ein Grundverständnis abzuprüfen. Auch jemand, der nicht BWL-affin ist, hat hier eine faire Chance. Ein Ergebnis liegt mir noch nicht vor, aber diesmal bin ich optimistisch, dass es geklappt haben müsste. Fazit Ich bin froh, dass das ungeliebte Thema BWL nun hoffentlich hinter mir liegt. Unzumutbar schwer haben es mir die Kursautoren nicht gemacht. Es hat mir auch sicher nicht geschadet, mich einmal mit diesen Themen zu beschäftigen. Ich vermute, dass ich durch die Module etwas leichter mit Menschen kommunizieren kann, die eine betriebswirtschaftliche Denk- und Arbeitsweise haben. Das kann ja in vielen Situationen hilfreich sein. Meine eigenen Erwartungen, was ich durch die Module würde lernen können, waren rückblickend betrachtet wahrscheinlich etwas überzogen. Nur 10 ECTS sind wenig Zeit für ein komplexes Thema wie BWL. Das reicht für einen Einblick und vielleicht für eine gewisse Orientierung im Themengebiet. Das ist weniger als ich gehofft habe, aber natürlich hat es einen Wert. Wahrscheinlich wäre es in meinem Fall vernünftig gewesen, das Modul "Grundlagen der BWL" freiwillig als Propädeutikum zu belegen. Dann hätte ich wahrscheinlich aus den beiden folgenden Modulen mehr Nutzen ziehen können. Rückblickend betrachtet hätte es mir besser gefallen, ich hätte diese 10 ECTS mit anderen Inhalten füllen dürfen. Grundsätzlich gefällt es mir sehr, an einer FH zu studieren, wo ich einen starken Praxisbezug des Studiums erkenne. Vermutlich ist BWL ein Pflichtfach, weil man davon ausgeht, dass die meisten von uns in Unternehmen arbeiten werden. Das ist ja auch eine vernünftige Annahme. Statt BWL z.B. zusätzliche Mathe-Module zu belegen hätte mir allerdings mehr Spaß gemacht. Andererseits gehört zu einem Studium auch die Auseinandersetzung mit Themen, die man auf den ersten Blick nicht zum Anbeißen findet. Insofern habe ich versucht, mich auf BWL einzulassen. Für mich war es der bislang mühsamste Teil meines Studiums, weil ich es schwieriger als in anderen Modulen fand, mich zum regelmäßigen Lernen zu motivieren. Aber vermutlich ist das nun geschafft. Jetzt bin ich auch ein bisschen stolz auf mich. Ob ich noch einmal Lust haben werde, im Wahlbereich ein weiteres Modul mit BWL-Bezug zu belegen? Für die nächste Zeit möchte ich mich erst mal anderen Themen zuwenden. Andererseits gibt es dann doch Inhalte, die mich interessieren könnten. Ein Modul "E-Business" würde z.B. ganz gut zu einem Studium "Web- und Medieninformatik" passen. Momentan bin ich aber froh, im Studienbereich BWL meine Pflicht getan zu haben. Wie geht es nun weiter? Inzwischen habe ich angefangen, das Modul "Wissenschaftliches Arbeiten" zu belegen. Das ist für mich freiwillig, weil ich noch nach der alten Studienordnung studiere. Die Belegung wird uns aber dringend empfohlen, weil die Inhalte für die Anfertigung der Projekt- und Bachelorarbeit wichtig sind. Das sehe ich ein, also habe ich das Modul belegt. Ich hatte erwartet, dass das ein notwendiger aber auch trockener Studienabschnitt werden würde. Bislang bin ich positiv überrascht: Ich finde den Stoff richtig interessant, die Einsendeaufgaben machen mir viel Spaß und ich glaube, dass ich hier wichtige Einsichten für meine Projekt- und Bachelorarbeit mitnehmen kann. Besonders gefällt mir aber, dass ich den Eindruck habe, hier auch etwas für meine Allgemeinbildung zu tun. Ich werde zu gegebener Zeit ausführlicher berichten. Inzwischen habe ich auch eine Idee für meine Projekt- und für meine Bachelorarbeit. Beides dauert noch ein bisschen, aber allmählich taucht aus dem Nebel schemenhaft der letzte Studienabschnitt auf und nimmt ein bisschen Gestalt an. Das wird etwas ganz anderes werden als Stoff zu lernen und Klausuren zu schreiben. Aber mittlerweile vermute ich, dass das auch Spaß machen wird.
  20. Ok, das finde ich durchaus nachvollziehbar, weil ich so ähnliche Situationen auch erlebt habe, als ich nach einer für mich passenden Hochschule gesucht habe. Ein Problem ist, dass so ein Erstkontakt nicht unbedingt repräsentativ für die Qualität der Lehre sein muss. Eventuell könnte es sich lohnen, dran zu bleiben. Ich glaube, dass Austausch mit Studierenden im anvisierten Studiengang helfen kann, das abzuschätzen. So etwas könnte sich ja hier übers Forum ergeben.
  21. Das Adjektiv "unterirdisch" finde ich in dem Zusammenhang unangemessen. Ich studiere bei Springer Campus. Zu Beginn habe ich nach einem flexiblen Studienmodell studiert. Da konnte ich einzelne Module buchen, wann immer ich wollte, und es wurde je nach Buchung abgerechnet. Später wechselte ich in einen Studienvertrag mit fester Laufzeit und monatlichen Raten. Die Studienkosten sanken dadurch spürbar. Menschen die berufsbegleitend studieren, brauchen von ihrer Hochschule mehr zeitliche und räumliche Flexibilität in der Lehre, in der organisatorischen Betreuung und bei Prüfungen. Es ist klar, dass das ein erheblicher Mehraufwand ist, für den irgendwer aufkommen muss. Die verschiedenen Fernstudienanbieter decken hier ein breites Spektrum ab, mit unterschiedlichen Graden an Flexibilität und eben auch sehr unterschiedlichen Kosten. Das Angebot der IUBH scheint mir vergleichsweise viel Flexibilität zu bieten, natürlich zu entsprechenden Kosten. Ich verstehe natürlich, wenn das manchen noch nicht reicht. Allerdings muss man auch erst mal jemanden finden, der ein noch flexibleres Angebot macht. Die für mich viel wichtigere Frage ist: Wie hoch ist die Qualität der gebotenen Lehre, wenn man sich denn einmal vertraglich mehr oder weniger fest aneinander gebunden hat? Das Adjektiv unterirdisch würde ich für Fälle reservieren, in denen es an diesem Punkt mangelt. Wie die IUBH in dieser Hinsicht zu bewerten ist, weiß ich nicht, da ich sie nicht aus Studierendenperspektive kenne. Aber eine Hochschule als unterirdisch abzuwerten, weil die angebotenen vertraglichen Konditionen die eigenen Vorlieben nicht treffen, geht meiner Meinung nach am Kern der Sache vorbei.
  22. Heute kam das Ergebnis meiner Klausur. 82 von 100 Punkten finde ich in Ordnung, wenn man bedenkt, dass mich BWL-Themen nur mäßig interessieren und mir auch schwer fallen. Wenn ich die Zeit gefunden hätte, rechtzeitig die Online-Klausur zu schreiben, hätte ich evtl. noch ein paar Bonuspunkte verdienen können, um die Note noch etwas zu heben. Das habe ich dieses Mal leider nicht unterbringen können. Der Studienbereich "IT-Systeme" wäre damit abgeschlossen. Das Thema BWL wird mich aber noch ein bisschen beschäftigen. Aktuell bearbeite ich das Modul BWL2 mit den Kursen Unternehmensführung und Ökonomie. Ich finde das etwas zugänglicher als den Stoff von BWL1, wo es um internes und externes Rechnungswesen ging. Etwas interessanter finde ich es auch. Allerdings war Geschäftsprozess-Management doch noch etwas spannender, weil da ein IT-Bezug klar erkennbar war. Nun denn, noch eine Prüfung BWL2 und mit etwas Glück liegt das ungeliebte Thema hinter mir. Ich hoffe, dass mein Studium nach diesen Bremsklötzen wieder etwas mehr Fahrt aufnimmt.
  23. Eine funktionsorientierte Aufbauorganisation kann aus Mitarbeiterperspektive ja auch Vorzüge haben: Ich erledige meinen Teilschritt, für den ich passgenau qualifiziert bin. Den kann ich also mit hoher Wahrscheinlichkeit perfekt erledigen. Wenn der Gesamtprozess nicht funktioniert, liegt es nicht an mir, denn mein Teilschritt war vorbildlich erledigt und für alles andere bin ich ja nicht zuständig. Darin kann man sich einrichten. Auf der anderen Seite kann das für Mitarbeiter auch demotivierend sein. Egal, wie sehr ich mich abmühe: Ob der Prozess als Ganzes gelingt, liegt nicht in meiner Hand. Ich leiste einen Beitrag zu etwas, das ich als Ganzes nie erlebe. Unter Umständen fällt es mir schwer, den Mehrwert für meine Kunden zu sehen. Gibt es Probleme, kann ich nur begrenzt weiterhelfen, weil ich den Prozess als Ganzes nicht durchschaue. Unzufriedene Kunden muss ich ständig an andere Leute weiterleiten. Die Lösung solcher Probleme erlebe ich selten. Das sind Punkte, bei denen man ansetzen könnte, wenn man Mitarbeiter für Veränderungen in Richtung Prozessorientierung motivieren möchte.
  24. So ist es gemeint. Der verlinkte Artikel und das genannte Hörbuch weisen aber einen Weg zu einem Verfahren, dessen Sicherheit eine physikalische Grundlage hätte.
  25. 12:45 Uhr - Vortrag "Sicherheit im Internet" Der Vortrag hielt Prof. Rettinger von der FH Dortmund. Seine Lehrgebiete dort sind Grundlagen der Informatik und Compilerbau. Herr Rettinger hat Erfahrung mit Fernlehre, unter anderem weil er als Lehrbeauftragter für die Fernuni Hagen tätig ist. Bei Springer Campus betreut er künftig Grundlagen der Informatik 1 und 2, also die Einführungen in die strukturierte und objektorientierte Programmierung in Java. Herr Rettinger hat früher einmal im Bereich "Public Key Kryptographie" geforscht. Möglicherweise ist dies sein Bezug zum Thema des Vortrages. Dieses lautet... "Sicherheit im Internet. Eine kurze Einführung in die moderne Kryptographie" Der Vortrag begann mit einer alltäglichen Anwendungssituation im Internet, dem Abruf eines Wikipedia-Eintrages. Dabei wird eine HTML-Datei von einem Server per Internet auf den heimischen Laptop gesendet. Die Übertragung erfolgt mit den bekannten Protokollen, die aufeinander aufbauen. - Ethernet als Netzzugangsschicht - IP als Internetschicht - TCP als Transportschicht - HTTP als Anwendungsschicht 3 Grundfragen der Sicherheit im Internet Im Hinblick auf die Sicherheit dieser Situation stellen sich folgende 3 Grundfragen: 1. Wer sagt mir, dass am anderen Ende der Kommunikation wirklich ein Server der Wikipedia ist? Das ist das Problem der Authentizität. 2. Liest jemand mit? Das ist das Problem der Vertraulichkeit. 3. Ist der empfangene Inhalt manipuliert? Das ist das Problem der Integrität. Symmetrische Verschlüsselung Der klassische Ansatz wäre Verschlüsselung beim Sender, Entschlüsselung bei Empfänger. Dann kann ich Inhalt über einen unsicheren Kanal wie das Internet übertragen. Eine gängige Technik dazu wäre z.B. die Verschlüsselung mit AES. Verwendet man EINEN Schlüssel zum Ver- und Entschlüsseln, so spricht man von symmetrischer Verschlüsselung. Dabei treten 2 prinzipielle Probleme auf: 1. Wie vereinbaren die Kommunikationspartner den gemeinsamen Schlüssel? Dazu bräuchten sie einen sicheren Kanal. Wenn sie den hätten, bräuchten sie nicht verschlüsseln. Tatsächlich ist das eine gängige Strategie. Beispielsweise verschicken Banken das Kennwort für den Zugang zum Online-Banking per Briefpost, in der Hoffnung, dass die Abhörsicherer ist als eine E-Mail. 2. Die Anzahl der nötigen Schlüssel. Wollen 1000 Teilnehmer miteinander kommunizieren, müssen sie an die 500.000 Schlüssel vereinbaren. Bei einer Million Teilnehmern braucht man schon an die 500.000.000.000 Schlüssel. Um die genannten Probleme zu überwinden, hat man asymmetrische Verschlüsselungsverfahren entwickelt. Hier verwendet man unterschiedliche Schlüssel zum Ver- und Entschlüsseln. Davon später mehr. Einwegfunktionen Verschlüsselung basiert allgemein auf Einwegfunktionen. Eine Einwegfunktion ist eine Funktion, deren Umkehrung schwierig ist. Ein einfaches Beispiel für eine Einwegfunktion ist die Multiplikation von Primzahlen: - Das 143 das Produkt der Primzahlen 11 und 13 ist, errät man nicht so schnell. - Dagegen ist es sehr leicht, 11*13 zu rechnen. - Werden die Primzahlen größer, steigt die Schwierigkeit der Faktorisierung enorm. Man ist im wesentlichen auf rumprobieren angewiesen. Die Multiplikation von Primzahlen ist also eine Einwegfunktion, weil ihre Umkehrung, die Primfaktorzerlegung, schwierig ist. Prinzipiell immer möglich: Brute-Force-Angriffe Schwierig ist natürlich ein schwammiger Begriff. Möglich ist die Umkehrung einer Einwegfunktion prinzipiell immer, nämlich mit dem brute force Ansatz. Er besteht im Ausprobieren aller möglichen Schlüssel. Die in der Praxis relevante Frage ist, wie lange brute force Entschlüsselung dauert. Für die meisten Anwendungsfälle würde es reichen, wenn das Brechen der Verschlüsselung im Schnitt 50 Jahre dauert. Hat ein Schlüssel die Länge 500 Bit, so muss man im Schnitt 2 hoch 249 mögliche Schlüssel ausprobieren. Wir nehmen an, jedes Atom im Universum sei als Prozessor nutzbar. Man schätzt, dass es 10 hoch 85 Atome bzw. ungefährt 2 hoch 282 Atome gibt. Wir nehmen an, dass jedes Atom mit 1 PHz gtaktet wird. Für die Berechnung geben wir uns 1.000.000.000 Jahre. Dann können wir 2 hoch 387 Schritte ausführen. Das reicht bei weitem nicht, um den Schlüssel durch Ausprobieren zu finden. Man kann also sagen: Ist ein Schlüssel nur lang genug, so wird brute force Entschlüsselung praktisch unmöglich. Wichtige Einwegfunktionen sind z.B. Hashfunktionen. Diese dampfen in kurzer Rechenzeit große Datenmengen, z.B. komplette Internetseiten, auf einen kleinen Zahlenwert ein, den sogenannten Hashwert. Gängige Hashfunktionen sind SHA1 (gebrochen) und SHA256 (noch sicher). Primfaktorzerlegung: Grundlage des RSA-Verfahrens Für Verschlüsselung bedeutsamer sind Einwegfunktionen mit Hintertür (im englischen auch trap door also eigentlich Falltür). Sie verwenden 2 Schlüssel, einen zum Ver- und einen zum Entschlüsseln. Das sind also die oben genannten asymmetrischen Verschlüsselungsverfahren. Die beiden Schlüssel nennt man auch öffentlichen Schlüssel und privaten Schlüssel. Wichtig dabei ist: Es muss unmöglich sein, den privaten Schlüssel aus dem öffentlichen Schlüssel zu errechnen. Das nennt man Unabhängigkeit der Schlüssel. Ein bekanntes asymmetrisches Verschlüsselungsverfahren ist RSA. Es basiert auf der oben erwähnten Schwierigkeit der Primfaktorzerlegung. An dieser Stelle sei bemerkt: Die Schwierigkeit der Primfaktorzerlegung ist ein Erfahrungswert. Mathematiker versuchen sich seit langer Zeit an diesem Problem und konnten es bislang nicht in akzeptabler Zeit lösen. Es könnte natürlich sein, dass es ein schnelles Verfahren zur Primfaktorzerlegung gibt, das bislang nicht entdeckt wurde. In dem Fall wäre die Multiplikation von Primzahlen keine Einwegfunktion mehr und die darauf basierenden Verschlüsselungen leicht zu brechen. Auf die Details des RSA-Verfahrens gehe ich hier nicht länger ein, auch wenn sie im Vortrag kurz vorgestellt wurden. Knapp gesagt verschlüsselt man eine Botschaft M (message) mit einem Schlüssel e und erhält die verschlüsselte Botschaft C. C wird mit dem Schlüssel d entschlüsselt und man erhält wieder M. Die Grundidee lieferten im Jahr 1975 Merkle, Hellman und Diffie. 1978 wurde das eigentliche RSA Verfahren am MIT von Rivest, Shamir und Adleman entwickelt. Ihre Initialen wurden namensgebend. Kurios ist, dass diese zentrale Methode 20 Jahre vor dem eigentlichen, massenhaften Durchbruch des Internets entwickelt wurde. Problem: Authentizität Kehren wir zurück zu unserem ursprünglichen Anwendungsfall, dem Abruf einer Wikipedia-Seite. Wikipedia hat einen privaten und einen öffentlichen Schlüssel. Wikipedia könnte meinen öffentlichen Schlüssel kennen, z.B. weil ich ihn bei Aufnahme der Kommunikation genannt habe. Wikipedia verschlüsselt damit eine Seite und schickt sie mir über den unsicheren Kanal Internet. Ich kann die Seite nun mit meinem privaten Schlüssel entschlüsseln. Wer meinen privaten Schlüssel nicht kennt, kann nicht entschlüsseln. Die Vertraulichkeit der Nachricht ist also gewährt. Nicht gewährt ist allerdings die Authentizität. Ein anderer Akteur könnte eine gefälschte Wikipedia-Seite mit meinem öffentlichen Schlüssel verschlüsseln und mir senden. Ich könnte mit meinem privaten Schlüssel entschlüsseln, würde aber nicht bemerken, dass mir eine falsche Seite untergeschoben wurde. Hybride Verschlüsselung Ein weiteres Problem von RSA: Diese Art der Verschlüsselung ist langsam. Darum nutzt man RSA lediglich, um mit asymmetrischer Verschlüsselung einen symmetrischen Schlüssel zu vereinbaren, den man im folgenden benutzt. Das nennt man dann hybride Verschlüsselung. Als symmetrisches Verfahren verwendet man z.B. AES. Das ist sehr schnell und oft in Hardware implementiert. Unser Netzwerkstack sieht nun so aus: - Ethernet als Netzzugangsschicht - IP als Internetschicht - TCP in Verbindung mit SSL/TLS als Transportschicht - darauf aufbauend HTTPS als Anwendungsschicht Problem: Echtheit öffentlicher Schlüssel Auch aus Sicht des Senders Wikipedia gibt es ein Problem. Meinen öffentlichen Schlüssel habe ich über das Internet bekannt gemacht. Natürlich könnte jemand anderes Wikipedia einen falschen öffentlichen Schlüssel unterschieben. Wikipedia würde die Seite dann nicht für mich sondern für einen anderen Akteur verschlüsseln. Wie kann der Sender wissen, dass der öffentliche Schlüssel echt ist? Die Lösung für dieses Problem ist eine vertrauenswürdige Instanz. Man nennt sie Zertifizierungsstelle. Diese hat ebenfalls einen öffentlichen und einen privaten Schlüssel. Die Zertifizierungsstelle verschlüsselt den öffentlichen Schlüssel des Senders mit ihrem privaten Schlüssel. Ich entschlüssele mit dem öffentlichen Schlüssel der Zertifizierungsstelle und erhalte den öffentlichen Schlüssel des Senders. Diesen kann ich vergleichen mit einem mir bekannt gemachten öffentlichen Schlüssel. Stimmen beide überein, ist der mir bekannt gemachte Schlüssel echt. Die Zertifizierungsstelle kann also öffentliche Schlüssel beglaubigen. Die künftige Sicherheit der Kommunikation im Internet wird von verschiedenen Grundproblemen bedroht. Das erste war bereits erwähnt: 1. Wie schwer ist Faktorisierung wirklich? Oben war erwähnt, dass brute force bei hinreichend langem Schlüssel unmöglich ist. Es gibt aber zur Primfaktorzerlegung bessere Verfahren als brute force. Die Rechenleistungen steigen. Darum empfehlen Institutionen wie das BSI ständig längere Schlüssel. Für RSA gelten 1900 Bit als minimum, bis 2016 wurden 2000 Bit empfohlen und ab 2016 sogar 3000 Bit. An dieser Stelle muss man sich noch einmal klar machen, das jedes zusätzliche Bit die Anzahl möglicher Schlüssel verdoppelt. MIt Elliptische Kurven steht ein alternative Ansatz im Hintergrund bereit. Dieser wird praktisch nicht genutzt, weil er sehr rechenaufwendig ist. Außerdem ist unklar, wie sicher elliptische Kurven wirklich sind. Bei der Faktorisierung weiß man, dann man sie seit langer Zeit erfolglos versucht. Elliptische Kurven sind noch nicht so gut erforscht. Mag sein, dass unerwartet schnelle Umkehrungen entdeckt werden. 2. Implementierungsprobleme i. Gebrochene Verschlüsselung basiert oft auf mangelnden Implementierungen, z.B. auf mangelnder Zufälligkeit. ii. Auch Protokolle sind ein häufiger Angriffspunkt, z.B. die Einigung auf ein Verschlüsselungsverfahren und die Methode des Schlüsseltausches. iii. Betriebssysteme halten viele Daten in Zwischenspeichern. Manche Verfahren zur Überwindung von Verschlüsselung basieren darauf, den Hauptspeicher eines Rechners auszulesen. Aus dem Speicherinhalt probiert man mögliche Passwörter. Das reduziert die Anzahl der möglichen Schlüssel erheblich. iv. Zertifizierungsstellen arbeiten nicht immer sauber. v. SSL/TLS sind auf Betriebssystem-Ebene implementiert. Der Browser vertraut dem OS. Hier ist eine Eingriffmöglichkeit. 3. Quantencomputer Die ultimative Bedrohung für die aktuellen Verschlüsselungsverfahren sind Quantencomputer. Sollten sie verfügbar werden, könnten RSA und auch bekannte Alternativen wie elliptische Kurven gebrochen werden. Bislang erweist sich die Konstruktion von Quantencomputern aber als schwierig. Absolute Sicherheit Absolute Sicherheit versprechen 2 Ansätze 1. One-Time-Pad Dieser Ansatz ist theoretisch perfekt und praktisch irrelevant. Man wählt einen zufälligen Schlüssel, der so lang wie die Botschaft sein muss und nur ein Mal verwendet werden darf. Diesen nimmt man zum Ver- und Entschlüsseln. Das Verfahren ist praktisch nicht nutzbar, weil man einen sicheren Kanal braucht, um diesen Schlüssel zu vereinbaren. Wenn ich einen Schlüssel von der Länge der Nachricht sicher vereinbaren könnte, so könnte ich auch gleich die Botschaft senden und bräuchte keine Verschlüsselung. (Wollen zwei Partner die Vertraulichkeit ihrer Kommunikation zu sichern, könnte man sich die Anwendung etwa so vorstellen. Man trifft sich einmalig und bespielt zwei Festplatten mit einer identischen, zufällig erzeugten Bitfolge, die mehrere Terrabyte lang ist. Die Partner trennen sich räumlich. In der folgenden Kommunikation verschlüsseln und entschlüsseln sie mit dieser Bitfolge, bis die gesamte Bitfolge konsumiert ist. Die Gefahr: Diese Bitfolge darf nicht in falsche Hände geraten. Sie muss sicher transportiert und aufbewahrt werden.) 2. Quanten-Kryptographie Sie arbeitet mit verschränkten Quanten. Misst man den Zustand verschränkter Quanten an zwei Orten, so erhält man gleiche Ergebnisse. Man kann so eine zufällige Bitfolge vereinbaren. Da jede Messung den Zustand verändert, würde ein Mithören sofort bemerkt. Die Partner hätten dann nämlich keinen gemeinsamen Schlüssel mehr und könnten gar nicht kommunizieren. In der praktischen Implementierung gilt Quanten-Kryptgraphie als noch nicht sicher. Fazit Soweit die Inhalte des Vortrages von Herrn Rettinger, die ich hier aus dem Gedächtnis und auf Grundlage meiner Notizen wiedergegeben habe. Studierenden, die das Modul "IT-Sicherheit" schon hinter sich haben, dürften die meisten Inhalte bekannt gewesen sein. Sie sollten insbesondere auch deutlich mehr über die mathematischen Grundlagen und die Abläufe im Detail wissen. Allerdings erodieren solche Kenntnisse schnell, wenn sie nicht regelmäßig angewendet werden, wie ich beim Hören des Vortrages bemerkt habe. Insofern war der Besuch des Vortrages in jedem Fall lohnend. Für Studierende, die "IT-Sicherheit" noch vor sich haben, war es ein guter Einstieg ins Thema. Zum Thema Quanten-Kryptographie sei noch auf diese aktuelle Meldung verwiesen: Wissenschaftler kommunizieren quantenverschlüsselt Möglicherweise rückt die praktische Anwendung also näher als man denkt. Sehr empfehlenswert finde ich zu diesem Thema auch das Hörbuch "Spukhafte Fernwirkung" aus dem kleinen aber feinen Verlag supposé. Hier erzählt der Physiker Anton Zeilinger ca. 100 Minuten lang über Quantenphysik und spannt am Ende den Bogen zur praktischen Anwendung Quanten-Kryptographie. Das Hörbuch ist ein paar Jahre alt, aber für einen Einblick ins Thema noch immer hervorragend geeignet. Mathe-Tutorium Parallel zum Vortrag von Herrn Rettinger fanden die üblichen Mathe-Tutorien mit den Themen "Lineare Algebra" und "Analysis" statt. Die sind üblicherweise gut besucht, denn der Stoff des Moduls Mathe2 ist erfahrungsgemäß für viele Studierende herausfordernd, insbesondere für Studierende ohne Abitur, aber auch für diejenigen, deren Abitur länger zurück liegt. Da ich diesen Teil meines Studiums schon hinter mir habe, habe ich diesmal an den Tutorien nicht teilgenommen. Zum neuen Studiengang "Elektrotechnik" Mitarbeiter von Springer Campus standen für Fragen zu den Studiengängen Chemie, Biologie und Elektrotechnik bereit. Als Studierender im Studiengang Web- und Medieninformatik interessierte mich vor allem, ob denkbar sei, einzelne Module aus dem E-Technik-Studium als Ergänzungsmodule zum Informatikstudium zu belegen. Aus meiner Sicht könnten folgende Module aus dem Curriculum des Studiengangs Elektrotechnik auch für Informatiker interessant sein: - Programmierung eingebetteter Systeme (hier käme es freilich darauf an, wie hardwarelastig das Modul konzipiert ist) - Maschinelles Lernen (insbesondere weil im Curriculum der Informatik-Studiengänge bislang kein KI-Modul zur Verfügung steht) - Bildverarbeitung Zum gegenwärtigen Zeitpunkt kann man über solche Möglichkeiten der Verknüpfung der Curricula noch nichts sagen. Der Studiengang Elektrotechnik ist im Aufbau. Bislang gibt es nur wenige Studierende und viele Module sind noch nicht fertig. Ähnlich wie in den Fernstudiengängen Biologie und Chemie richtet sich auch Elektrotechnik an Studierende mit einschlägiger Berufsausbildung, um die praktischen Teile eines E-Technik-Studiums abzudecken. Präsenzen spielen in diesem Studiengang natürlich eine Rolle. Vielleicht gibt es zu einem späteren Zeitpunkt eine Möglichkeit, dass Informatik-Studenten von einzelnen Modulen aus dem E-Technik-Studium profitieren können. Das "Drumherum" eines Präsenztages Ein Präsenztag ist natürlich mehr als die Summe der gebotenen Veranstaltungen. Zunächst ist ein Präsenztag immer auch Prüfungstag. Viele Studierende bringen ihre Prüfungen schon am Anreisetag Freitag hinter sich und können den Samstag dann genießen. Aber manche müssen noch am Samstagmorgen in den Klausuren schwitzen. Ich hatte es zum Glück auch schon am Freitag hinter mich gebracht und konnte dann am Samstag gemütlich frühstücken. Interessant und nützlich ist natürlich auch immer der allgemeine Austausch mit anderen Studierenden: Über belegte Module, Prüfungen, Zeitplanung im Studium, sinnvolle Modulkombinationen und andere Themen, die im Leben eines Fernstudenten eine Rolle spielen. Das allgemeine "Hallo" macht natürlich abgesehen vom Nutzen auch Spaß, denn meistens kämpfen wir ja alleine. Schön ist auch, dass die Mitarbeiter von Springer Campus immer wieder den Kontakt zu den Studierenden suchen und an Rückmeldungen sichtlich interessiert sind. Der nächste Präsenztag ist am 10.03.2018. Ich komme gerne wieder.
×
  • Neu erstellen...