Zum Inhalt springen

PVoss

Communitymitglied
  • Gesamte Inhalte

    246
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von PVoss

  1. Moin, Ich nutze ChatGPT sehr gerne als Sparringpartner, zum Beispiel im Brainstorming. Einfach ein paar Gedanken hinwerfen und erfahren, ob der Ansatz in eine "bekannte" oder übliche Richtung geht und was man vielleicht noch bedenken muss. Oder wie ich in einem meiner letzten Blogeinträge geschrieben habe, ich habe ChatGPT so lange über die Funktionsweise neuronaler Netze gelöchert bis ich es irgendwann verstanden habe. Mein Dozent hätte nach einer Stunde das Gespräch beendet; aber die KI kann nicht weglaufen und wird auch nicht müde den gleichen Sachverhalt aus 20 verschiedenen Perspektiven zu beschreiben. ChatGPT ist kein Allzweckwerkzeug. Das Modell ist für bestimmte Aufgaben sehr gut, für andere aber extrem schlecht. A) Methodisch ja, fachlich nein. ChatGPT kann bei beidem einigermaßen gut unterstützen -> siehe oben B) Stimmt, das kann ChatGPT überhaupt nicht. Muss man selber machen. C) Hierbei kann ChatGPT wieder sehr gut unterstützen. Ich bin nicht ganz so optimistisch bezüglich der Fähigkeiten und des Zeitraums wie Student3185, aber "der Geist ist aus der Flasche". Die Welt hat gesehen was mit den modernen Sprachmodellen möglich ist (wie @Student3185 ja ausführlich beschrieben hat) und diese Technologie wird nicht mehr verschwinden. Ab jetzt heißt es zu lernen wie man diese Technologien gut nutzen und in Prozesse integrieren kann. Es gibt sicher noch Fragestellungen die in den nächsten Jahren geklärt werden müssen. Da geht es zum Beispiel um ethische Bedenken wie bei selbstfahrenden Autos oder Sicherheitsbedenken wie dem Schadenspotenzial von Deep Fakes. Von einer KI die die Kontrolle übernehmen und sich gegen Menschen wenden kann sind wir allerdings weit entfernt. Die Angst vor Jobverlusten ist ein berechtigtes Thema, allerdings war das mit jedem technologischen Fortschritt ein Thema. Die Digitalisierung schreitet auch ohne Sprachmodelle immer weiter voran, jetzt trifft es ein paar andere Branchen in denen man mit diesem Risiko nicht gerechnet hatte. Aber wie gesagt, das lässt sich nicht rückgängig machen, die Gesellschaft muss damit umgehen. Wenn du dich wirklich noch nicht weiter mit dem Thema beschäftigt hast finde ich so einen Appell sehr unangemessen. Ich verstehe auch die Message nicht ganz. Das Studium ist der Job und die KI schafft Jobs (also das Studium?) ab? P.S. Das ist natürlich ein überzeichnetes Bild von uns beiden, aber: Ich sehe da keinen Unterschied zur Menschheit wie sie aktuell ist. :)
  2. Ahoi, am Sonntag habe ich die Fallstudie für meinen letzten Kurs Data Analytics und Big Data abgegeben. Ich habe den Kurs jetzt fast das halbe Studium über vor mir hergeschoben und bin auch bis zum Ende einfach nicht damit warm geworden. Data Analytics und Big Data Die Themen im Kurs sind an sich ziemlich interessant - nur nicht für mich. Es ist ein paar Monate her seit ich mich mit dem Script beschäftigt habe, es ist aber hängengeblieben, dass die tatsächliche Durchführung der Datenanalyse eher grob behandelt wurde (fair, dafür gibt es ja andere Kurse); im Fokus standen die Big Data Architekturen selbst und deren Komponenten, dazu noch rechtliches und konkrete Anwendungsszenarien. Gerade Infrastruktur... ist einfach nicht mein Thema. Überblicke über verschiedene "Tools" finde ich super langweilig, da ist mir eine konkrete Aufgabenstellung "mach xyz, dafür könntest du irgendwas von a b oder c nutzen finde es selbst heraus" lieber. Die Fallstudie Ich kann mir vorstellen, dass viele Studenten an den Aufgaben der Fallstudie viel Freude haben. Es stehen wieder drei Aufgaben zur Auswahl, die in diesem Kurs wirklich vollkommen unterschiedlich sind. Man kann zum Beispiel ein Konzept für eine Big Data Architektur zu einem bestimmten Anwendungsszenario entwickeln; oder zu einem vorgegebenen Szenario tatsächlich einen Prototypen in Form eines Dashboards zur Auswertung von Datenstreams entwickeln. Wie gesagt - es sind schon interessante Sachen, ich habe nur keine Lust mich mit der ganzen Infrastruktur dahinter auseinanderzusetzen, bei mir wäre das auch einfach ein Fass ohne Boden und würde jeden Rahmen einer normalen Hausarbeit sprengen. Stattdessen habe ich mich für die Evaluierung von SAS Studio für eine fiktive Firma entschieden. Für diese Aufgabe bekommen wir von der IU einen Zugang zu SAS onDemand (wobei man sich den auch einfach als Privatperson einrichten kann). Mit SAS Studio ein paar Dinge auszuprobieren hat mir in diesem Fall nicht wirklich Spaß gemacht. In den letzten 3 Monaten habe ich mich ja bereits intensiv mit Python und R beschäftigt, während R bereits eine etwas seltsame Syntax hat, legt SAS nochmal eine Schippe drauf. Der Errorlog, bzw Ereignislog, ist direkt als Tab in die Oberfläche integriert und nur einen Klick vom Codeeditor-Tab entfernt, aber holy shit ist das Ding manchmal einfach unnütz. Beim Versuch eine XML-Datei zu importieren kam dann einfach "internal Error", obwohl ich mich an die Beispiele aus Tutorials gehalten habe. Bei JSON-Dateien dann nochmal das gleiche... Und selbst mit einfachen Textdateien war das ein Kampf. Während ich das mit den JSON- und XML-Dateien irgendwann hinbekommen habe, habe ich beim Text einfach aufgegeben und das Ding quasi als CSV-behandelt - geplant war es aber anders. Anyway. So hat sich das ganze dann in die Länge gezogen. Fast jeder einzelne Bearbeitungsschritt war ein kleiner Kampf gegen die Programmiersprache, deshalb habe ich wirklich nur das von mir zu Beginn festgelegte Pflichtprogramm absolviert und keine extras mehr mit eingebaut. Mit dem Textteil der Fallstudie kam ich am Ende auf 11 Seiten, habe das Limit also wieder um eine Seite überzogen. Und das obwohl ich sehr viele Features nicht beschrieben habe, zum Beispiel gibt es neben dem Codeeditor auch eine grafische Oberfläche mit der man die Programme "zusammenklicken" - also per No-Code den SAS-Code generieren - kann. Das ist wahrscheinlich ein super wichtiges Feature, wurde in meiner Fallstudie aber nur in einem einzelnen Satz beschrieben. Dann die onDemand-Plattform und die Auswahl an Tutorials und die Community an sich - das sind ja alles Sachen die bei der Auswahl von Tools wichtig sind. Aber nope, hatte keinen Platz mehr im Dokument. Ich finde für viele der technischen Aufgabenstellungen, gerade wenn man auch etwas vom Code oder vom Ergebnis vorstellen soll, ist die Beschränkung auf 10 Seiten viel zu gering. Ich müsste nochmal nachsehen, aber ich glaube ich habe die Seitenzahl in jeder einzelnen Hausarbeit dieser Art überzogen - trotz mehrerer Seiten Anhang. Das Exposé für die Bachelorarbeit Ich hab es im letzten Blogeintrag schon angeschnitten, ich bin aktuell auf Betreuersuche und habe dafür schonmal ein erstes Exposé geschrieben. Der mögliche Betreuer hat sich inzwischen zurückgemeldet und wir haben nächste Woche einen Termin, in dem wir meine Idee für die Abschlussarbeit besprechen. Ich habe bisher wenige Richtlinien oder Beispiele über die Erstellung eines Exposés im Informatik-Bereich gefunden; und da mir meines bisher noch nicht um die Ohren gehauen wurde, wollte ich mal schreiben wie ich an die Sache rangegangen bin. Für das Titelblatt habe ich eigentlich das Format von meinen Hausarbeiten usw. übernommen und ein bisschen auf die Anforderungen an das Exposé angepasst. Auf myCampus gibt es in der Prüfungsordnung auch ein Beispiel für das Titelblatt, von dort habe ich die benötigten Datenfelder übernommen. Ebenso habe ich mir von myCampus das IU-Logo heruntergeladen, normalerweise habe ich das nicht auf die schriftlichen Ausarbeitungen gepackt. Die wichtigsten Dinge auf dem Titelblatt wären bei mir also: Datum (Monat/Jahr), Daten zum Studiengang usw., meine persönlichen Daten, Titel der vorgeschlagenen Arbeit (Entwicklung von blabla), Art der vorgeschlagenen Arbeit (Fallstudie oder Projektbericht?), Dauer der Bearbeitung nach Zeitmodell (11 Wochen, Teilzeitmodell 1). Inhaltlich habe ich zuerst das zu lösende Problem und einen Lösungsansatz beschrieben. Natürlich nicht so umgangssprachlich, aber sinngemäß: Es ist aufgefallen, dass .... Daraus ergeben sich Probleme a, b und c für x, y und z. Mit der Umsetzung von ... könnte man .... Eigentlich würde man aus dieser Problembeschreibung eine konkrete Forschungsfrage ableiten (glaube ich). Die habe ich aber noch offen gelassen, es gibt da mehrere Ansätze die ich mit dem Betreuer besprechen möchte. Als nächstes kam dann eine Beschreibung, wie ich bezüglich der wissenschaftlichen Arbeit methodisch vorgehen möchte. Dafür habe ich mich zum Design Science Research eingelesen und mir die verschiedenen Modelle angesehen. Ich habe grob das Konzept zu Design Science Research beschrieben und dann beschrieben inwiefern eines der Modelle zur Umsetzung meiner Idee passen würde. Meine ursprüngliche Idee ist sehr ambitioniert und umfangreich. Ich habe zwar für die Durchführung der Abschlussarbeit zwei Wochen Urlaub reserviert, aber ich bin mir nicht sicher ob die Zeit reicht um wirklich alle Aspekte ausreichend zu behandeln und gleichzeitig die 40 Seiten zu schreiben. Deshalb habe ich in einem Kapitel noch einen alternativen Lösungsansatz beschrieben, der an gewissen Punkten Abstriche macht und dadurch deutlich geringere Entwicklungszeit benötigt. Je länger ich darüber nachdenke, desto stärker tendiere ich zu diesem Lösungsansatz, aber mal sehen. Da es in meinem Projekt um die Entwicklung von Software geht habe ich zum Abschluss nochmal aufgeschrieben welche fachlichen Anforderungen bereits ohne größere Recherche ersichtlich sind. Dieses Kapitel ist aber wirklich sehr grob gehalten und soll nur nochmal einen Überblicke bieten was genau ich da eigentlich vorhabe. Insgesamt umfasst mein Exposé damit 5 Seiten und enthält die folgenden Dinge: Titelblatt Problembeschreibung und Zielstellung (wissenschaftliche) Methodik Forschungsergebnis Alternatives Forschungsergebnis Fachliche Anforderungen Literaturverzeichnis Ich habe kein Feedback zu dem Exposé an sich bekommen; wenn ich es nicht vergesse werde ich nächste Woche mal nachfragen und entsprechend posten falls an meinem Entwurf etwas völlig Banane ist. Ich habe in Beispielen gesehen, dass es auch üblich ist bereits eine Literaturliste oder sogar Zeitplan und Gliederung aufzuführen. Ich hätte zwar ein paar Bücher, die ich für die Arbeit heranziehen werde, aber eine Liste mit 2-3 Büchern war mir dann zu banal und ich habe es ganz weggelassen. Wenn alles gut läuft plane ich Anfang September mit der Bachelorarbeit zu beginnen. Das heißt ich habe jetzt noch 3-4 Wochen in denen ich mich wirklich mal etwas zurücklehnen kann und nichts für das Studium machen *muss* (natürlich werde ich schonmal weiter durch die Bücher stöbern und wer weiß was sich nächste Woche aus dem Gespräch ergibt). Nach diesem Sprint durch die Kurse des letzten halben Jahres haben mir die beiden Nachmittage Vorgestern und Gestern schon ziemlich gut gefallen. Es ist ungewohnt sich auf die Couch zu legen und dort auch tatsächlich länger als 30 Minuten liegen zu bleiben. Man muss nur aufpassen, dass man sich nicht daran gewöhnt. Das wars erstmal. Ich melde mich wieder wenn der Startschuss fällt, oder evtl. in den Kommentaren wenn es Feedback zum Exposé gibt. Bis dann!
  3. PVoss

    Digitalisierung

    Da wird auch gleich wieder die Gefahr für die Arbeitsplätze durch die Digitalisierung deutlich *smh my head*.
  4. Moin, es hat jetzt doch etwas länger gedauert diesen Blogeintrag zu schreiben. Zum einen fehlte mir die Inspiration, zum anderen habe ich stattdessen jeden Tag an der Fallstudie für Big Data gearbeitet. Gestern habe ich bereits die Note für die Klausur in Deep Learning bekommen, das ist ein guter Anlass um wieder was zu schreiben. Statistical Computing Zu diesem Kurs gibt es an sich gar nicht so viel zu sagen. Der Dozent beschreibt ihn als Übergangskurs von der Statistik in das Thema Maschinelles Lernen. Inhaltlich bedeutet das, es werden die Themen aus dem Kurs Statistik aufgefrischt, aber anstatt die Rechnungen manuell durchzuführen, verwenden wir die Funktionen aus Programmiersprachen oder Statistikprogrammen - in diesem Kurs wird dafür R verwendet. Die Fallstudie Die Aufgabenstellungen der Fallstudie und die Kombination mit dem Kurs Deep Learning sind das, was diesen Kurs für mich so besonders machen. Die Szenarien der Augaben sind teilweise ziemlich Banane, aber die konkreten Aufgabenstellungen selbst sind sehr interessant und praxisorientiert. Man kann wieder aus 3 verschiedenen Aufgabenstellungen auswählen, ich habe für mich die Aufgabe ausgewählt die ich am besten mit dem maschinellen Lernen verknüpfen konnte. Während es bei anderen Aufgaben zum Beispiel darum ging vorhandene Daten zu analysieren und daraus Handlungsempfehlungen abzuleiten ging es bei meiner Aufgabe um die Ermittlung fehlender Daten mittels Regressionsanalyse. Zur Umsetzung habe ich also den Scope des Kurses etwas ausgedehnt und mir mit Python ein paar Skripte zur Aufbereitung der Rohdaten und zum Training von Machine Learning Modellen entwickelt. Damit habe ich mich ein paar Wochenenden beschäftigt, das hat einfach richtig Spaß gemacht. Dabei habe ich dann mit den Daten experimentiert, an den Modellen gebastelt und ständig versucht noch ein bisschen mehr Präzision in die Schätzungen zu bekommen. Zum Abschluss dieses Arbeitsteils ging es dann noch darum die Modelle selbst zu bewerten: sind sie zu sehr angepasst, zu schwach, wie sind die Fehler der Schätzungen verteilt, kann ich die Lagemaße der Fehler in der späteren Auswertung der Daten berücksichtigen oder sind die einfach völlig random? Es ist ein super interessantes Thema. Das waren also ungefähr 5 Wochen die ich im Endeffekt allein mit der Datenaufbereitung für meine eigentliche statistische Auswertung verbracht habe. Von da an habe ich mich also mit der tatsächlichen* Aufgabenstellung beschäftigt. (*Datenaufbereitung gehört natürlich zum Prozess, aber dieser Umfang ist eigentlich nicht vorgesehen) Für die Auswertung habe ich mir dann die Programmiersprache R angesehen, die ja auch schon im Skript behandelt wird. R-Studio habe ich auch ausprobiert ... aber sehr schnell wieder weggeworfen, ich bin modernere Tools gewohnt und sowas tue ich mir freiwillig nicht an. Stattdessen gibt es für die IDE PyCharm ein R-Plugin, mit dem man auf die gleichen Funktionen und Bibliotheken wie im R-Studio zugreifen kann. Insgesamt habe ich für die Fallstudie etwa 46 Diagramme mit R erstellt. 30 davon waren vom gleichen "Typ", andere ähnelten sich auch sehr stark... es waren also am Ende etwa 9 Diagrammtypen die jeweils öfter mit verschiedenen Daten befüllt wurden. Mit den Plot-Bibliotheken in R rumzuspielen hat auch ziemlich Spaß gemacht, da gibt es wirklich viele Möglichkeiten zur Gestaltung der Daten. Es hat auch Spaß gemacht sich Gedanken zu machen welche Daten man wie darstellen möchte, aber ich möchte an dieser Stelle nicht allzu tief in das eigentliche Thema der Fallstudie eintauchen. Daher das Fazit: Wenn man an dem Thema Interesse hat, gibt es viele Stellen an denen man sich richtig austoben kann. Es ist für mich eine schöne Abwechslung gewesen mal etwas vollkommen anderes zu programmieren. Tipps für die Mitstudenten: Ihr seid in der Wahl der Programmiersprachen recht frei. R wird zwar im Skript behandelt, ihr könnt die Visualisierungen eurer Daten aber auch in Python, JavaScript oder sonstwar umsetzen. Für die Datenaufbereitung gilt das gleiche, theoretisch könntent ihr die Arbeitsschritte in Excel oder ähnlichem umsetzen - es muss halt nachvollziehbar sein wie ihr von den Ausgangsdaten zum Ergebnis kommt. Der Dozent ist super engagiert. Nutzt die Live Sessions um Fragen zu stellen wenn ihr in irgend einem Aspekt unsicher seid oder einfach die mathematischen Themen vertiefen wollt. Die konkreten Aufgabenstellungen sind wieder nicht in Stein gemeißelt. Wichtig ist, dass ihr die jeweiligen Arbeitsschritte umsetzt, aber das Szenario usw. könnt ihr in Absprache mit dem Dozenten ändern. Es müssen nicht alle Diagramme in der Fallstudie landen. Ich habe aus meinen 46 Diagrammen nur die wichtigsten gewählt, für die Typen von denen es mehrere gibt habe ich jeweils eins als Beispiel eingefügt. Die anderen Diagramme liegen auf Github, in der Arbeit habe ich die Verzeichnisstruktur usw. für das Projekt beschrieben damit der Dozent die Grafiken finden und auch zuordnen kann. Das wars zu Statistical Computing. Wie bereits im Forum erwähnt waren die beiden Kurse zum Machine Learning die Highlights meines Studiums, dicht gefolgt von der App-Entwicklung in Android. Aktuell bearbeite ich noch Data Analytics und Big Data, die Aufgabenstellung macht mir nicht annähernd so viel Spaß; aber man muss da halt durch. Ich gehe davon aus, dass ich die Fallstudie am kommenden Wochenende fertigstellen werde und dann auch zeitnah abgebe. Einen Bericht dazu sollte es also auch demnächst geben. Nebenbei habe ich bereits ein Exposé für die Bachelorarbeit erstellt und einen möglichen Betreuer angeschrieben. Zu diesen beiden Schritten folgt demnächst auch noch ein Blogeintrag. Bis dann!
  5. Nope, ich hab nochmal nachgesehen. Konkrete Anwendungsbeispiele wurden in dem Zusammenhang gar nicht genannt. Für die Phase seit 2010 wurde insbesondere die krasse Entwicklung in der Hardware und die niedrigen Preisen für diese hervorgehoben. Btw. Für Deep Learning wurde die IU AI, Synthea, freigeschaltet. Das Ding ist ganz lustig, aber sehr stark auf das Script beschränkt. Man kann dort aber z.B. ein PreAssessment starten und bekommt dann etwa 3-4 MC-Fragen pro Lektion die man beantworten muss und die dann ausgewertet werden. Es ist eine praktische Lernkontrolle für zwischendurch. Wenn man dem Ding Fragen stellt werden die generierten Antworten auch dem Dozenten angezeigt, der kann sie dann noch nachträglich korrigieren oder ergänzen. Für die tatsächliche Prüfungsvorbereitung bleibe ich aber bei ChatGPT. Diese AI kann einem viel umfangreichere Fragen stellen.
  6. Moin, letzten Samstag habe ich meine Fallstudie zu Statistical Computing abgegeben. Montag habe ich die Klausur in Deep Learning geschrieben. Bis ich die Ergebnisse bekomme wird es noch etwas dauern; schriftliche Arbeiten dauern ja meistens etwas länger und der Dozent in Deep Learning ist noch ein paar Tage im Urlaub. Aber ich rechne in beiden Kursen mit sehr guten Ergebnissen. Deep Learning In dem Kurs erfolgte zum Anfang ein kurzer Überblick über ein bisschen Trivialwissen zum Thema: eine Einführung in und Aufgliederung von künstlicher Intelligenz, das übliche Definitionszeug usw.; Unterschiede zwischen den verschiedenen Arten maschinellen Lernens; ein bisschen was zur Geschichte und den 3 großen Hype-Phasen im Bereich Deep Learning zwischen 1940 und heute. Einerseits würde ich sagen, wenn man sich ein bisschen mit den aktuellen Nachrichten im Technikbereich auseinandersetzt sollte man in der ersten Lektion nicht wirklich neues lernen. Andererseits... sehe ich immer noch genug ausgebildete Informatiker die zum Beispiel die Funktionsweise von ChatGPT oder die Fähigkeiten von KI aufgrund falscher Prämissen ins Lächerliche ziehen. Das ist dann das typische "kann nicht mal rechnen aber wird als Intelligenz bezeichnet höhöhö" ... Solche Sachverhalte werden im Skript recht früh mit zwei Sätzen aufgeklärt - die Unterscheidung zwischen schwacher (alles was wir aktuell haben: Expertensysteme, Bilderkennung, Sprachmodelle...) und starker (das was man sich eigentlich unter Intelligenz vorstellt [gibbet noch nich]) künstlicher Intelligenz. Ab Lektion 2 geht es dann aber auch schon in die fachlichen Themen. Dabei geht es zuerst mit einfachen Regressionsmodellen los - linear und logistisch - um schonmal ganz grundlegend die mathematische Basis zu beschreiben. Der Kurs ist sehr praxisnah orientiert und wird bereits in dieser Lektion mit entsprechenden Codebeispielen in Python ergänzt. Nach der Regression wird das Prinzip der Perzeptronen erklärt. Danach das Gradientenverfahren mit den Aktivierungsfunktionen der Neuronen und der Backpropagation. Und das war es dann eigentlich auch schon mit dem mathematischen Anteil. Rückblickend war das gar nicht soooo schlimm wie es beim ersten, zweiten, dritten, vierten und fünften Lesen aussah. Bis vor ein paar Wochen hatten mich diese Themen noch ziemlich eingeschüchtert, aber ich habe dann angefangen zig Fragen gegen ChatGPT zu werfen und irgendwann hat es dann *Klick* gemacht. Das tolle ist, man muss sich dabei auch nicht für absolute Noobi-Fragen schämen und geduldig ist das Ding auch (Gleich mal fragen, ob eine theoretische starke KI ebenfalls geduldig wäre...). Nach Klärung des Matheteils wird der Kurs dann noch praxisorientierter und geht ein paar konkrete Anwendungsszenarien durch. Dabei werden zum Beispiel neuronale Netze zur Klassifikation handschriftlicher Ziffern oder zur Bildklassifikation beschrieben und entwickelt. An diesen Beispielen werden dann auch die weiteren Maßnahmen zur Verbesserung der Performance vorgestellt. Die fachliche Entwicklung innerhalb des Skripts sieht dabei ungefähr so aus: Entwicklung selfmade-Perzeptron in Python Verwendung von Modellen aus der SciKit-Library Einführung Tensorflow mit "normalem" neuronalen Netz Erweiterung des Netzes um Cross-Validation, Early Stopping, ... Implementierung von Convolutional Neural Networks (hier kamen dann auch wieder neue Verarbeitungsschritte zur Merkmalsextraktion und Zusammenführung dazu) Falls sie jemand vermisst: Recurrent Neural Networks - die ich dann in Statistical Computing genutzt habe - werden im Skript nur kurz angesprochen. Das Skript hat mir richtig gut gefallen. Der rote Pfaden war klar erkennbar, die Problemstellungen wurden komplexer, gleichzeitig wurden aber auch mächtigere Konzepte zur Problemlösung eingeführt. Mir hat dabei auch gefallen, dass die ersten Schritte wirklich mit Vanilla Python implementiert wurden. Solche Beispiele zu sehen macht die "Magie" viel greifbarer. Allerdings sind die Codebeispiele teilweise schrecklich (Format und Namenskonventionen). Ich glaube da wollte man sich nah an die mathematischen Begriffe halten, aber Variablennamen w_o und w_x und ... sind halt ein bisschen ätzend zu lesen - mein Azubi müsste für sowas ein paar Strafrunden laufen. Und am Ipad muss man erst auf das Element klicken um den Code zu sehen, anstrengend. Einer der vorherigen Studenten hat die Beispiele aber bereits rausgesucht, aufbereitet und im CourseFeed gepostet. Oh, und mir haben die Decision Trees im Skript gefehlt. Aber das Thema Machine Learning ist sehr umfangreich und für einen praxisorientierten Einstieg in das Thema ist das Skript schon gut. Für alles weitere gibt es zusätzliche Literatur. Heise hatte letzten Monat so ein Angebot, bei dem man eine Spezialauflage von ix zu Machine Learning und ein kleines O'Reilly Buch bekommt, das habe ich spontan als Ergänzung mitgenommen. Die Klausur Die Fragen haben ziemlich genau den Schwerpunkt meiner letzten Vorbereitungen getroffen. Die Schwerpunkte lagen dabei mit dem Gradientenverfahren und den Aktivierungsfunktionen stark im mathematischen Bereich; außerdem hatte ich mich noch intensiv mit CNNs beschäftigt, da ich mit denen in der Praxis nichts eigenes umgesetzt habe. Eine der 8-Punktefragen hat mich etwas verunsichert, da man sie im ersten Moment einfach mit zwei Sätzen beantworten könnte - wenn man es wirklich knapp halten möchte. Ich habe aber lieber noch ein paar Sätze dazu geschrieben und alles in den richtigen Kontext gesetzt. Falls ich mich bei den offenen Fragen nicht noch verplappert und falsche Dinge mit untergemischt habe sollte ich sie alle gut beantwortet haben. Bei den MC-Fragen habe ich wieder keine Trickfragen entdeckt. Bei einer der Fragen ging es wieder um etwas Wortklauberei wo ich imo was falsches angekreuzt habe - weil ich mir nicht sicher war habe ich aber eine Bemerkung zu der Frage mit aufgeschrieben, um meine Auswahl zu erklären. Tipps für die Mitstudenten: Die mathematischen Formeln sehen zuerst schwierig aus, sind im Endeffekt aber nicht so schlimm. Von den statistischen Berechnungen abgesehen führt man die einzelnen Berechnungen (wenn überhaupt) auf einer anderen Ebene durch, wodurch ein paar der Zählvariablen wegfallen. Sobald man den Zusammenhang zwischen Kostenfunktion, Aktivierungsfunktionen und Gradientenverfahren erkennt ist der gesamte Kurs einfach ( => ab dann ist es ein normaler Programmierkurs mit ein bisschen Mathe). Die Charakteristiken von oben genanntem sollten in der Klausur aber auch wirklich sitzen, das Zeug ist schon wichtig. Ich muss noch überlegen was und wie viel ich über die Fallstudie schreiben möchte. Deshalb war es das erstmal an dieser Stelle. Wahrscheinlich schreibe ich Sonntag noch einen Eintrag; bis dahin überlege ich auch, ob ich einen Haken hinter meinen Blogtitel setze... Tüdeldü
  7. Erstmal ausgeloggt und Passwort vergessen :) Ich hatte erwartet, dass der Magazinstyle zu viel Platz einnehmen würde. Aber so wie es für die Gäste jetzt ist sieht es ziemlich gut aus. Wenn man ein bisschen runterscrollt sieht man weiterhin die neuesten Blogs usw... mir gefällt es.
  8. Moin, Die Klausuren werden aus einem Fragepool zusammengewürfelt, es gibt also keine "gemeinsamen" Klausuren. Mache Kurse stellen 1-3 Musterklausuren+ Lösung bereit, damit man sehen kann was einen so erwartet. Die würde ich aber nicht zum Lernen sondern als letzte Lernkontrolle nutzen. Ich könnte mich jetzt in der proctor Plattform einloggen, gucken ob um 9 Uhr ein Slot frei ist und ihn für meine Klausur buchen. Das geht also extrem flexibel, die einzige Einschränkung ist, dass eben ein Proctorslot frei ist. Du kannst aber auch Wochen im voraus buchen. Manche machen das ja, um einen verbindlichen Termin als Ziel zu haben (man kann im Notfall aber auch noch bis zu 24h vorher absagen). Beim langfristigen Buchen hat man natürlich auch mehr Auswahl weil nicht so viele Leute Wochen im voraus buchen.
  9. Ha, ich wollts nicht schreiben. Bei mir hat es jetzt zwei mal für 98% gereicht. Realistisch sehe ich eine letzte Chance für die 100, aber ansonsten wars das :D Über das Ergebnis kann man sich wirklich freuen.
  10. Ne, das wäre auch bei einer anderen Note so. Bei Turnitin verändert sich generell bis zum Stichtag nichts in der Ansicht. Allein in der Notenübersicht kann früher die Punktzahl + Note veröffentlicht werden.
  11. Ich hab mit der Antwort auf diesen Thread extra noch gewartet bis ich mit dem Wahlpflichtmodul zu Machine Learning loslege. Die beiden Kurse aus dem Modul, Statistical Computing und Deep Learning, sind mit Abstand meine Lieblingskurse. Ich finde schade, dass es für Deep Learning nur eine Klausur als Prüfungsform gibt. Aber ich nutze die neuronalen Netze jetzt einfach, um die Aufgabe der Fallstudie in Statistical Computing zu bearbeiten - macht richtig Spaß (ist Overkill und verschiebt den Fokus der Aufgabe stark in die Datenaufbereitung - geht für den Dozenten aber in Ordnung). Die beiden Dozenten sind auch super engagiert und geben sich in der Betreuung viel Mühe. Für beide Kurse fanden im Juni jeweils 2 Sessions statt: in Deep Learning weil jemand demnächst die Klausur schreiben möchte und vorher gerne noch gemeinsam Übungsaufgaben durchgehene wollte und in Statistical Computing weil wir in der ersten Session nur zu zweit waren und zum zweiten Termin vielleicht mehr Studenten kommen würden (nope, war immer noch nur ich). Es haben auch beide angeboten, dass man spontan Chats oder Calls anfragen kann, falls sich Fragen/Schwierigkeiten ergeben oder um mal gemeinsam über die Implementierung neuronaler Netze zu gucken. Aus den Pflichtkursen fand ich insbesondere Datenschutz und IT-Sicherheit sowie Statistik gut. Beide Kurse hatten auch richtig gute ILVs.
  12. Das ist cool, ich spiele auch mit dem Gedanken spiele das nach dem Studium mal in Angriff zu nehmen :D Auch cool, dass du wieder bloggst. Viel Spaß und Erfolg!
  13. Ich glaube so ist es. Das möchte ich aber demnächst selbst noch in einer Live-Session fragen. Es schwankt sehr stark. In manchen Kursen können die Tutoren bereits grob sagen mit welchen Korrekturzeiten man rechnen kann. Aber selbst bei eigentlich schnellen Tutoren kann ja z.B. Krankheit oder Urlaub dazwischen kommen.
  14. Ich finde lustig, dass die Liste in 1.6-1 rein nach dem Gehalt im Westen sortiert ist lmao. Mein erster Instinkt wäre eher das arithmetische Mittel aus Ost und West gewesen.
  15. Das ist cool. Hätte ich mir bloß mal mehr Mühe gegeben meinen Code zu verteilen, ich muss die Email mal wieder raussuchen.
  16. Auf Reddit gibt es r/Fernstudis mit ~3500 Usern, frag vielleicht mal dort an, ob ein Bedarf besteht oder ob die vielleicht selbst schon einen Server aufgesetzt haben (oder ob dir die Community auf Reddit selbst reicht).
  17. The Big Bang Theory. Jep, sue me. Alle Jahre wieder macht das richtig Spaß. Ansonsten The Rookie Staffel 1-3 bis im Sommer irgendwann Staffel 4 und 5 aus Sky landen.
  18. Ja gut... da könnte man jetzt genauso gut Medizin empfehlen. Ist vom genannten Ziel der Anwendungsentwicklung genauso weit entfernt. Frag das am besten bei der Hochschule, um auf Nummer sicher zu gehen. Aber eigentlich ist es dann schon wirklich B. Sc. App-Entwicklung - hat ja eben einen anderen Inhalt als Informatik. Ich überlege gerade, ob das tatsächlich ein Problem darstellen würde. Zu Beginn möchtest du ja auch als Entwickler arbeiten. Wenn du nach ein paar Jahren in einen anderen Bereich wechseln möchtest, hättest du aufgrund der bisherigen Erfahrung sowieso den Entwickler-Stempel drauf. Du müsstest dir also eh überlegen wie du für die neuen Aufgaben überzeugen kannst. Ansonsten gibt es ja immer noch An- bzw Motivationsschreiben in denen man frühere Erfahrungen aufgreifen kann.
  19. Das kann ja auch interessant sein. Ich würde nach folgenden Kriterien entscheiden: ist es für den Job relevant -> auf jeden Fall aufschreiben für Entwickler z.B. Hobbyprojekte für sportlich angehauchte Unternehmen eventuelle Mitgliedschaften usw ist es etwas was mich ausmacht oder was ich gerne mitteilen möchte -> aufschreiben z.B. Freiwillige Feuerwehr ist mein Lebenslauf sehr leer und ist das Hobby etwas "nicht super weirdes oder banales" -> aufschreiben Ich sehe wenig Risiko darin Hobbys anzugeben. In meiner Bewerbung zur Ausbildung stand noch "Go" als Hobby im Lebenslauf, das wurde in so ziemlich jedem Vorstellungsgespräch als lockerer Gesprächseinstieg genutzt. Inzwischen stehen auf einer zweiten Seite vom Lebenslauf die Projekte die ich in meiner Freizeit entwickle. Ich würde es denjenigen zumindest eher zutrauen als den Kandidaten die in der Richtung noch keine Erfahrung haben. Wobei sich Vorsitz in einem Verein so deutlich vom Klassensprecher abhebt, dass ich die Nennung im gleichen Satz absolut lächerlich finde.
  20. Moin, gestern habe ich die Klausur in Betriebssysteme, Rechnernetze und verteilte Systeme geschrieben. Ich habe ja schon öfter geschrieben, dass das überhaupt nicht mein Thema ist, unter anderem weil man die einzelnen Inhalte schon mehrere male in der Schule und in der Ausbildung durchkauen musste ... und im Kurs IoT kam einiges zu den Web-Protokollen usw. natürlich auch dran und generell ... ich weiß nicht wie oft ich die OSI-Schichten schon auswendig lernen musste. Die kamen sogar in meiner mündlichen IHK-Prüfung dran blblbl. Anyway! Im Kurs wird erklärt wie ein Rechner funktioniert, Von Neumann Architektur, Prozessor mit Steuer- und Rechenwerk, was das Betriebssystem für Aufgaben übernimmt usw. Die Speicherverwaltung wurde vorgestellt, das war nochmal recht spannend, das hatte ich so nicht mehr im Kopf. Ich war auch sehr dankbar, dass man sich zu diesen Basics keine Zahlen oder Trivialwissen zum Herrn Von Neumann merken musste. In den nächsten Kapiteln ging es dann aber, wie befürchtet, an das stumpfe auswendig lernen. Die ganzen Netzwerksachen bestehen aus so viel unglaublich langweiligem Zeug. Die ganzen Übertragungsarten, Betriebsmodi, Schichten des OSI-Modells und die verschiedenen Protokolle auf den einzelnen Schichten ... und dann auch alle mit so tollen und teilweise nicht herleitbaren Abkürzungen. Dazu noch wie die Gremien zur Verwaltung und Entwicklung des Internets heißen und abgekürzt werden, mal kurz aus dem Kopf: - ISOC -> Internet Society - IAB -> Internet Architecture Board - IETF -> Internet Engineering Taskforce - IRTF -> Internet Research Taskforce So weit so gut ... - IANA -> Irgendwas mit Numbers (IP-Vergabe Zeugs) - ICANN -> Irgendwas mit Names (Ab hier sind wir bei der Domainverwaltung) - RIR -> Regional Irgendwas Register - RIPE NCC -> Irgendein französischer Name L M A O (die sind u.A. für den europäischen Raum zuständig) - DENIC -> die sind für die .de Toplevel-Domain zuständig Und das war jetzt NUR für die Internet-Organisationen. Laut Dozent ist das Zeug auch alles Klausurrelevant bzw gibt es dazu Fragen, den französischen Namen muss man sich evtl. nicht merken, aber man sollte wissen wofür die einzelnen Vereine usw. zuständig sind. Das waren jetzt Organisationen, noch keine Protokolle - die ja nochmal wichtiger sind. Die teilweise super ähnlich sind, wie ARP und ARQ, auch in ähnlichen Anwendungsszenarien aber auf unterschiedlichen Ebenen vorkommen. Oder fürs Streaming auf Mobilen Geräten, das war ganz lustig - Real-Time Streaming Protocol => RTSP - Real-Time Control Protocol => RTCP - Real-Time Transport Protocol => RTP ???? Excuse me? Was ist mit dem zweiten T passiert? Ansonsten war das Mobile Zeugs aber ganz interessant. Zur Zeit meiner Ausbildung war das noch nicht so Thema, glaube ich. Auf jeden Fall war es für mich neu. Klausurvorbereitung Großes Shoutout zu der Person die die Übungsfragen in der Learn-App angelegt hat! Da waren ein paar schöne Fragen dabei, die auch Transferwissen erforderten. Weniger gut waren die Lückentexte... weil man da eben wirklich 1:1 das richtige Wort schreiben muss, um die Punkte zu bekommen. An der Stelle habe ich die Punkte im Kopf gezählt und weiterhin "meine" Wörter genutzt. Ansonsten habe ich sehr viel mit den Lernkarten auf Studysmarter gelernt. Dort wurden 2 Sets aus ~100 und ~60 Karten veröffentlicht. Die Fragen und Antworten wurden gut aufbereitet, ich fand das extrem hilfreich. Noch hilfreicher ist es wahrscheinlich seine Lernkarten direkt selbst zu schreiben, aber dafür ist mir dieser Kurs dann doch nicht wichtig genug... Davon ab sind Lernkarten The way to go. Es gibt einfach sehr vieles was man auswendig lernen muss. Um das ganze zum Feierabend angenehmer zu gestalten empfehle ich Sonne, Balkon und Bier. Montag fand die Intensive Live Session für den Mai statt. Da habe ich auch dran teilgenommen und mir den Vortrag über die Speicherverwaltung und die Fragerunde angehört. Viele Fragen wurden nicht gestellt, aber es war doch ganz interessant ein paar der Ausführungen zu hören. Die Aufzeichnung der Session aus dem April enthält ebenfalls den Vortrag und die Fragerunde. Dass inzwischen die gesamten Sessions aufgezeichnet werden ist eine wirklich gute Neuerung (erst Recht im Vergleich zu den Interaktiven Lehrveranstaltungen deren Aufnahmen nur wenige Wochen abrufbar waren [ohne Fragerunden] und auch nur für die tatsächlichen Teilnehmer). Die Aufzeichnungen selbst sind in der Videogallerie im MyCampus abrufbar, ich glaube aber das unterscheidet sich von Kurs zu Kurs, evtl. findet man sie auch im Teams Kanal. Die Live Session selbst kann ich empfehlen, der Dozent macht das super, mit ~20 Teilnehmern hat man auch eine schöne Gruppe und guten Austausch wenn es das Thema hergibt. Die Klausur Gott, hatte das Mikrofon vom Proctor eine miese Qualität. Aber hey, im Idealfall war das die vorletzte Klausur in diesem Studium - Augen zu und durch. Die offenen Fragen waren zum Großteil extrem an meinen Lernschwerpunkten vorbei. Die MC-Fragen waren super fair, ich glaube da war keine einzige Trickfrage dabei. Bei ein paar Fragen weiß ich schon, dass ich sie falsch beantwortet habe (RIP mindestens 9 Punkte). Bei ein paar der größeren Fragen habe ich den Scope nicht richtig getroffen und zu viel erklärt. Ich hoffe, dass dort nicht zu viele Punkte abgezogen werden dann könnte es für eine gute 2 reichen, die 1.x ist quasi vom Tisch außer es wird extrem großzügig bewertet und ich habe keine weiteren Fehler als die die ich selbst kenne. Mit dieser Klausur bin ich wieder in so einer seltsamen Situation, in der es am Ende fast alles sein könnte. Der Dozent hat bereits angekündigt, dass die Korrekturen aktuell etwa 4 Wochen dauern, diese Info ist ein wahrer Segen, dann mach ich mich nicht wochenlang mit regelmäßigen Blicken auf die Notenliste verrückt. Projekt Mobile Software Engineering Den Projektbericht habe ich irgendwann Anfang Mai abgegeben. Eigentlich voll dumm, weil schriftliche Ausarbeitungen, so weit ich weiß, eh erst ab dem nächsten Monat bewertet werden können, aber ich wollte das ganze gerne vom Tisch haben. Mit dem Ergebnis, sowohl der App selbst als auch dem Bericht, bin ich extrem zufrieden. Den Bericht zu schreiben hat nochmal deutlich länger gedauert als gedacht, aber er ist auch viel umfangreicher geworden und kommt inhaltlich dem was ich im Beruf abliefern würde ziemlich nahe. Ein großes Hindernis stellte die Beschränkung auf 10 Seiten dar, ich finde diese Vorgabe ist für solche Softwareprojekte nicht sinnvoll. Mit Diagrammen und Abbildungen zur Softwarearchitektur, Programmablauf, Entity-Relationship oder Klassendiagrammen, Wireframes und Design-Entwürfen sowie den Screenshots von der tatsächlichen Umsetzung kommt ja einiges zusammen. (Daher hatten wir in den einzelnen Dokumenten der Gruppenarbeit auch eher 20-30 Seiten, technische Dokumentationen werden eben sehr schnell sehr umfangreich) Um die 10 Seiten Textteil irgendwie zumindest ansatzweise einzuhalten (12 Seiten sinds geworden) musste ich extrem viel in den Anhang packen. Da es um ein Projekt ging, gab es ja eben auch noch Artefakte zum Projektmanagement, wie Tabellen über die Aufgabenorganisation, Zeiterfassung, Meilensteine und noch vieles mehr. Am Ende habe ich alle zur Umsetzung wichtigen Vorgaben (Wireframes, Komponentendiagramm usw.) in den Textteil aufgenommen, zum Projektmanagement nur eine Tabelle und ein Diagramm über den Zeitverlauf übernommen und alles andere inklusive Screenshots der Anwendung in den Anhang geworfen. Ganz glücklich bin ich damit nicht, aber das war eine Entscheidung die man irgendwie treffen musste. Ach übrigens: Das Projekt in diesem Kurs ist eigentlich als Gruppenprojekt vorgesehen! Das wusste ich aber erst, als ich den Kurs selbst buchen konnte. Ich habe letztes Jahr schon geschrieben; nachdem ich den ersten Kurs des Wahlpflichtmoduls abgeschlossen hatte, habe ich direkt die nächste App für diesen zweiten Kurs umgesetzt. Damit wäre ich jetzt fast auf die Nase gefallen, weil ich diese Situation erst einmal dem Dozenten schildern musste. Der meinte ich soll im Course Feed eine Suche nach Gruppenmitglieder zu einer der anderen Aufgaben starten. Falls sich jemand meldet: Neues Projekt mit der Gruppe, die bisherige Arbeit wäre Futsch. Nach ein paar Wochen hatte sich niemand gemeldet, deshalb konnte ich mit meinem fertigen Projekt weitermachen und den Bericht schreiben. Glück gehabt (wobei es mich nicht so sehr gestört hätte, es wäre nur schade weil mir die App wirklich gut gefällt und mir auch das Design ausnahmsweise gut gelungen ist). Ich frage demnächst, ob ich ein paar Screenshots vom Design-Konzept und dem Ergebnis posten darf, eventuell poste ich die dann in den Kommentaren zu diesem Artikel. Obwohl das Jahr für mich mit Theoretischer Informatik nur sehr langsam ins Rollen kam, wäre ich jetzt doch plötzlich bei 3 (hoffentlich) abgeschlossenen Kursen in 4,5 Monaten. Das fühlt sich wieder richtig gut an. Ich weiß gar nicht wann ich das letzte mal auf zwei Noten gleichzeitig gewartet habe. Als nächtes mache ich mit der Fallstudie zum Statistical Computing weiter, hier interessieren mich die 3 möglichen Aufgabenstellungen leider überhaupt nicht, das wird etwas träge vorangehen. Nebenbei setze ich mich mit Deep Learning auseinander, hier lohnt es sich wahrscheinlich auch ein bisschen was zu programmieren. Das Thema interessiert mich auf jeden Fall sehr, daher werde ich mir für die Klausur wahrscheinlich wieder etwas mehr Zeit nehmen (außerdem ist der Kurs mega umfangreich). Aber zuerst genieße ich das lange Wochenende, falls ich mich nicht mehr melde bin ich unter der Zapfanlage hängen geblieben und ertrunken; dann trauert nicht um mich - das passt schon so.
  21. Gute Frage, darüber habe ich jetzt ein paar Tage nachgedacht... Ich denke ein paar Kapitel zu den Automaten werde ich mir hin und wieder nochmal ansehen, das war schon ganz spannend (und die Bücher hab ich hier ja jetzt eh rumliegen...) Aber an sich... bin ich glaube ich fertig mit dem Thema. Meinen Alltag verbringe ich lieber mit der Entwicklung von Software für die Endanwender zuhause. Compilerbau und was sonst noch so immer im Klassenzimmer als "hardcore" gehyped wurde hat mich noch nie interessiert und reizt mich absolut null :D Deshalb bringt mir vieles aus dem Modul, bis aufs Interesse für die ganz oberflächlichen Sachen, leider nicht so viel Danke! :) Das passiert demnächst wohl nochmal :) Vor einer Stunde habe ich meinen Projektbericht für Mobile Engineering abgegeben. Ab jetzt liegt der Fokus vollständig auf Betriebssysteme und Rechnernetze, damit bist du ja auch schon durch. (Ich habe immer noch absolut keine Lust auf den Kurs 💩)
  22. Manchen Personalern kann man gar nicht fest genug die Hand schütteln :) Ich frage mich wirklich was er sich von diesem Schauspiel für einen Ausgang erwartet hat.
  23. Auf sowas hätte ich auch mal kommen müssen. Ich habe einfach seitenweise Automaten gemalt lol Da fällt mir ein, zu dem Buch "TI - ganz praktisch" gibt es auch eine Website auf der ein paar interaktive Visualisierungen zu den Aufgaben aus dem Buch dargestellt werden. Den Link suche ich die Tage mal raus. Das stimmt. An dieser Stelle ist es auch schade, dass man in den Onlineklausuren eben keine Möglichkeit hat die Automaten selbst entsprechend der Vorgaben zu zeichnen, sondern nur vorgegebene Automaten analysieren kann. In diesem Kurs gäbe es überraschend viel Potenzial die Prüfung "praxisorientiert" zu gestalten.
×
  • Neu erstellen...