Zum Inhalt springen

DerLenny

Communitymitglied
  • Gesamte Inhalte

    2.545
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von DerLenny

  1. Naja, weil Sie eben nicht aus eigener Erfahrung sprechen, und daher die Frage uminterpretieren müssen, um überhaupt etwas schreiben zu können und dabei die Frage nach der Motivation nicht mal angehen, sondern einen Entscheidungs / Auswahlprozess beschreiben (Verfügbarkeitsbias). Wenn Sie jetzt Ihre eigene Erfahrung niederschreiben würden, dann würde es Ihnen erlauben, die Frage zu beantworten. Und diese war nach der Motivation. Was war denn Ihre Motivation, ein Fernstudium zu starten? Ich bin auch etwas über die Stärke Ihrer Reaktion verwundert. Ich hätte ein "Ups, ganz vergessen. Meine Motivation war ..." erwartet...
  2. Ich denke, es ging hier eher um Erfahrungen aus erster hand. Was hat Sie denn zum Fernstudium bewogen? Eine Freundin wollte nicht allein studieren und hat auch direkt einen für mich passenden Studiengang entdeckt. Also habe ich mich angemeldet 🙃
  3. Bei der IU können 5 ECTS für 3 Jahre Berufserfahrungen anerkannt werden. Der Medien Design Studiengang hat auch nen Videoproduktionskurs, das sollte passen. Wahrscheinlich auch noch andere Kurse. Du solltest auch nicht unterschätzen, wie viel Zeit Du sparst, weil Du Dinge schon kennst / kannst.
  4. Teilweise gibt es auch die Aussage, dass schriftliche Arbeiten und Klausuren nur der Überprüfung dienen, und nicht dazu gedacht sind, Feedback zu liefern.
  5. Das sind ein paar Beispiele aus "echten" Papern. Davon gibt es wirklich ne Menge. Wie sowas durchrutschen kann? Kein Plan. Aber neben den Autoren wirft es auch ein schlechtes Licht auf das Lektorat und das Peer Review, und ja alle Screenshots sind von Artikeln aus eigentlich bewährten Plattformen. Es gibt auch einige sehr lustige Beispiele von KI generierten (und sinnlosen) Bildern.
  6. Und das ist in _veröffentlichten_ Artikeln. Ich gehe mal davon aus, dass es hier eher um das Ausformulieren gegangen ist, und die Arbeit von Personen gemacht worden ist, aber irgendwo im Prozess sollte das doch auffallen? Im Lektorat oder spätestens beim Peer Review? Es gibt dann aber auch die Fälle, in denen es unwahrscheinlich erscheint, dass wirklich "nur der Schreibstil" verbessert worden ist:
  7. Ein Forscher hat ein Tool entwickelt, um problematische mit KI erstellte Paper zu finden: https://www.irit.fr/~Guillaume.Cabanac/problematic-paper-screener Stellenweise sind diese wirklich klar erkennbar, weil neben dem Text auch noch Fluff oder Fehlermeldungen im Paper zu finden waren: Bei solchen Beispielen fragt man sich dann auch etwas, wie das durch den Peer Review Prozess hat durchrutschen können...
  8. Meine Einschätzung, dass Veröffentlichungen keinen hohen Stellenwert an der FHAM haben, kommt zum einen daher, dass bei einem Professor vier der fünf gelisteten Veröffentlichungen nicht veröffentlicht wurden (da Lehrbriefe) und die 5te die Dissertation war. Die jüngste Veröffentlichung aus 2005. Der andere Treffer zeigte drei Veröffentlichungen (2013, 1995, 1995), eine Monographie, ein Artikel aus einer "Sonderbeilage" einer Fachzeitschrift, und eine dritte Quelle, die nicht zuortbar ist, da notwendige Informationen fehlen. Daraus kann man ableiten, dass diese Personen wohl nichts veröffentlicht haben, während sie an der FHAM waren. Wenn für die FHAM Publikationen wichtig wären, wären Publikationen während der Anstellung an der FHAM zu erwarten. Da es keine gab, tippe ich, dass Publikationen für die FHAM wohl in der Liste der Prioritäten nicht weit oben angesiedelt sind.
  9. Da die HS ja „angewandt“ bereits im Namen hat, ist es nicht unwahrscheinlich, dass sie den Fokus auf diesen Bereich legt.
  10. Anhand welcher Kriterien beurteilt man denn eine Professur, und wie ist die FHAM hier einzuordnen? Ich gehe davon aus (wegen des Web of Science Hinweises), dass es um die Veröffentlichungen geht? Warum? Edit: Gerade mal googelt und mir die Veröffentlichungen der ersten beiden von Google genannten Professoren der FHAM angesehen. Forschen / Veröffentlichen scheint an der FHAM tatsächlich eher unwichtig zu sein.
  11. Da es hier nicht um Daten einer Person geht, sondern um von einer Person erstellte Sprachwerke, ist neben der DSGVO auch das UrhG zu berücksichtigen.
  12. Die Frage war nicht, ob personenbezogene Daten genutzt wurden, sondern wo die Einwilligung gegeben wurde, und wo diese widerrufen werden kann. Kann dies als Bestätigung verstanden werden, dass hier keine Einwilligung gegeben worden ist, und die IU diese Daten ohne Zustimmung nutzt? Wie bei allen anderen aktuellen Streitfragen zum Training von KIs auch, ist hier (auch) das Urheberrecht relevant, nicht nur die DSGVO. Nutzt die IU diese Daten also ohne Zustimmung zum Zweck des KI-Trainings? Oder gibt es einen Passus, der diese Nutzung erlaubt? Wenn ja: Wie kann diese Zustimmung widerrufen werden?
  13. Und erst ab diesen Zeitpunkt werden dann alle Informationen auf der Rückseite schlagartig für alle uninteressant? Oder warum erscheint das Ihrer Meinung nach eine valide Erwiderung auf den Hinweis zu sein, dass sie ihre fachliche Meinung dem Passamt mitteilen sollten, damit dieses vom bisherigen Irrglauben Abstand nehmen kann?
  14. Evtl. sollten Sie ihre wohldurchdachte und qualifizierte Expertenmeinung dem Passamt mitteilen. Dieses scheint ja der irrigen Meinung zu sein, es könne jemanden interessieren.
  15. ... aber natürlich kann es (generell gesehen) weiter eingetragen werden, es gibt nur ein eigenes Feld dafür. Wie der rechtliche Status des Doktortitels in diesem Fall ist, ist - wie oben bereits erwähnt - nicht wirklich klar.
  16. 5000 Wörter sind in etwa 10 Seiten (bei 11 Punkt Schriftgröße, 1.5facher Zeilenabstand). Das war der erwartete Umfang bei 5 ECTS im Bachelor an der IU. Finde ich also nicht so furchtbar viel. 8000 Wörter sind entsprechend etwa 16 Seiten, 15000 Wörter entspricht in etwa dem Anspruch an eine HA im Master an der Apollon. Und wenn ich es korrekt verstehe, sind diese Arbeiten ja direkt für die Dis verwendbar (Theorieteil, Methodik, Pilot)? Hm... bekommt man kein Feedback für die Abgaben? So rein von der Beschreibung her hätte ich erwartet, dass nach Einarbeiten des Feedbacks durch die Vorarbeiten das Exposé eigentlich stehen sollte? Was wird hier denn beanstandet, das bei den Vorarbeiten nicht beanstandet worden ist?
  17. Die Idee ist eigentlich, dass du aufgrund der bestehenden Literatur und Studien deine Hypothese entwickelst, und dann eine passende Methode findest, diese Hypothese zu prüfen. Insbesondere, wenn du quantitativ unterwegs bist, da du so ja nur das abfragen kannst, was Du vermutest. Daher wird ja für explorative Forschung auch gern qualitative Forschung genutzt
  18. Bevor man mit einem "neuen" Fragebogen etwas machen kann, muss erst mal geprüft werden, ob der Fragebogen geeignet ist, die Fragestellung zu beantworten. Entwicklung und Eichung eines Fragebogens ist eine selbstständige Aufgabe. Es muss ja sichergestellt werden, dass die Fragen verständlich sind, das messen, was sie messen sollen, etc. Das übliche Objektivität / Validität/ Reliabilitäts Ding. Und wenn das steht, kann man im nächsten Schritt eine Untersuchung durchführen. Fragen, die nichts mit dem Thema des Fragebogens zu tun haben, gehören nicht in den Fragebogen. Die Fragebogenentwicklung nur sehr kurz thematisieren und hoffen, dass die Betreuer bei einer Bachelor Thesis nur wenig Wert drauf legen. Dann den Fragebogen in den Anhang packen, die relevanten Fragen in der Arbeit referenzieren, die nicht relevanten nicht referenzieren. In der Diskussion auf die Probleme mit dem Fragebogen hinweisen.
  19. Du kannst Dir, sobald die aktuellen Kurse alle abgeschlossen oder zumindest die Prüfungs angemeldet ist, weitere ECTS freischalten lassen. Pro Anfrage bekommst 10 ECTS. Wenn die durch sind, kannst wieder nachfragen. Vor dem Kolloqium müssen die Gesamtkosten beglichen werden.
  20. Kannst Du machen, die würde aber post-factum generiert. Es wäre eine Antwort, aber nicht unbedingt die, die wirklich zur Entscheidung geführt hat. KIs funktionieren gewissermaßen wie japanische Kücken-Genderer: implizite Mustererkennung. Das wäre wirklich eine gute Sache, aber kaum im Interesse der IU, fürchte ich. Der Studienfokus dürfte weniger auf der Wissensmehrung, und mehr auf den Marketingaspekten liegen. Siehe auch den Veröffentlichungskanal. Du erkennst auch den Ansatz: Es geht nicht darum, den Prozess zu verbessern, sondern die menschlichen Korrektoren zu ersetzen. Daher auch der Vergleich mit diesen, anstatt zu prüfen, ob die Korrektur an sich besser geworden ist. Auch, weil man dafür ja einen Blick auf die Aufgaben, deren Musterlösungen und die Bewertungsvorgaben werfen müsste. Das würde zwar langfristig die Qualität erhöhen, so rein von den Vorgehensweisen ist aber scheint es aber so, dass hohe Qualität nicht das Ziel der IU ist. Im Gegenteil, es geht eher darum, das absolute Minimum zu bieten (da günstiger).
  21. Das müsste, wenn ja in den Datenschutzerklärungen der Prüfungen stehen, denke ich? @IU Internation. Hochschule bei welchem Schritt im Ablauf gibt man denn diese Zustimmung? Und wie kann man denn prüfen, ob man zugestimmt hat / seine Zustimmung widerrufen?
  22. Englische Quellen müssen nicht übersetzt werden. Du kannst sie wie Deutsche Quellen behandeln, musst also eigene Übersetzungen auch nicht kennzeichnen.
  23. Aktuell ja. da es ja um automatische Prüfung geht. Verständlichkeit könnte man über einige Metriken prüfen (wie Satzkomplexität und -länge), das wäre aber nur teilweise hilfreich, bei den restlichen Punkten würde ich aktuell eher einen Mensch in der Verantwortung sehen. Generell ist meine Erfahrung, dass eine Abwesenheit von Quellen oder die Nutzung von nicht so geschickten Quellen (wie Online Lernkarten) auch oft ein Indikator für weitere Probleme sind. Oder anders gesagt: Ein Lehrbrief soll ja den aktuellen, gesicherten Wissensstand wiedergeben. Dazu sind Quellen notwendig. Nicht belegte Teile eines Lehrbriefs sind entweder Plagiate oder nicht gesichert. Natürlich bedeutet eine angegebene Quelle nicht, dass die Inhalte der Quelle korrekt wiedergegeben werden und/oder eine schlüssige Erklärung gegeben wird. Hier sollte dann ein Mensch mit Fachwissen und Verständnis für den Wissensstand der Studierenden eine entsprechende Einschätzung liefern. Kennst Du Ressourcen, die eine Prüfung der von Dir genannten Parameter erlauben? Oder meinst du, man sollte ChatGPT um eine Einschätzung bitten?
  24. Ich überlege mir gerade, mein Skript zur Prüfung von Lehrbriefen etwas zu pimpen. Bisher ist es eine recht oberflächliche Textanalyse, die die Anzahl der Referenzen mit stochastischen Richtwerten vergleicht. Es gibt mir auch eine nach Häufigkeit der Referenzen sortierte Liste der Quellen zurück, was allerdings aktuell mehr dazu dient, relevante Literatur zu identifizieren. Ich überlege mir gerade, ob ich dies etwas aufbohre. Mein Plan ist zumindest zu prüfen, ob die benutzen Artikel zurückgezogen wurden. Retraction Watch hat dafür eine Datenbank, die man anfragen kann. Das ist allerdings nicht immer hilfreich, da die Skripte zu einem großen Teil Sekundärquellen (oder noch weiter vom Ursprungsartikel entfernter Literatur) nutzen. Daher würde ich die Literatur gerne noch zusätzlich prüfen. Was ich bereits habe, ist ein Stück Code, das prüft, ob ein Lehrbuch zum Datum der Skriptveröffentlichung die aktuellste Version war. Damit hätte etwa ein seit inzwischen fünf Jahren bekannter (und noch immer nicht korrigierte Fehler) in einem der Lehrbriefe vermieden werden können. Kenn jemand von euch eine Ressource, mit der eine Referenz automatisch eingeschätzt werden kann? Ich könnte was selber basteln, wohl basierend auf der Übersicht von Superchi et al. (2019), das wäre aber eine recht große Menge Arbeit für etwas, wo ich eigentlich tippen würde, dass es da schon was gibt. Daher wollte ich mal fragen, ob hier jemand eine online Quelle hat, die man anfragen könnte? Schwieriger finde ich es mit Fachbüchern. Hier gibt es ein paar sehr bekannte, extrem einflussreiche Beispiele, die bekanntermaßen inhaltlich extrem problematisch sind (ein gutes Beispiel hierfür ist Kahnemanns Thinking Fast & Slow). Oder eingängige aber falsche Visualisierungen wie die "Bedürfnispyramide" oder die Berg- und Talgrafik, die häufig zur Visualisierung des Dunning-Kruger Effekts genutzt wird. Allerdings würde ich ungern eine Blacklist selbst führen müssen... auch hier wäre es nice, wenn man das auslagern könnte. Auf der Artikelebene gibt es ein paar AI Tools, die die Relevanz von Artikeln einschätzen können, und die Anzahl von Veröffentlichungen, die dem Artikel zustimmen, oder diesem kritisch gegenüberstehen, auflisten können. Damit könnten zumindest "formale" Probleme recht schnell gefunden werden. Inhaltliche Probleme, wie unbelegte und falsche Aussagen, logische Fehlschlüsse etc. können damit zwar nicht gefunden werden, aber wenn entsprechend belegt wird, sollte damit die Chance auf solche graben Schnitzer deutlich sinken. Habt ihr noch andere Ideen, wie man die Qualität von Lehrbriefen vor der Veröffentlichung / bei der Entstehung prüfen kann? Idealerweise Dinge, die automatisch durchgeführt werden können. Würde gern eine neue Version meines Tools angehen und bin für Vorschläge dankbar... -- Superchi, C., González, J. A., Solà, I., Cobo, E., Hren, D., & Boutron, I. (2019). Tools used to assess the quality of peer review reports: a methodological systematic review. BMC medical research methodology, 19, 1-14.
×
  • Neu erstellen...