Zum Inhalt springen

DerLenny

Communitymitglied
  • Gesamte Inhalte

    2.535
  • Benutzer seit

  • Letzter Besuch

9 Benutzer folgen

Profilfelder

  • Benutzertitel
    Unterstützer

Informationen

  • Status
    Aktiver Fernstudent
  • Anbieter
    Apollon
  • Studiengang
    M. Sc. Psychologie
  • Geschlecht
    m

Letzte Besucher des Profils

Der "Letzte Profil-Besucher"-Block ist deaktiviert und wird anderen Benutzern nicht angezeit.

Leistungen von DerLenny

  • Gefällt-mir-Geber:in
  • Geschätzte Beiträge
  • Erster Beitrag
  • Vielschreiber
  • Schreibmaschine

Neueste Abzeichen

3,4k

Reputation in der Community

  1. Da es hier nicht um Daten einer Person geht, sondern um von einer Person erstellte Sprachwerke, ist neben der DSGVO auch das UrhG zu berücksichtigen.
  2. Die Frage war nicht, ob personenbezogene Daten genutzt wurden, sondern wo die Einwilligung gegeben wurde, und wo diese widerrufen werden kann. Kann dies als Bestätigung verstanden werden, dass hier keine Einwilligung gegeben worden ist, und die IU diese Daten ohne Zustimmung nutzt? Wie bei allen anderen aktuellen Streitfragen zum Training von KIs auch, ist hier (auch) das Urheberrecht relevant, nicht nur die DSGVO. Nutzt die IU diese Daten also ohne Zustimmung zum Zweck des KI-Trainings? Oder gibt es einen Passus, der diese Nutzung erlaubt? Wenn ja: Wie kann diese Zustimmung widerrufen werden?
  3. Und erst ab diesen Zeitpunkt werden dann alle Informationen auf der Rückseite schlagartig für alle uninteressant? Oder warum erscheint das Ihrer Meinung nach eine valide Erwiderung auf den Hinweis zu sein, dass sie ihre fachliche Meinung dem Passamt mitteilen sollten, damit dieses vom bisherigen Irrglauben Abstand nehmen kann?
  4. Evtl. sollten Sie ihre wohldurchdachte und qualifizierte Expertenmeinung dem Passamt mitteilen. Dieses scheint ja der irrigen Meinung zu sein, es könne jemanden interessieren.
  5. ... aber natürlich kann es (generell gesehen) weiter eingetragen werden, es gibt nur ein eigenes Feld dafür. Wie der rechtliche Status des Doktortitels in diesem Fall ist, ist - wie oben bereits erwähnt - nicht wirklich klar.
  6. 5000 Wörter sind in etwa 10 Seiten (bei 11 Punkt Schriftgröße, 1.5facher Zeilenabstand). Das war der erwartete Umfang bei 5 ECTS im Bachelor an der IU. Finde ich also nicht so furchtbar viel. 8000 Wörter sind entsprechend etwa 16 Seiten, 15000 Wörter entspricht in etwa dem Anspruch an eine HA im Master an der Apollon. Und wenn ich es korrekt verstehe, sind diese Arbeiten ja direkt für die Dis verwendbar (Theorieteil, Methodik, Pilot)? Hm... bekommt man kein Feedback für die Abgaben? So rein von der Beschreibung her hätte ich erwartet, dass nach Einarbeiten des Feedbacks durch die Vorarbeiten das Exposé eigentlich stehen sollte? Was wird hier denn beanstandet, das bei den Vorarbeiten nicht beanstandet worden ist?
  7. Die Idee ist eigentlich, dass du aufgrund der bestehenden Literatur und Studien deine Hypothese entwickelst, und dann eine passende Methode findest, diese Hypothese zu prüfen. Insbesondere, wenn du quantitativ unterwegs bist, da du so ja nur das abfragen kannst, was Du vermutest. Daher wird ja für explorative Forschung auch gern qualitative Forschung genutzt
  8. Bevor man mit einem "neuen" Fragebogen etwas machen kann, muss erst mal geprüft werden, ob der Fragebogen geeignet ist, die Fragestellung zu beantworten. Entwicklung und Eichung eines Fragebogens ist eine selbstständige Aufgabe. Es muss ja sichergestellt werden, dass die Fragen verständlich sind, das messen, was sie messen sollen, etc. Das übliche Objektivität / Validität/ Reliabilitäts Ding. Und wenn das steht, kann man im nächsten Schritt eine Untersuchung durchführen. Fragen, die nichts mit dem Thema des Fragebogens zu tun haben, gehören nicht in den Fragebogen. Die Fragebogenentwicklung nur sehr kurz thematisieren und hoffen, dass die Betreuer bei einer Bachelor Thesis nur wenig Wert drauf legen. Dann den Fragebogen in den Anhang packen, die relevanten Fragen in der Arbeit referenzieren, die nicht relevanten nicht referenzieren. In der Diskussion auf die Probleme mit dem Fragebogen hinweisen.
  9. Du kannst Dir, sobald die aktuellen Kurse alle abgeschlossen oder zumindest die Prüfungs angemeldet ist, weitere ECTS freischalten lassen. Pro Anfrage bekommst 10 ECTS. Wenn die durch sind, kannst wieder nachfragen. Vor dem Kolloqium müssen die Gesamtkosten beglichen werden.
  10. Kannst Du machen, die würde aber post-factum generiert. Es wäre eine Antwort, aber nicht unbedingt die, die wirklich zur Entscheidung geführt hat. KIs funktionieren gewissermaßen wie japanische Kücken-Genderer: implizite Mustererkennung. Das wäre wirklich eine gute Sache, aber kaum im Interesse der IU, fürchte ich. Der Studienfokus dürfte weniger auf der Wissensmehrung, und mehr auf den Marketingaspekten liegen. Siehe auch den Veröffentlichungskanal. Du erkennst auch den Ansatz: Es geht nicht darum, den Prozess zu verbessern, sondern die menschlichen Korrektoren zu ersetzen. Daher auch der Vergleich mit diesen, anstatt zu prüfen, ob die Korrektur an sich besser geworden ist. Auch, weil man dafür ja einen Blick auf die Aufgaben, deren Musterlösungen und die Bewertungsvorgaben werfen müsste. Das würde zwar langfristig die Qualität erhöhen, so rein von den Vorgehensweisen ist aber scheint es aber so, dass hohe Qualität nicht das Ziel der IU ist. Im Gegenteil, es geht eher darum, das absolute Minimum zu bieten (da günstiger).
  11. Das müsste, wenn ja in den Datenschutzerklärungen der Prüfungen stehen, denke ich? @IU Internation. Hochschule bei welchem Schritt im Ablauf gibt man denn diese Zustimmung? Und wie kann man denn prüfen, ob man zugestimmt hat / seine Zustimmung widerrufen?
  12. Englische Quellen müssen nicht übersetzt werden. Du kannst sie wie Deutsche Quellen behandeln, musst also eigene Übersetzungen auch nicht kennzeichnen.
  13. Aktuell ja. da es ja um automatische Prüfung geht. Verständlichkeit könnte man über einige Metriken prüfen (wie Satzkomplexität und -länge), das wäre aber nur teilweise hilfreich, bei den restlichen Punkten würde ich aktuell eher einen Mensch in der Verantwortung sehen. Generell ist meine Erfahrung, dass eine Abwesenheit von Quellen oder die Nutzung von nicht so geschickten Quellen (wie Online Lernkarten) auch oft ein Indikator für weitere Probleme sind. Oder anders gesagt: Ein Lehrbrief soll ja den aktuellen, gesicherten Wissensstand wiedergeben. Dazu sind Quellen notwendig. Nicht belegte Teile eines Lehrbriefs sind entweder Plagiate oder nicht gesichert. Natürlich bedeutet eine angegebene Quelle nicht, dass die Inhalte der Quelle korrekt wiedergegeben werden und/oder eine schlüssige Erklärung gegeben wird. Hier sollte dann ein Mensch mit Fachwissen und Verständnis für den Wissensstand der Studierenden eine entsprechende Einschätzung liefern. Kennst Du Ressourcen, die eine Prüfung der von Dir genannten Parameter erlauben? Oder meinst du, man sollte ChatGPT um eine Einschätzung bitten?
  14. Ich überlege mir gerade, mein Skript zur Prüfung von Lehrbriefen etwas zu pimpen. Bisher ist es eine recht oberflächliche Textanalyse, die die Anzahl der Referenzen mit stochastischen Richtwerten vergleicht. Es gibt mir auch eine nach Häufigkeit der Referenzen sortierte Liste der Quellen zurück, was allerdings aktuell mehr dazu dient, relevante Literatur zu identifizieren. Ich überlege mir gerade, ob ich dies etwas aufbohre. Mein Plan ist zumindest zu prüfen, ob die benutzen Artikel zurückgezogen wurden. Retraction Watch hat dafür eine Datenbank, die man anfragen kann. Das ist allerdings nicht immer hilfreich, da die Skripte zu einem großen Teil Sekundärquellen (oder noch weiter vom Ursprungsartikel entfernter Literatur) nutzen. Daher würde ich die Literatur gerne noch zusätzlich prüfen. Was ich bereits habe, ist ein Stück Code, das prüft, ob ein Lehrbuch zum Datum der Skriptveröffentlichung die aktuellste Version war. Damit hätte etwa ein seit inzwischen fünf Jahren bekannter (und noch immer nicht korrigierte Fehler) in einem der Lehrbriefe vermieden werden können. Kenn jemand von euch eine Ressource, mit der eine Referenz automatisch eingeschätzt werden kann? Ich könnte was selber basteln, wohl basierend auf der Übersicht von Superchi et al. (2019), das wäre aber eine recht große Menge Arbeit für etwas, wo ich eigentlich tippen würde, dass es da schon was gibt. Daher wollte ich mal fragen, ob hier jemand eine online Quelle hat, die man anfragen könnte? Schwieriger finde ich es mit Fachbüchern. Hier gibt es ein paar sehr bekannte, extrem einflussreiche Beispiele, die bekanntermaßen inhaltlich extrem problematisch sind (ein gutes Beispiel hierfür ist Kahnemanns Thinking Fast & Slow). Oder eingängige aber falsche Visualisierungen wie die "Bedürfnispyramide" oder die Berg- und Talgrafik, die häufig zur Visualisierung des Dunning-Kruger Effekts genutzt wird. Allerdings würde ich ungern eine Blacklist selbst führen müssen... auch hier wäre es nice, wenn man das auslagern könnte. Auf der Artikelebene gibt es ein paar AI Tools, die die Relevanz von Artikeln einschätzen können, und die Anzahl von Veröffentlichungen, die dem Artikel zustimmen, oder diesem kritisch gegenüberstehen, auflisten können. Damit könnten zumindest "formale" Probleme recht schnell gefunden werden. Inhaltliche Probleme, wie unbelegte und falsche Aussagen, logische Fehlschlüsse etc. können damit zwar nicht gefunden werden, aber wenn entsprechend belegt wird, sollte damit die Chance auf solche graben Schnitzer deutlich sinken. Habt ihr noch andere Ideen, wie man die Qualität von Lehrbriefen vor der Veröffentlichung / bei der Entstehung prüfen kann? Idealerweise Dinge, die automatisch durchgeführt werden können. Würde gern eine neue Version meines Tools angehen und bin für Vorschläge dankbar... -- Superchi, C., González, J. A., Solà, I., Cobo, E., Hren, D., & Boutron, I. (2019). Tools used to assess the quality of peer review reports: a methodological systematic review. BMC medical research methodology, 19, 1-14.
×
  • Neu erstellen...