Zum Inhalt springen

DerLenny

Communitymitglied
  • Gesamte Inhalte

    2.533
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von DerLenny

  1. Und erst ab diesen Zeitpunkt werden dann alle Informationen auf der Rückseite schlagartig für alle uninteressant? Oder warum erscheint das Ihrer Meinung nach eine valide Erwiderung auf den Hinweis zu sein, dass sie ihre fachliche Meinung dem Passamt mitteilen sollten, damit dieses vom bisherigen Irrglauben Abstand nehmen kann?
  2. Evtl. sollten Sie ihre wohldurchdachte und qualifizierte Expertenmeinung dem Passamt mitteilen. Dieses scheint ja der irrigen Meinung zu sein, es könne jemanden interessieren.
  3. ... aber natürlich kann es (generell gesehen) weiter eingetragen werden, es gibt nur ein eigenes Feld dafür. Wie der rechtliche Status des Doktortitels in diesem Fall ist, ist - wie oben bereits erwähnt - nicht wirklich klar.
  4. 5000 Wörter sind in etwa 10 Seiten (bei 11 Punkt Schriftgröße, 1.5facher Zeilenabstand). Das war der erwartete Umfang bei 5 ECTS im Bachelor an der IU. Finde ich also nicht so furchtbar viel. 8000 Wörter sind entsprechend etwa 16 Seiten, 15000 Wörter entspricht in etwa dem Anspruch an eine HA im Master an der Apollon. Und wenn ich es korrekt verstehe, sind diese Arbeiten ja direkt für die Dis verwendbar (Theorieteil, Methodik, Pilot)? Hm... bekommt man kein Feedback für die Abgaben? So rein von der Beschreibung her hätte ich erwartet, dass nach Einarbeiten des Feedbacks durch die Vorarbeiten das Exposé eigentlich stehen sollte? Was wird hier denn beanstandet, das bei den Vorarbeiten nicht beanstandet worden ist?
  5. Die Idee ist eigentlich, dass du aufgrund der bestehenden Literatur und Studien deine Hypothese entwickelst, und dann eine passende Methode findest, diese Hypothese zu prüfen. Insbesondere, wenn du quantitativ unterwegs bist, da du so ja nur das abfragen kannst, was Du vermutest. Daher wird ja für explorative Forschung auch gern qualitative Forschung genutzt
  6. Bevor man mit einem "neuen" Fragebogen etwas machen kann, muss erst mal geprüft werden, ob der Fragebogen geeignet ist, die Fragestellung zu beantworten. Entwicklung und Eichung eines Fragebogens ist eine selbstständige Aufgabe. Es muss ja sichergestellt werden, dass die Fragen verständlich sind, das messen, was sie messen sollen, etc. Das übliche Objektivität / Validität/ Reliabilitäts Ding. Und wenn das steht, kann man im nächsten Schritt eine Untersuchung durchführen. Fragen, die nichts mit dem Thema des Fragebogens zu tun haben, gehören nicht in den Fragebogen. Die Fragebogenentwicklung nur sehr kurz thematisieren und hoffen, dass die Betreuer bei einer Bachelor Thesis nur wenig Wert drauf legen. Dann den Fragebogen in den Anhang packen, die relevanten Fragen in der Arbeit referenzieren, die nicht relevanten nicht referenzieren. In der Diskussion auf die Probleme mit dem Fragebogen hinweisen.
  7. Du kannst Dir, sobald die aktuellen Kurse alle abgeschlossen oder zumindest die Prüfungs angemeldet ist, weitere ECTS freischalten lassen. Pro Anfrage bekommst 10 ECTS. Wenn die durch sind, kannst wieder nachfragen. Vor dem Kolloqium müssen die Gesamtkosten beglichen werden.
  8. Kannst Du machen, die würde aber post-factum generiert. Es wäre eine Antwort, aber nicht unbedingt die, die wirklich zur Entscheidung geführt hat. KIs funktionieren gewissermaßen wie japanische Kücken-Genderer: implizite Mustererkennung. Das wäre wirklich eine gute Sache, aber kaum im Interesse der IU, fürchte ich. Der Studienfokus dürfte weniger auf der Wissensmehrung, und mehr auf den Marketingaspekten liegen. Siehe auch den Veröffentlichungskanal. Du erkennst auch den Ansatz: Es geht nicht darum, den Prozess zu verbessern, sondern die menschlichen Korrektoren zu ersetzen. Daher auch der Vergleich mit diesen, anstatt zu prüfen, ob die Korrektur an sich besser geworden ist. Auch, weil man dafür ja einen Blick auf die Aufgaben, deren Musterlösungen und die Bewertungsvorgaben werfen müsste. Das würde zwar langfristig die Qualität erhöhen, so rein von den Vorgehensweisen ist aber scheint es aber so, dass hohe Qualität nicht das Ziel der IU ist. Im Gegenteil, es geht eher darum, das absolute Minimum zu bieten (da günstiger).
  9. Das müsste, wenn ja in den Datenschutzerklärungen der Prüfungen stehen, denke ich? @IU Internation. Hochschule bei welchem Schritt im Ablauf gibt man denn diese Zustimmung? Und wie kann man denn prüfen, ob man zugestimmt hat / seine Zustimmung widerrufen?
  10. Englische Quellen müssen nicht übersetzt werden. Du kannst sie wie Deutsche Quellen behandeln, musst also eigene Übersetzungen auch nicht kennzeichnen.
  11. Aktuell ja. da es ja um automatische Prüfung geht. Verständlichkeit könnte man über einige Metriken prüfen (wie Satzkomplexität und -länge), das wäre aber nur teilweise hilfreich, bei den restlichen Punkten würde ich aktuell eher einen Mensch in der Verantwortung sehen. Generell ist meine Erfahrung, dass eine Abwesenheit von Quellen oder die Nutzung von nicht so geschickten Quellen (wie Online Lernkarten) auch oft ein Indikator für weitere Probleme sind. Oder anders gesagt: Ein Lehrbrief soll ja den aktuellen, gesicherten Wissensstand wiedergeben. Dazu sind Quellen notwendig. Nicht belegte Teile eines Lehrbriefs sind entweder Plagiate oder nicht gesichert. Natürlich bedeutet eine angegebene Quelle nicht, dass die Inhalte der Quelle korrekt wiedergegeben werden und/oder eine schlüssige Erklärung gegeben wird. Hier sollte dann ein Mensch mit Fachwissen und Verständnis für den Wissensstand der Studierenden eine entsprechende Einschätzung liefern. Kennst Du Ressourcen, die eine Prüfung der von Dir genannten Parameter erlauben? Oder meinst du, man sollte ChatGPT um eine Einschätzung bitten?
  12. Ich überlege mir gerade, mein Skript zur Prüfung von Lehrbriefen etwas zu pimpen. Bisher ist es eine recht oberflächliche Textanalyse, die die Anzahl der Referenzen mit stochastischen Richtwerten vergleicht. Es gibt mir auch eine nach Häufigkeit der Referenzen sortierte Liste der Quellen zurück, was allerdings aktuell mehr dazu dient, relevante Literatur zu identifizieren. Ich überlege mir gerade, ob ich dies etwas aufbohre. Mein Plan ist zumindest zu prüfen, ob die benutzen Artikel zurückgezogen wurden. Retraction Watch hat dafür eine Datenbank, die man anfragen kann. Das ist allerdings nicht immer hilfreich, da die Skripte zu einem großen Teil Sekundärquellen (oder noch weiter vom Ursprungsartikel entfernter Literatur) nutzen. Daher würde ich die Literatur gerne noch zusätzlich prüfen. Was ich bereits habe, ist ein Stück Code, das prüft, ob ein Lehrbuch zum Datum der Skriptveröffentlichung die aktuellste Version war. Damit hätte etwa ein seit inzwischen fünf Jahren bekannter (und noch immer nicht korrigierte Fehler) in einem der Lehrbriefe vermieden werden können. Kenn jemand von euch eine Ressource, mit der eine Referenz automatisch eingeschätzt werden kann? Ich könnte was selber basteln, wohl basierend auf der Übersicht von Superchi et al. (2019), das wäre aber eine recht große Menge Arbeit für etwas, wo ich eigentlich tippen würde, dass es da schon was gibt. Daher wollte ich mal fragen, ob hier jemand eine online Quelle hat, die man anfragen könnte? Schwieriger finde ich es mit Fachbüchern. Hier gibt es ein paar sehr bekannte, extrem einflussreiche Beispiele, die bekanntermaßen inhaltlich extrem problematisch sind (ein gutes Beispiel hierfür ist Kahnemanns Thinking Fast & Slow). Oder eingängige aber falsche Visualisierungen wie die "Bedürfnispyramide" oder die Berg- und Talgrafik, die häufig zur Visualisierung des Dunning-Kruger Effekts genutzt wird. Allerdings würde ich ungern eine Blacklist selbst führen müssen... auch hier wäre es nice, wenn man das auslagern könnte. Auf der Artikelebene gibt es ein paar AI Tools, die die Relevanz von Artikeln einschätzen können, und die Anzahl von Veröffentlichungen, die dem Artikel zustimmen, oder diesem kritisch gegenüberstehen, auflisten können. Damit könnten zumindest "formale" Probleme recht schnell gefunden werden. Inhaltliche Probleme, wie unbelegte und falsche Aussagen, logische Fehlschlüsse etc. können damit zwar nicht gefunden werden, aber wenn entsprechend belegt wird, sollte damit die Chance auf solche graben Schnitzer deutlich sinken. Habt ihr noch andere Ideen, wie man die Qualität von Lehrbriefen vor der Veröffentlichung / bei der Entstehung prüfen kann? Idealerweise Dinge, die automatisch durchgeführt werden können. Würde gern eine neue Version meines Tools angehen und bin für Vorschläge dankbar... -- Superchi, C., González, J. A., Solà, I., Cobo, E., Hren, D., & Boutron, I. (2019). Tools used to assess the quality of peer review reports: a methodological systematic review. BMC medical research methodology, 19, 1-14.
  13. Kurz zur Auffrischung: Francesca Gino ist eine Harvard Professorin aus dem Bereich der Verhaltenspsychologie. Sie kam in die Presse, als einige Vorwürfe zur Datenfälschung gegen sie / ihr Forschungsteam erhoben wurden. Harvard hat sie daraufhin unbezahlt freigestellt. Nun berichtet Science [1], dass sich auch einige Plagiatsverdachtsfälle gegen Gino erhärtet haben. Diese betreffen vermutete Übernahmen aus Bachelor Thesen, Papern und Fachartikeln. Science hat hier auch Screenshots von den Artikeln Ginos und den vermuteten Quellen veröffentlicht. Die Ähnlichkeit ist stellenweise schon sehr hoch. Zur Prüfung wurde iThenticate eingesetzt, ein Tool, dass ich bis dato nicht kannte. -- [1] https://www.science.org/content/article/embattled-harvard-honesty-professor-accused-plagiarism
  14. Die Studierenden bekommen ja nur das Gesamtergebnis. Für mehr Infos muss man dann in die Einsicht. Die Einsicht geht nur in Persona, es darf keine Literatur mitgenommen werden und die Zeit ist auf 30min begrenzt. In dieser Zeit müssen alle Teile der Prüfungsleistung, deren Bewertung man überprüft haben möchte, anzeigt und ausführlich darlegt werden, aus welchen Gründen man die Bewertung für fehlerhaft hält. Es ist beinahe so, als ob die Interessen der Studierenden (und hier schließe ich mal korrektes Wissen ein) nicht so hoch bewertet werden, wie die Möglichkeit Geld zu sparen. Daher wird auch massiv daran geforscht, wie man die Betreuung weiter zurückbauen und die Korrekturen automatisieren kann. Und weniger darum, wie man die Studienerfahrung und die das Wissen der Studierenden verbessern kann. Das sollte spätestens, seit das QM Teil des Marketings ist, auch wirklich unstrittig sein. Ich glaube, ich werde ein paar Skripte echt mal durch nen Analyse Tool schicken...
  15. @IU Internation. Hochschule Gibt es eigentlich inzwischen eine Obperson für wissenschaftliches Fehlverhalten?
  16. LMMs stehen und fallen mit den Trainingsdaten. Nehmen wir mal die Aufgabe auf Seite 4, die wahrscheinlich eine der am ehesten respektierlichen Fragen war. Aber selbst bei dieser passt die erwartete Antwort nicht so ganz zur Frage. Die Personen, die die Skripte schreiben, schreiben auch die Aufgaben (und Musterlösungen). Die Skripte sind ja gern mal fehlerbehaftet, die Fragen ebenfalls. Anteilig passen die erwarteten Antworten auch nicht so ganz zu den Fragen, wie man ja in Beispiel sehen kann. Das LMM bewertet jetzt nicht die Korrektheit der Antwort, sondern nur die inhaltliche Nähe zur erwarteten Antwort. Und das ist nicht unbedingt ein gutes Maß für Korrektheit. Ich will jetzt keine Tutoren unter den sprichwörtlichen Bus werfen, aber in dem einen oder anderen Kurs passt da halt auch aus Sicht der Tutoren bei den Musterantworten das eine oder andere nicht. Die IU nennt Fragen, für die man mehr Punkte bekommt "komplexer." Tatsächlich werden hier nur mehr Stichworte in der Antwort erwartet. In den Kursen, die Musterklausuren anbieten, sieht man ja auch die Musterantwort, und wie bewertet wird. Hier ist teilweise einfach eine Liste an Punkten hinterlegt, und für jede Nennung sollen x Punkte gegeben werden. Bei einer ungeschickt gestellten Frage, die aber eine große Menge an Stichworten erwartet, gibt es somit auch einen großen Raum an unterschiedlichen Antworten. Die inhaltliche Nähe der Antwort zur Musterantwort ist damit evtl. nicht ganz so gut geeignet, die Korrektheit der Antwort zu bewerten. Was auch durch die eigene Studie verdeutlicht wird, da ja bei der Bewertung von Experten ohne spezifisches Kurswissen, die Antworten sehr unterschiedlich bewertet wurden (S.7). Im Gegensatz zur IU sehe die 36.7% bzw. den erwarteten 44% nicht als eine positive Sache. Die IU hat eine miserable Qualitätskontrolle, durch die selbst unsinnige Skripte durchkommen. Jetzt wird die fehlerhafte Basis als Maßstab genommen, und ohne Kontrolle akzeptiert. Ich bin mir sicher, dass auch die Fragen- und Antwortgenerierung automatisiert werden soll. Dann kann die IU "irgendjemand" mit dem Skript schreiben beauftragen, das Ding ins System füttern und der Kurs ist fertig. Das Problem ist halt nur, dass wenn man ein System mit Müll füttern auch nur Müll rauskommt. Während die Studierenden noch die Option haben, sich gescheite Literatur herauszusuchen oder auf eine Neuauflage eines Kurses zu warten, muss die KI sich damit zufrieden geben, was die IU ihr vorsetzt. TLDR; Die Studie sieht "engeres Vergleichen von Stichworten" als ideale Methode zur Bewertung von Hochschulleistungen an. Hohe Schwankungen bei den Bewertungen durch Experten wird nicht als Problem des Datensatzes, sondern als Problem des Menschen verstanden. Das ganze Ding ist ein selbstverstärkender Kreislauf. Die Korrektur von Arbeiten ist aktuell schon "minimal entlohnt", es wird also deutlich, welchen Stellenwert die IU dem beimisst. Aus der geplante AI Unterstützung werden zwei Dinge logisch folgen: Um Zeit zu sparen, werden Korrektoren ihre Meinung an die Vorschläge anpassen. Damit korrigieren sie schneller, und da pro Arbeit ein fester Satz bezahlt wird, haben die Korrektoren dazu auch einen guten Anreiz. Wenn ein Korrektor sich nicht an die KI hält, wird das geflaggt (S.11). Wie in der Studie zu sehen ist, werden Abweichungen aber als Problem des Korrektors gesehen → auch hier also Anreiz sich an die Vorgabe der KI zu halten. Dadurch wird die KI in der Auswertung immer "besser" werden. Und schwuppdiwupp ist die automatische Bewertung (laut der Daten) eine valide Option.
  17. Hier ein Beispiel für das, was mir auch aus dem Bekanntenkreis in ähnlicher Form berichtet wurde: https://academia.stackexchange.com/questions/209381/paper-authorship-conflict-advisor-wants-his-name-on-a-research-paper-he-didnt @stefhk3 was würdest du dieser Person raten?
  18. Es geht hier um die Schöpfungshöhe und welcher Anteil hier worauf zu legen ist. Ein großer Teil des Codes wurde selbst vor LMMs von Werkzeugen erzeugt. Du wirst kaum eine besonders schöne Schleife und einen beeindruckenden Codeaufruf hervorbringen. Wenn jetzt der Code an sich nicht die notwendige Höhe erreicht (weil zum Beispiel kein eigener Algo genutzt wird), die Funktion vorgegeben ist und viele andere Aspekte von außen bestimmt werden, dann wird es schwer. Du kannst aber gerne im Rahmen eines Rechtsstreits eine Einzelfallentscheidung herbeiführen. Es ist etwas der allgemeinen Textgenerierung hinterher. Aber nicht mehr viel. Was korrekt ist, hier aber nicht wirklich weiter hilft. Wenn Du nen Boden fliest, dann ist das auch Dein Werk. Du hast zwei Fliesenleger. Einer signiert, nachdem er den Boden so gefliest hat, wie du es wolltest, der andere nicht. Wem gibst Du den Auftrag? Du willst dieses Fass nicht bei dem Beispiel Badezimmerfliesen auf machen. Aber du erkennst hier die Spannung. Ab ins Gericht und die ganze Sache klären lassen... wenn man bereits ein berühmter Architekt ist, dann ist das kein Ding. Wenn du als Entwickler in der Kategorie der von dir genannten Beispiele bist, also wenn aktiv gewollt wird, dass Dein Name mit dem Ergebnis in Verbindung gebracht wird, dann ist dies ein Fall, bei dem es nicht darum geht, ob der Name genannt werden soll. Ich bin mir nicht sicher... hast Du Du den von Dir verlinkten Artikel gelesen? Er scheint sehr wenig mit der Frage zu tun zu haben...
  19. Jo. Und jetzt wird es interessant. Bei Auftragsarbeiten, wo kommt die Schöpfungshöhe her? Aus der Idee? Künstlerischem Code? Code ist im bestenfalle eine Nutzung bekannter Methoden (Best practices / Design patterns). Du nutzt also zum großen Teil Know-How von anderen in einer spezifischen Umsetzung einer Idee Deines Auftraggebers. Wenn Dir der Vergleich mit dem Maler zu krass ist: Fliesenleger macht nen total schick aussehenden Boden mit komplex angeordneten farbigen Fliesen basierend auf Deinen Anweisungen. Gehört sein Name jetzt in Dein Badezimmer? Was, wenn er darauf besteht? Es ist ja sein Werk. Und sieht wirklich, wirklich gut aus. Codieren ist Handwerk. Edit: Wenn es für den Auftraggeber ok ist: Nice. Wenn es für den Auftraggeber ok ist, und man seinen Namen auch wirklich drin haben will: Doppelt nice. Aber beides ist jetzt nicht unbedingt üblich. Schau doch mal nach, wer Deine Banking App geschrieben hat. Jo. Geh mal die Liste durch. Schreiben des Papers ist nicht auf der negativ Liste. Dir die Auswertung zu erklären ist auch nicht "rein technisch" da die Art, wie Du Daten auswertest, einen massiven Einfluss hat. Reines Lesen reicht nicht aus, gibst Du Feedback und fließt dieses ein, dann passt es wieder. Nimm doch mal die IU Studie zu Syntea. Kannst Du hier erkennen, in welcher Form die Autoren beteiligt waren? Wie würdest Du prüfen wollen, ob die Nennung gerechtfertigt ist? Aber wir kommen hier wirklich sehr weit weg vom Thema Ghostwriting.
  20. Und? Such Dir nen Pseudonym für "Deine" Veröffentlichungen, und du hast in etwa die gleiche Situation. Ändert sich dadurch etwas an der Gesamtkonstellation? Mach kommerziell draus. Citation needed. Ich bin mir auch nicht sicher, was Du damit meinst. Was Du in Folge anführst, ist wieder eher eine Marke. Was uns zum Thema "Name als Marke" bringt. Aber generell zeigt, dass du von etwas/ jemanden das erwartest, was du damit verbindest. Wenn der Artikel / Buch "passt", dann passt es. Nein, das kannst Du so nicht pauschal sagen. In den allermeisten Fällen hast Du bei Auftragsarbeit keinen solchen Anspruch. Ich hab genug Projekte, bei denen ich auch sehr lange nicht mal sagen durfte, dass ich überhaupt am Projekt beteiligt war... Stark überzogenes Beispiel: Der Maler, der Deine Wand streicht, signiert diese ja auch nicht. Oder installiert eine Plakette. Warum? Hat er. Allein durch den Auftrag. Da gibt er ja maßgeblichen Input... und ansonsten ist die Nennung bei Papers auch gerne mal politisch bedingt. Die aktuellen Probleme mit Veröffentlichungen (und in diese Richtung geht es bei dem Punkt) wären aber ein ganz eigenes Thema. In der Regel ist es eher so, dass du jede Mitarbeit kenntlich machen musst. Wenn Du in nem Forum fragst, was du für ne statistische Auswertung machen sollst, dann ist DataDude42 als Antwortgeber aber sowas von an Deiner Arbeit beteiligt. Siehe hier auch die Problematik bei der Eidesstattlichen. Bei nem Paper werden die Personen, die bei der Auswertung helfen dann auch direkt Co-Autoren. Und ob du nun den Dude im Büro nebenan fragst, oder jemanden im Netz sollte da Banane sein. Der Teil passt auch gut zur "Verschriftlichung" von Ergebnissen, die ja im Video auch angesprochen wird... Aller Personen, die zum Werk beigetragen haben sind potentiell in der ByLine. Damit tragen diese Personen zur Forschungsleistung bei. Du machst hier auch ein interessantes Dilemma auf: Angenommen Person A forscht und produziert die Ergebnisse, Person B schreibt das Paper. Wer sollte nun Deiner Meinung nach als Autor genannt werden? B hat nicht geforscht, A hat nicht das paper geschrieben... Es geht hier wohl eher darum, dass bei einem Pseudonym nicht klar ist, wer der Autor ist, und es somit eine Gruppe von Autoren sein kann / der eigentliche Autor nicht klar ist und dieser somit auch geändert werden kann.
  21. Ich bin gespannt. ab wann "mündliche Prüfungen" (oder deren textuelles Analog) durch eine KI angeboten werden. Natürlich unter proctorieller Aufsicht :)
  22. Klar, ist ja nur ne Dienstleistung. Wechseln wir mal kurz die Branche, und lassen uns anstatt "Text" Computercode schreiben. Und auf einmal hat niemand mehr ein moralisches Problem damit. Ich beauftrage einen Dienstleister für mich Programm / Routine / X zu entwickeln. Und vertreibe das unter meinem Namen / Firmennamen. Im Bereich "Schreiben" ist es bei Copy Writing jetzt auch schon oft so, dass der ursprüngliche Autor nicht genannt wird. Problematisch wird es halt im akademischen Kontext, aber auch hier könntest das durch einfache Maßnahmen auf eine Ebene heben, die "üblich" ist - z.B. den Ghostwrite zum Autor erheben, ggf. unter Nutzung eines Pseudonyms. Dann bleibt nur noch der eine Fall mit der Prüfungsleistung - und da wird ja von allen Seiten gesagt "mach das nicht"
  23. Sie greifen eine Aussage an, die von der von ihnen zitierten Person nicht gemacht wurde. Das ist ein Strohmann Argument. Was ist denn in diesem Fall ein "gefälschtes" Dokument? Welchen Straftatbestand sehen sie durch die "Produktion eines Dokumentes" erfüllt? Wenn jemand so argumentieren würde, wäre das wirklich nicht sehr clever. Allerdings argumentiert so auch niemand.
  24. Sie machen aus einer Aufzählung (der von ihnen zitierte Teil) eine Kausalbeziehung. Das könnte ein Kommunikationsproblem gewesen sein. Der von ihnen darauf geäußerte induktive Schluss ist jedoch ein klares Strohmann Argument.
×
  • Neu erstellen...