Zum Inhalt springen

DerLenny

Communitymitglied
  • Gesamte Inhalte

    2.530
  • Benutzer seit

  • Letzter Besuch

Beiträge von DerLenny

  1. vor einer Stunde schrieb tigerheli:

    Sehr. Alleine schon auf Grundlage der unmengen an Abgaben die man "produziert".
    Erstes Modul 5000 Wörter + Präsentation (Expose), zweites Modul 8000 Wörter + Präsentation (Theorie), drittes Modul 5000 Wörter + Prästentation (Forschungsmethode), viertes Modul 15000 Wörter + Präsentation (Pilotstudie).

     

    5000 Wörter sind in etwa 10 Seiten (bei 11 Punkt Schriftgröße, 1.5facher Zeilenabstand).

    Das war der erwartete Umfang bei 5 ECTS im Bachelor an der IU. Finde ich also nicht so furchtbar viel.

    8000 Wörter sind entsprechend etwa 16 Seiten, 15000 Wörter entspricht in etwa dem Anspruch an eine HA im Master an der Apollon. 

     

    Und wenn ich es korrekt verstehe, sind diese Arbeiten ja direkt für die Dis verwendbar (Theorieteil, Methodik, Pilot)?

     

    vor 1 Stunde schrieb tigerheli:

    Strenger wurde es erst bei der Anmeldung der Dissertation, das haben nur 3 im ersten Versuch geschafft.

    Hm... bekommt man kein Feedback für die Abgaben? So rein von der Beschreibung her hätte ich erwartet, dass nach Einarbeiten des Feedbacks durch die Vorarbeiten das Exposé eigentlich stehen sollte?

    Was wird hier denn beanstandet, das bei den Vorarbeiten nicht beanstandet worden ist?

  2. Gerade eben schrieb EyeoftheTiger:

    ohne Hypothesen zu arbeiten wäre tatsächlich sicherlich nicht wissenschaftlich

    Die Idee ist eigentlich, dass du aufgrund der bestehenden Literatur und Studien deine Hypothese entwickelst, und dann eine passende Methode findest, diese Hypothese zu prüfen.

     

    Insbesondere, wenn du quantitativ unterwegs bist, da du so ja nur das abfragen kannst, was Du vermutest. Daher wird ja für explorative Forschung auch gern qualitative Forschung genutzt

  3. vor 1 Stunde schrieb EyeoftheTiger:

    und habe den Fragebogen entsprechend gestaltet.

     

    Bevor man mit einem "neuen" Fragebogen etwas machen kann, muss erst mal geprüft werden, ob der Fragebogen geeignet ist, die Fragestellung zu beantworten. Entwicklung und Eichung eines Fragebogens ist eine selbstständige Aufgabe.

    Es muss ja sichergestellt werden, dass die Fragen verständlich sind, das messen, was sie messen sollen, etc. Das übliche Objektivität / Validität/ Reliabilitäts Ding.

    Und wenn das steht, kann man im nächsten Schritt eine Untersuchung durchführen.

     

     

    vor 1 Stunde schrieb EyeoftheTiger:

    Müssen wirklich alle Fragen dazu beitragen, die Hypothesen zu beantworten, oder kann ich auch abseits davon weitere Fragen einbinden, die zur Beantwortung der Forschungsfrage nützlich sind?

    Fragen, die nichts mit dem Thema des Fragebogens zu tun haben, gehören nicht in den Fragebogen.

     

    vor 1 Stunde schrieb EyeoftheTiger:

    Wie würdet ihr in dieser Situation vorgehen, um einen sauberen und wissenschaftlichen Methodik- und Ergebnisteil zu gestalten?

    Die Fragebogenentwicklung nur sehr kurz thematisieren und hoffen, dass die Betreuer bei einer Bachelor Thesis nur wenig Wert drauf legen.

    Dann den Fragebogen in den Anhang packen, die relevanten Fragen in der Arbeit referenzieren, die nicht relevanten nicht referenzieren.

     

    In der Diskussion auf die Probleme mit dem Fragebogen hinweisen.

  4. vor 23 Minuten schrieb Nadja_studiert_Informatik:

    Also man könnte doch eine Begründung von der KI für die Note fordern?

    Kannst Du machen, die würde aber post-factum generiert. Es wäre eine Antwort, aber nicht unbedingt die, die wirklich zur Entscheidung geführt hat. KIs funktionieren gewissermaßen wie japanische Kücken-Genderer: implizite Mustererkennung.

     

    vor 26 Minuten schrieb Nadja_studiert_Informatik:

    Also man bräuchte konkrete Transparenz-Maßnahmen.

    Das wäre wirklich eine gute Sache, aber kaum im Interesse der IU, fürchte ich.

     

    vor 42 Minuten schrieb Nadja_studiert_Informatik:

    Ich finde die Studie interessant, aber an anderen Stellen als da, wo der Fokus liegt. Ist ja oft so…

    Der Studienfokus dürfte weniger auf der Wissensmehrung, und mehr auf den Marketingaspekten liegen. Siehe auch den Veröffentlichungskanal.

     

    Du erkennst auch den Ansatz: Es geht nicht darum, den Prozess zu verbessern, sondern die menschlichen Korrektoren zu ersetzen. Daher auch der Vergleich mit diesen, anstatt zu prüfen, ob die Korrektur an sich besser geworden ist. Auch, weil man dafür ja einen Blick auf die Aufgaben, deren Musterlösungen und die Bewertungsvorgaben werfen müsste. 

    Das würde zwar langfristig die Qualität erhöhen, so rein von den Vorgehensweisen ist aber scheint es aber so, dass hohe Qualität nicht das Ziel der IU ist. Im Gegenteil, es geht eher darum, das absolute Minimum zu bieten (da günstiger).

  5. vor 28 Minuten schrieb Nadja_studiert_Informatik:

    Aber tue ich das bezogen auf meine Klausuren? Ich will so überhaupt gar nicht, dass meine Prüfungsinhalte für solche fragwürdigen Forschungsmethoden verwendet werden.

    Das müsste, wenn ja in den Datenschutzerklärungen der Prüfungen stehen, denke ich?

     

    @IU Internation. Hochschule bei welchem Schritt im Ablauf gibt man denn diese Zustimmung? Und wie kann man denn prüfen, ob man zugestimmt hat / seine Zustimmung widerrufen?

  6. vor 2 Stunden schrieb Markus Jung:

    Mir fällt auf, dass Du die Qualität rein von den verwendeten Quellen abhängig machst.

     

    Aktuell ja. da es ja um automatische Prüfung geht.

    Verständlichkeit könnte man über einige Metriken prüfen (wie Satzkomplexität und -länge), das wäre aber nur teilweise hilfreich, bei den restlichen Punkten würde ich aktuell eher einen Mensch in der Verantwortung sehen.

     

    Generell ist meine Erfahrung, dass eine Abwesenheit von Quellen oder die Nutzung von nicht so geschickten Quellen (wie Online Lernkarten) auch oft ein Indikator für weitere Probleme sind.

     

    Oder anders gesagt: Ein Lehrbrief soll ja den aktuellen, gesicherten Wissensstand wiedergeben. Dazu sind Quellen notwendig. Nicht belegte Teile eines Lehrbriefs sind entweder Plagiate oder nicht gesichert.

     

    Natürlich bedeutet eine angegebene Quelle nicht, dass die Inhalte der Quelle korrekt wiedergegeben werden und/oder eine schlüssige Erklärung gegeben wird. 

     

    Hier sollte dann ein Mensch mit Fachwissen und Verständnis für den Wissensstand der Studierenden eine entsprechende Einschätzung liefern.

    Kennst Du Ressourcen, die eine Prüfung der von Dir genannten Parameter erlauben? Oder meinst du, man sollte ChatGPT um eine Einschätzung bitten?

  7. Ich überlege mir gerade, mein Skript zur Prüfung von Lehrbriefen etwas  zu pimpen.

     

    Bisher ist es eine recht oberflächliche Textanalyse, die die Anzahl der Referenzen mit stochastischen Richtwerten vergleicht. 

    Es gibt mir auch eine nach Häufigkeit der Referenzen sortierte Liste der Quellen zurück, was allerdings aktuell mehr dazu dient, relevante Literatur zu identifizieren.

     

    Ich überlege mir gerade, ob ich dies etwas aufbohre. Mein Plan ist zumindest zu prüfen, ob die benutzen Artikel zurückgezogen wurden. Retraction Watch hat dafür eine Datenbank, die man anfragen kann.

    Das ist allerdings nicht immer hilfreich, da die Skripte zu einem großen Teil Sekundärquellen (oder noch weiter vom Ursprungsartikel entfernter Literatur) nutzen.

     

    Daher würde ich die Literatur gerne noch zusätzlich prüfen. Was ich bereits habe, ist ein Stück Code, das prüft, ob ein Lehrbuch zum Datum der Skriptveröffentlichung die aktuellste Version war. Damit hätte etwa ein seit inzwischen fünf Jahren bekannter (und noch immer nicht korrigierte Fehler) in einem der Lehrbriefe vermieden werden können.

     

    Kenn jemand von euch eine Ressource, mit der eine Referenz automatisch eingeschätzt werden kann? 

    Ich könnte was selber basteln, wohl basierend auf der Übersicht von Superchi et al. (2019), das wäre aber eine recht große Menge Arbeit für etwas, wo ich eigentlich tippen würde, dass es da schon was gibt. Daher wollte ich mal fragen, ob hier jemand eine online Quelle hat, die man anfragen könnte?

     

    Schwieriger finde ich es mit Fachbüchern. Hier gibt es ein paar sehr bekannte, extrem einflussreiche Beispiele, die bekanntermaßen inhaltlich extrem problematisch sind (ein gutes Beispiel hierfür ist Kahnemanns Thinking Fast & Slow). Oder eingängige aber falsche Visualisierungen wie die "Bedürfnispyramide" oder die Berg- und Talgrafik, die häufig zur Visualisierung des Dunning-Kruger Effekts genutzt wird.

     

    Allerdings würde ich ungern eine Blacklist selbst führen müssen... auch hier wäre es nice, wenn man das auslagern könnte.

     

    Auf der Artikelebene gibt es ein paar AI Tools, die die Relevanz von Artikeln einschätzen können, und die Anzahl von Veröffentlichungen, die dem Artikel zustimmen, oder diesem kritisch gegenüberstehen, auflisten können.

     

    Damit könnten zumindest "formale" Probleme recht schnell gefunden werden. Inhaltliche Probleme, wie unbelegte und falsche Aussagen, logische Fehlschlüsse etc. können damit zwar nicht gefunden werden, aber wenn entsprechend belegt wird, sollte damit die Chance auf solche graben Schnitzer deutlich sinken.

     

    Habt ihr noch andere Ideen, wie man die Qualität von Lehrbriefen vor der Veröffentlichung / bei der Entstehung prüfen kann?

    Idealerweise Dinge, die automatisch durchgeführt werden können.

     

    Würde gern eine neue Version meines Tools angehen und bin für Vorschläge dankbar...

     

    --

    Superchi, C., González, J. A., Solà, I., Cobo, E., Hren, D., & Boutron, I. (2019). Tools used to assess the quality of peer review reports: a methodological systematic review. BMC medical research methodology, 19, 1-14.

  8. Kurz zur Auffrischung: Francesca Gino ist eine Harvard Professorin aus dem Bereich der Verhaltenspsychologie. Sie kam in die Presse, als einige Vorwürfe zur Datenfälschung gegen sie / ihr Forschungsteam erhoben wurden. Harvard hat sie daraufhin unbezahlt freigestellt.

     

    Nun berichtet Science [1], dass sich auch einige Plagiatsverdachtsfälle gegen Gino erhärtet haben. Diese betreffen vermutete Übernahmen aus Bachelor Thesen, Papern und Fachartikeln. 

     

    Science hat hier auch Screenshots von den Artikeln Ginos und den vermuteten Quellen veröffentlicht.  Die Ähnlichkeit ist stellenweise schon sehr hoch.

    Zur Prüfung wurde iThenticate eingesetzt, ein Tool, dass ich bis dato nicht kannte.

     

    --

    [1] https://www.science.org/content/article/embattled-harvard-honesty-professor-accused-plagiarism

  9. vor 9 Minuten schrieb KanzlerCoaching:

    Teile seiner Antwort nicht vollständig oder nicht angemessen berücksichtigt sieht

    Die Studierenden bekommen ja nur das Gesamtergebnis.

    Für mehr Infos muss man dann in die Einsicht. Die Einsicht geht nur in Persona, es darf keine Literatur mitgenommen werden und die Zeit ist auf 30min begrenzt. In dieser Zeit müssen alle Teile der Prüfungsleistung, deren Bewertung man überprüft haben möchte, anzeigt und ausführlich darlegt werden, aus welchen Gründen man die Bewertung für fehlerhaft hält.

     

    Es ist beinahe so, als ob die Interessen der Studierenden (und hier schließe ich mal korrektes Wissen ein) nicht so hoch bewertet werden, wie die Möglichkeit Geld zu sparen.

     

    Daher wird auch massiv daran geforscht, wie man die Betreuung weiter zurückbauen und die Korrekturen automatisieren kann. Und weniger darum, wie man die Studienerfahrung und die das Wissen der Studierenden verbessern kann.

     

    Das sollte spätestens, seit das QM Teil des Marketings ist, auch wirklich unstrittig sein.

     

    vor 4 Stunden schrieb Markus Jung:

    Durch KI generierte Lernhefte? 

    Ich glaube, ich werde ein paar Skripte echt mal durch nen Analyse Tool schicken...

  10. LMMs stehen und fallen mit den Trainingsdaten.

     

    Nehmen wir mal die Aufgabe auf Seite 4, die wahrscheinlich eine der am ehesten respektierlichen Fragen war. Aber selbst bei dieser passt die erwartete Antwort nicht so ganz zur Frage.

     

    Die Personen, die die Skripte schreiben, schreiben auch die Aufgaben (und Musterlösungen). Die Skripte sind ja gern mal fehlerbehaftet, die Fragen ebenfalls. Anteilig passen die erwarteten Antworten auch nicht so ganz zu den Fragen, wie man ja in Beispiel sehen kann.

     

    Das LMM bewertet jetzt nicht die Korrektheit der Antwort, sondern nur die inhaltliche Nähe zur erwarteten Antwort. Und das ist nicht unbedingt ein gutes Maß für Korrektheit. Ich will jetzt keine Tutoren unter den sprichwörtlichen Bus werfen, aber in dem einen oder anderen Kurs passt da halt auch aus Sicht der Tutoren bei den Musterantworten das eine oder andere nicht.

     

    Die IU nennt Fragen, für die man mehr Punkte bekommt "komplexer." Tatsächlich werden hier nur mehr Stichworte in der Antwort erwartet. In den Kursen, die Musterklausuren anbieten, sieht man ja auch die Musterantwort, und wie bewertet wird. Hier ist teilweise einfach eine Liste an Punkten hinterlegt, und für jede Nennung sollen x Punkte gegeben werden.

     

    Bei einer ungeschickt gestellten Frage, die aber eine große Menge an Stichworten erwartet, gibt es somit auch einen großen Raum an unterschiedlichen Antworten.

    Die inhaltliche Nähe der Antwort zur Musterantwort ist damit evtl. nicht ganz so gut geeignet, die Korrektheit der Antwort zu bewerten.

     

    Was auch durch die eigene Studie verdeutlicht wird, da ja bei der Bewertung von Experten ohne spezifisches Kurswissen, die Antworten sehr unterschiedlich bewertet wurden (S.7). 

     

    Im Gegensatz zur IU sehe die 36.7% bzw. den erwarteten 44% nicht als eine positive Sache.

    Die IU hat eine miserable Qualitätskontrolle, durch die selbst unsinnige Skripte durchkommen. Jetzt wird die fehlerhafte Basis als Maßstab genommen, und ohne Kontrolle akzeptiert.

     

    Ich bin mir sicher, dass auch die Fragen- und Antwortgenerierung automatisiert werden soll.

    Dann kann die IU "irgendjemand" mit dem Skript schreiben beauftragen, das Ding ins System füttern und der Kurs ist fertig.

     

    Das Problem ist halt nur, dass wenn man ein System mit Müll füttern auch nur Müll rauskommt.

    Während die Studierenden noch die Option haben, sich gescheite Literatur herauszusuchen oder auf eine Neuauflage eines Kurses zu warten, muss die KI sich damit zufrieden geben, was die IU ihr vorsetzt.

     

    TLDR;

    • Die Studie sieht "engeres Vergleichen von Stichworten" als ideale Methode zur Bewertung von Hochschulleistungen an.
    • Hohe Schwankungen bei den Bewertungen durch Experten wird nicht als Problem des Datensatzes, sondern als Problem des Menschen verstanden.

     

    Das ganze Ding ist ein selbstverstärkender Kreislauf.

     

    Die Korrektur von Arbeiten ist aktuell schon "minimal entlohnt", es wird also deutlich, welchen Stellenwert die IU dem beimisst. Aus der geplante AI Unterstützung werden zwei Dinge logisch folgen:

    1. Um Zeit zu sparen, werden Korrektoren ihre Meinung an die Vorschläge anpassen. Damit korrigieren sie schneller, und da pro Arbeit ein fester Satz bezahlt wird, haben die Korrektoren dazu auch einen guten Anreiz.
    2. Wenn ein Korrektor sich nicht an die KI hält, wird das geflaggt (S.11). Wie in der Studie zu sehen ist, werden Abweichungen aber als Problem des Korrektors gesehen → auch hier also Anreiz sich an die Vorgabe der KI zu halten.

    Dadurch wird die KI in der Auswertung immer "besser" werden. Und schwuppdiwupp ist die automatische Bewertung (laut der Daten) eine valide Option.

     

  11. vor 1 Stunde schrieb stefhk3:

    a kann man sich im Einzelfalle wieder streiten, aber das Code eines halbwegs komplexen Projekts eine rein mechanistische Wiedergabe einer Spezifikation wäre, ist sicher falsch. Die Nutzung von Know How ist wurscht

    Es geht hier um die Schöpfungshöhe und welcher Anteil hier worauf zu legen ist.

    Ein großer Teil des Codes wurde selbst vor LMMs von Werkzeugen erzeugt.

    Du wirst kaum eine besonders schöne Schleife und einen beeindruckenden Codeaufruf hervorbringen.

    Wenn jetzt der Code an sich nicht die notwendige Höhe erreicht (weil zum Beispiel kein eigener Algo genutzt wird), die Funktion vorgegeben ist und viele andere Aspekte von außen bestimmt werden, dann wird es schwer.

    Du kannst aber gerne im Rahmen eines Rechtsstreits eine Einzelfallentscheidung herbeiführen.

     

    vor 1 Stunde schrieb stefhk3:

    eswegen auch die automatische Codegenerierung ein alter und unerfüllter Traum ist)

    Es ist etwas der allgemeinen Textgenerierung hinterher. Aber nicht mehr viel.

     

    vor 1 Stunde schrieb stefhk3:

    Wenn er aber selbst gestaltet hat, ist es sein Werk.

    Was korrekt ist, hier aber nicht wirklich weiter hilft.

    Wenn Du nen Boden fliest, dann ist das auch Dein Werk.

     

    vor 1 Stunde schrieb stefhk3:

    Und ich fürchte, Du kannst ihm dan nicht verbieten, das zu signieren.

    Du hast zwei Fliesenleger. Einer signiert, nachdem er den Boden so gefliest hat, wie du es wolltest, der andere nicht. Wem gibst Du den Auftrag?

     

    vor 1 Stunde schrieb stefhk3:

    Der Urheber hat dann auch ein Recht, dass das Werk nicht verschandelt wird und so was.

    Du willst dieses Fass nicht bei dem Beispiel Badezimmerfliesen auf machen.

     

    Aber du erkennst hier die Spannung. Ab ins Gericht und die ganze Sache klären lassen...

    wenn man bereits ein berühmter Architekt ist, dann ist das kein Ding. Wenn du als Entwickler in der Kategorie der von dir genannten Beispiele bist, also wenn aktiv gewollt wird, dass Dein Name mit dem Ergebnis in Verbindung gebracht wird, dann ist dies ein Fall, bei dem es nicht darum geht, ob der Name genannt werden soll.

     

     

    vor 1 Stunde schrieb stefhk3:

    Ich streite weisgott nicht ab, dass es Fehlentwicklungen gibt, aber bei Dir klingt das so als sei alles egal und jeder macht, was er will. Ganz so ist es dann doch nicht. 

     

    Ich bin mir nicht sicher... hast Du Du den von Dir verlinkten Artikel gelesen?

    Er scheint sehr wenig mit der Frage zu tun zu haben...

     

  12. vor 46 Minuten schrieb stefhk3:

    Also, auch bei Auftragsarbeiten hat man grundsätzlich so eine Anspruch.

    Jo.

     

    vor 46 Minuten schrieb stefhk3:

    Das Streichen einer Wand ist auch kein Werk im Sinne des Urheberrechts, es mangelt an Schöpfungshöhe.

    Und jetzt wird es interessant. Bei Auftragsarbeiten, wo kommt die Schöpfungshöhe her? Aus der Idee? Künstlerischem Code? Code ist im bestenfalle eine Nutzung bekannter Methoden (Best practices / Design patterns). Du nutzt also zum großen Teil Know-How von anderen in einer spezifischen Umsetzung einer Idee Deines Auftraggebers.

     

    Wenn Dir der Vergleich mit dem Maler zu krass ist: Fliesenleger macht nen total schick aussehenden Boden mit komplex angeordneten farbigen Fliesen basierend auf Deinen Anweisungen. Gehört sein Name jetzt in Dein Badezimmer? Was, wenn er darauf besteht? Es ist ja sein Werk. Und sieht wirklich, wirklich gut aus.

     

    Codieren ist Handwerk. 

     

    Edit:

    Wenn es für den Auftraggeber ok ist: Nice.

    Wenn es für den Auftraggeber ok ist, und man seinen Namen auch wirklich drin haben will: Doppelt nice.

    Aber beides ist jetzt nicht unbedingt üblich.

     

    Schau doch mal nach, wer Deine Banking App geschrieben hat.

     

     

     

    vor 46 Minuten schrieb stefhk3:

    Ja, aber nur wenn ein substantieller Beitrag vorliegt. Die DFG

    Jo. Geh mal die Liste durch.

    Schreiben des Papers ist nicht auf der negativ Liste.

    Dir die Auswertung zu erklären ist auch nicht "rein technisch" da die Art, wie Du Daten auswertest, einen massiven Einfluss hat.

    Reines Lesen reicht nicht aus, gibst Du Feedback und fließt dieses ein, dann passt es wieder.

     

    Nimm doch mal die IU Studie zu Syntea. Kannst Du hier erkennen, in welcher Form die Autoren beteiligt waren? Wie würdest Du prüfen wollen, ob die Nennung gerechtfertigt ist?

     

    Aber wir kommen hier wirklich sehr weit weg vom Thema Ghostwriting.

     

  13. vor 16 Minuten schrieb stefhk3:

    Der Name/Firmenname, von dem Du sprichst, wäre für meine Begriffe eher mit z. B. einem Verlagsnamen zu Vergleichen

    Und? Such Dir nen Pseudonym für "Deine" Veröffentlichungen, und du hast in etwa die gleiche Situation. Ändert sich dadurch etwas an der Gesamtkonstellation?

     

    vor 18 Minuten schrieb stefhk3:

    Das scheint mir aber mehr kulturell bedingt zu sein

    Mach kommerziell draus.

     

    vor 19 Minuten schrieb stefhk3:

    bei "Texten" erwartet man irgendwie mehr "Persönlichkeit" dahinter

    Citation needed. 

    Ich bin mir auch nicht sicher, was Du damit meinst. Was Du in Folge anführst, ist wieder eher eine Marke. Was uns zum Thema "Name als Marke" bringt. Aber generell zeigt, dass du von etwas/ jemanden das erwartest, was du damit verbindest. Wenn der Artikel / Buch  "passt", dann passt es.

     

    vor 22 Minuten schrieb stefhk3:

    Der Autor hat rechtlich einen Anspruch auf Nennung. Zumindest früher war das bei Software auch so

    Nein, das kannst Du so nicht pauschal sagen. In den allermeisten Fällen hast Du bei Auftragsarbeit keinen solchen Anspruch.  Ich hab genug Projekte, bei denen ich auch sehr lange nicht mal sagen durfte, dass ich überhaupt am Projekt beteiligt war...

     

    Stark überzogenes Beispiel: Der Maler, der Deine Wand streicht, signiert diese ja auch nicht. Oder installiert eine Plakette.

     

    vor 27 Minuten schrieb stefhk3:

    juristisch scheint mir das problematisch

    Warum?

     

    vor 27 Minuten schrieb stefhk3:

    Einfach den Ghostwriter zum Autor zu machen nützt im akademischen Bereich nur begrenzt. Das geht nur, wenn der vorgebliche Autor/Auftraggeber auch beigetragen hat

    Hat er. Allein durch den Auftrag. Da gibt er ja maßgeblichen Input... und ansonsten ist die Nennung bei Papers auch gerne mal politisch bedingt. 

    Die aktuellen Probleme mit Veröffentlichungen (und in diese Richtung geht es bei dem Punkt) wären aber ein ganz eigenes Thema.

     

    vor 31 Minuten schrieb stefhk3:

    Aber wenn der Auftraggeber keinen substantiellen Beitrag geleistet hat, wäre dessen Nennung nicht im Einklang mit Richtilinien für Autorenschaft

    In der Regel ist es eher so, dass du jede Mitarbeit kenntlich machen musst. Wenn Du in nem Forum fragst, was du für ne statistische Auswertung machen sollst, dann ist DataDude42 als Antwortgeber aber sowas von an Deiner Arbeit beteiligt. Siehe hier auch die Problematik bei der Eidesstattlichen. Bei nem Paper werden die Personen, die bei der Auswertung helfen dann auch direkt Co-Autoren. Und ob du nun den Dude im Büro nebenan fragst, oder jemanden im Netz sollte da Banane sein.

    Der Teil passt auch gut zur "Verschriftlichung" von Ergebnissen, die ja im Video auch angesprochen wird...

     

    vor 37 Minuten schrieb stefhk3:

    Wer eben nicht selbst forscht und publiziert, kann nach Masstäben der Wissenschaftsehtik nicht Autor sein.

    Aller Personen, die zum Werk beigetragen haben sind potentiell in der ByLine. Damit tragen diese Personen zur Forschungsleistung bei. 

    Du machst hier auch ein interessantes Dilemma auf:

    Angenommen Person A forscht und produziert die Ergebnisse, Person B schreibt das Paper. Wer sollte nun Deiner Meinung nach als Autor genannt werden? B hat nicht geforscht, A hat nicht das paper geschrieben... 

     

    vor 32 Minuten schrieb Naledi:

    Das Schreiben unter Pseudonym oder Künstlernamen würde ich nicht unter "Ghostwriting" einsortieren.

    Es geht hier wohl eher darum, dass bei einem Pseudonym nicht klar ist, wer der Autor ist, und es somit eine Gruppe von Autoren sein kann / der eigentliche Autor nicht klar ist und dieser somit auch geändert werden kann.

     

  14. vor 9 Stunden schrieb Alanna:

    und ich war noch dabei zu überlegen, ob es auch Konstellationen geben kann, wo ein Auftraggeber einen "legitimen" Bedarf haben könnte, einen Ghostwriter zu beauftragen

     

    Klar, ist ja nur ne Dienstleistung. Wechseln wir mal kurz die Branche, und lassen uns anstatt "Text" Computercode schreiben. Und auf einmal hat niemand mehr ein moralisches Problem damit.

    Ich beauftrage einen Dienstleister für mich Programm / Routine / X zu entwickeln. Und vertreibe das unter meinem Namen / Firmennamen.

    Im Bereich "Schreiben" ist es bei Copy Writing jetzt auch schon oft so, dass der ursprüngliche Autor nicht genannt wird.

     

    Problematisch wird es halt im akademischen Kontext, aber auch hier könntest das durch einfache Maßnahmen auf eine Ebene heben, die "üblich" ist - z.B. den Ghostwrite zum Autor erheben, ggf. unter Nutzung eines Pseudonyms.

    Dann bleibt nur noch der eine Fall mit der Prüfungsleistung - und da wird ja von allen Seiten gesagt "mach das nicht"

     

  15. Gerade eben schrieb KanzlerCoaching:

    Sorry, das ist Unsinn. Ich habe geschrieben, dass es eine Reihe von "Dienstleistungen" gibt.

    Sie greifen eine Aussage an, die von der von ihnen zitierten Person nicht gemacht wurde. Das ist ein Strohmann Argument.

     

    vor 1 Minute schrieb KanzlerCoaching:

    Die Produktion eines Dokumentes ist ebenso strafbar wie die Verwendung des gefälschten Dokumentes.

     

    Was ist denn in diesem Fall ein "gefälschtes" Dokument?

    Welchen Straftatbestand sehen sie durch die "Produktion eines Dokumentes" erfüllt?
     

    vor 4 Minuten schrieb KanzlerCoaching:

    Ich bin raus, wenn jemand das gefälschte Dokument wirklich nutzt. Er hat ja eine eidesstattliche Erklärung abgegeben."

    Wenn jemand so argumentieren würde, wäre das wirklich nicht sehr clever. Allerdings argumentiert so auch niemand.

  16. vor 38 Minuten schrieb KanzlerCoaching:

    Es gibt für viele "Dienstleistungen" einen Markt. Daraus abzuleiten, dass dann ein Angebot "nicht verwerflich" sei

     

    Eine Aufzählung bedingt keine Kausalbeziehung. Aus Laterne folgt weder eine weitere Laterne, noch aus dieser Sonne, Mond und Sterne.

     

    vor 40 Minuten schrieb KanzlerCoaching:

    Ich wünschte mir, die Hochschulen würden Begleitungen während des Schreibprozesses und Prüfungsformen einführen, die solchen Betrug erschweren.

    Das dürfte wieder das Problem mit der eidesstattlichen Erklärung produzieren.

    Iterative Einreichungen sind, aus den im Interview erläuterten Gründen, wenig zielführend.

     

    Bzgl. der Prüfungsformen: Welche Optionen sehen sie hier neben einer mündlichen Prüfung?

     

    vor 43 Minuten schrieb KanzlerCoaching:

    Und die Leute, die dann Zweifel aufkommen lassen bzw. deren mündliche Performance inhaltlich/fachlich nicht überzeugend ist und der Qualität der schriftlichen Arbeiten nicht entspricht, gnadenlos mit schlechten Noten bis hin zum "nicht bestanden" abstrafen.

     

    Hier sehe ich Probleme, da die mündliche Leistung von komplett anderen Faktoren abhängt als schriftliche Leistungen.  Unterschiede hier auf Betrug zu attribuieren ist ein non sequitur.

    Es würde auch viele weitere Probleme nach sich ziehen, wie Benachteiligung von Personen mit Beeinträchtigungen, Ungleichbehandlung gleicher Leistungen, etc. 

  17. vor 1 Minute schrieb Muddlehead:

    Das macht es doch wiederum unbegreiflich.

    Ok, da es Dir scheinbar schwer fällt, Deinen Gedankengank zu verbalisieren, hier ein paar möglicherweise hilfreiche Punkte

    • ich habe bei einigen in diesem Fred, inklusive Dir, nicht den Eindruck, dass das Interview tatsächlich betrachtet wurde. Was bei der Diskussion eines Videos suboptimal ist.
    • Siehst Du Anhaltspunkte, dass der Interviewpartner sich in jedweder Form fremde Quellen aneignet, und somit einen Diebstahl geistigen Eigentums begeht? Denn das wäre ein nachvollziehbarer Punkt. Dafür finde ich keine Anhaltspunkte.
    • Ich sehe Anhaltspunkte für eine Schuldverschiebung von der Person, die den eigentlichen Betrug begeht weg, hin zur Person, die eine Dienstleistung anbietet. Wenn man diesen Gedankenganng weiterverfolgt und ins Extrem bringt, so wäre bei einem Vollplagiat nicht die abgebende Person, sondern der ursprüngliche Ersteller zu belangen. Was absurd erscheint. Objektiv ist es aber in beiden Fällen der gleiche Tatbestand. Daher würde mich Dein Gedankengang interessieren, der für Dich ja schlüssig erscheint. Evtl. übersehe ich hier ja etwas.

    Ich finde es auch ungeschickt, dass die vielen validen Punkte, die im Rahmen des Interviews aufgeworfen werden, hier nicht thematisiert werden.  Ein Beispiel hierfür ist die problematische Formulierung der eidesstattlichen Erklärung. Durch die sich die meisten Studierenden, wenn sie den gängigen Ratschlägen folgen, auf der gleichen Ebene befinden, wie Personen, die einen Ghostwriter anheuern. Sowohl bei der Nutzung eines Lektorats, als auch nur beim Gegenlesen lassen mit anschließenden Anpassungen stellt dies einen Verstoß gegen die abgegebene Erklärung dar. Ähnlich verhält es sich bei Toolnutzung - hier ist auch unklar, welche Tools wirklich genannt werden müssen. I.d.R. werden hier ja nur die direkt involvierten Tools (wis. Suchmaschinen, Tools zur statistischen Erhebung und Auswertung, etc.) genannt. Was laut den aktuellen Formulierungen nicht ausreicht, und auch hier viele Studierende bei strenger Auslegung einen Verstoß begehen dürften.

     

    Dies sind für einen großen Teil der Studierenden relevante Punkte, die eine tiefere Diskussion erlauben würden.

     

    Auch wird der Punkt, wie der Entwicklung (Nutzung von KI Tools und Ghoswritern) begegnet werden soll, kaum Raum eingeräumt. Wobei ich einer Diskussion dieser Themen einen relativ hohen Wert beimessen würde.

     

×
  • Neu erstellen...