Zum Inhalt springen

DerLenny

Communitymitglied
  • Gesamte Inhalte

    2.547
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von DerLenny

  1. Aktuell ja. da es ja um automatische Prüfung geht. Verständlichkeit könnte man über einige Metriken prüfen (wie Satzkomplexität und -länge), das wäre aber nur teilweise hilfreich, bei den restlichen Punkten würde ich aktuell eher einen Mensch in der Verantwortung sehen. Generell ist meine Erfahrung, dass eine Abwesenheit von Quellen oder die Nutzung von nicht so geschickten Quellen (wie Online Lernkarten) auch oft ein Indikator für weitere Probleme sind. Oder anders gesagt: Ein Lehrbrief soll ja den aktuellen, gesicherten Wissensstand wiedergeben. Dazu sind Quellen notwendig. Nicht belegte Teile eines Lehrbriefs sind entweder Plagiate oder nicht gesichert. Natürlich bedeutet eine angegebene Quelle nicht, dass die Inhalte der Quelle korrekt wiedergegeben werden und/oder eine schlüssige Erklärung gegeben wird. Hier sollte dann ein Mensch mit Fachwissen und Verständnis für den Wissensstand der Studierenden eine entsprechende Einschätzung liefern. Kennst Du Ressourcen, die eine Prüfung der von Dir genannten Parameter erlauben? Oder meinst du, man sollte ChatGPT um eine Einschätzung bitten?
  2. Ich überlege mir gerade, mein Skript zur Prüfung von Lehrbriefen etwas zu pimpen. Bisher ist es eine recht oberflächliche Textanalyse, die die Anzahl der Referenzen mit stochastischen Richtwerten vergleicht. Es gibt mir auch eine nach Häufigkeit der Referenzen sortierte Liste der Quellen zurück, was allerdings aktuell mehr dazu dient, relevante Literatur zu identifizieren. Ich überlege mir gerade, ob ich dies etwas aufbohre. Mein Plan ist zumindest zu prüfen, ob die benutzen Artikel zurückgezogen wurden. Retraction Watch hat dafür eine Datenbank, die man anfragen kann. Das ist allerdings nicht immer hilfreich, da die Skripte zu einem großen Teil Sekundärquellen (oder noch weiter vom Ursprungsartikel entfernter Literatur) nutzen. Daher würde ich die Literatur gerne noch zusätzlich prüfen. Was ich bereits habe, ist ein Stück Code, das prüft, ob ein Lehrbuch zum Datum der Skriptveröffentlichung die aktuellste Version war. Damit hätte etwa ein seit inzwischen fünf Jahren bekannter (und noch immer nicht korrigierte Fehler) in einem der Lehrbriefe vermieden werden können. Kenn jemand von euch eine Ressource, mit der eine Referenz automatisch eingeschätzt werden kann? Ich könnte was selber basteln, wohl basierend auf der Übersicht von Superchi et al. (2019), das wäre aber eine recht große Menge Arbeit für etwas, wo ich eigentlich tippen würde, dass es da schon was gibt. Daher wollte ich mal fragen, ob hier jemand eine online Quelle hat, die man anfragen könnte? Schwieriger finde ich es mit Fachbüchern. Hier gibt es ein paar sehr bekannte, extrem einflussreiche Beispiele, die bekanntermaßen inhaltlich extrem problematisch sind (ein gutes Beispiel hierfür ist Kahnemanns Thinking Fast & Slow). Oder eingängige aber falsche Visualisierungen wie die "Bedürfnispyramide" oder die Berg- und Talgrafik, die häufig zur Visualisierung des Dunning-Kruger Effekts genutzt wird. Allerdings würde ich ungern eine Blacklist selbst führen müssen... auch hier wäre es nice, wenn man das auslagern könnte. Auf der Artikelebene gibt es ein paar AI Tools, die die Relevanz von Artikeln einschätzen können, und die Anzahl von Veröffentlichungen, die dem Artikel zustimmen, oder diesem kritisch gegenüberstehen, auflisten können. Damit könnten zumindest "formale" Probleme recht schnell gefunden werden. Inhaltliche Probleme, wie unbelegte und falsche Aussagen, logische Fehlschlüsse etc. können damit zwar nicht gefunden werden, aber wenn entsprechend belegt wird, sollte damit die Chance auf solche graben Schnitzer deutlich sinken. Habt ihr noch andere Ideen, wie man die Qualität von Lehrbriefen vor der Veröffentlichung / bei der Entstehung prüfen kann? Idealerweise Dinge, die automatisch durchgeführt werden können. Würde gern eine neue Version meines Tools angehen und bin für Vorschläge dankbar... -- Superchi, C., González, J. A., Solà, I., Cobo, E., Hren, D., & Boutron, I. (2019). Tools used to assess the quality of peer review reports: a methodological systematic review. BMC medical research methodology, 19, 1-14.
  3. Kurz zur Auffrischung: Francesca Gino ist eine Harvard Professorin aus dem Bereich der Verhaltenspsychologie. Sie kam in die Presse, als einige Vorwürfe zur Datenfälschung gegen sie / ihr Forschungsteam erhoben wurden. Harvard hat sie daraufhin unbezahlt freigestellt. Nun berichtet Science [1], dass sich auch einige Plagiatsverdachtsfälle gegen Gino erhärtet haben. Diese betreffen vermutete Übernahmen aus Bachelor Thesen, Papern und Fachartikeln. Science hat hier auch Screenshots von den Artikeln Ginos und den vermuteten Quellen veröffentlicht. Die Ähnlichkeit ist stellenweise schon sehr hoch. Zur Prüfung wurde iThenticate eingesetzt, ein Tool, dass ich bis dato nicht kannte. -- [1] https://www.science.org/content/article/embattled-harvard-honesty-professor-accused-plagiarism
  4. Die Studierenden bekommen ja nur das Gesamtergebnis. Für mehr Infos muss man dann in die Einsicht. Die Einsicht geht nur in Persona, es darf keine Literatur mitgenommen werden und die Zeit ist auf 30min begrenzt. In dieser Zeit müssen alle Teile der Prüfungsleistung, deren Bewertung man überprüft haben möchte, anzeigt und ausführlich darlegt werden, aus welchen Gründen man die Bewertung für fehlerhaft hält. Es ist beinahe so, als ob die Interessen der Studierenden (und hier schließe ich mal korrektes Wissen ein) nicht so hoch bewertet werden, wie die Möglichkeit Geld zu sparen. Daher wird auch massiv daran geforscht, wie man die Betreuung weiter zurückbauen und die Korrekturen automatisieren kann. Und weniger darum, wie man die Studienerfahrung und die das Wissen der Studierenden verbessern kann. Das sollte spätestens, seit das QM Teil des Marketings ist, auch wirklich unstrittig sein. Ich glaube, ich werde ein paar Skripte echt mal durch nen Analyse Tool schicken...
  5. @IU Internation. Hochschule Gibt es eigentlich inzwischen eine Obperson für wissenschaftliches Fehlverhalten?
  6. LMMs stehen und fallen mit den Trainingsdaten. Nehmen wir mal die Aufgabe auf Seite 4, die wahrscheinlich eine der am ehesten respektierlichen Fragen war. Aber selbst bei dieser passt die erwartete Antwort nicht so ganz zur Frage. Die Personen, die die Skripte schreiben, schreiben auch die Aufgaben (und Musterlösungen). Die Skripte sind ja gern mal fehlerbehaftet, die Fragen ebenfalls. Anteilig passen die erwarteten Antworten auch nicht so ganz zu den Fragen, wie man ja in Beispiel sehen kann. Das LMM bewertet jetzt nicht die Korrektheit der Antwort, sondern nur die inhaltliche Nähe zur erwarteten Antwort. Und das ist nicht unbedingt ein gutes Maß für Korrektheit. Ich will jetzt keine Tutoren unter den sprichwörtlichen Bus werfen, aber in dem einen oder anderen Kurs passt da halt auch aus Sicht der Tutoren bei den Musterantworten das eine oder andere nicht. Die IU nennt Fragen, für die man mehr Punkte bekommt "komplexer." Tatsächlich werden hier nur mehr Stichworte in der Antwort erwartet. In den Kursen, die Musterklausuren anbieten, sieht man ja auch die Musterantwort, und wie bewertet wird. Hier ist teilweise einfach eine Liste an Punkten hinterlegt, und für jede Nennung sollen x Punkte gegeben werden. Bei einer ungeschickt gestellten Frage, die aber eine große Menge an Stichworten erwartet, gibt es somit auch einen großen Raum an unterschiedlichen Antworten. Die inhaltliche Nähe der Antwort zur Musterantwort ist damit evtl. nicht ganz so gut geeignet, die Korrektheit der Antwort zu bewerten. Was auch durch die eigene Studie verdeutlicht wird, da ja bei der Bewertung von Experten ohne spezifisches Kurswissen, die Antworten sehr unterschiedlich bewertet wurden (S.7). Im Gegensatz zur IU sehe die 36.7% bzw. den erwarteten 44% nicht als eine positive Sache. Die IU hat eine miserable Qualitätskontrolle, durch die selbst unsinnige Skripte durchkommen. Jetzt wird die fehlerhafte Basis als Maßstab genommen, und ohne Kontrolle akzeptiert. Ich bin mir sicher, dass auch die Fragen- und Antwortgenerierung automatisiert werden soll. Dann kann die IU "irgendjemand" mit dem Skript schreiben beauftragen, das Ding ins System füttern und der Kurs ist fertig. Das Problem ist halt nur, dass wenn man ein System mit Müll füttern auch nur Müll rauskommt. Während die Studierenden noch die Option haben, sich gescheite Literatur herauszusuchen oder auf eine Neuauflage eines Kurses zu warten, muss die KI sich damit zufrieden geben, was die IU ihr vorsetzt. TLDR; Die Studie sieht "engeres Vergleichen von Stichworten" als ideale Methode zur Bewertung von Hochschulleistungen an. Hohe Schwankungen bei den Bewertungen durch Experten wird nicht als Problem des Datensatzes, sondern als Problem des Menschen verstanden. Das ganze Ding ist ein selbstverstärkender Kreislauf. Die Korrektur von Arbeiten ist aktuell schon "minimal entlohnt", es wird also deutlich, welchen Stellenwert die IU dem beimisst. Aus der geplante AI Unterstützung werden zwei Dinge logisch folgen: Um Zeit zu sparen, werden Korrektoren ihre Meinung an die Vorschläge anpassen. Damit korrigieren sie schneller, und da pro Arbeit ein fester Satz bezahlt wird, haben die Korrektoren dazu auch einen guten Anreiz. Wenn ein Korrektor sich nicht an die KI hält, wird das geflaggt (S.11). Wie in der Studie zu sehen ist, werden Abweichungen aber als Problem des Korrektors gesehen → auch hier also Anreiz sich an die Vorgabe der KI zu halten. Dadurch wird die KI in der Auswertung immer "besser" werden. Und schwuppdiwupp ist die automatische Bewertung (laut der Daten) eine valide Option.
  7. Hier ein Beispiel für das, was mir auch aus dem Bekanntenkreis in ähnlicher Form berichtet wurde: https://academia.stackexchange.com/questions/209381/paper-authorship-conflict-advisor-wants-his-name-on-a-research-paper-he-didnt @stefhk3 was würdest du dieser Person raten?
  8. Es geht hier um die Schöpfungshöhe und welcher Anteil hier worauf zu legen ist. Ein großer Teil des Codes wurde selbst vor LMMs von Werkzeugen erzeugt. Du wirst kaum eine besonders schöne Schleife und einen beeindruckenden Codeaufruf hervorbringen. Wenn jetzt der Code an sich nicht die notwendige Höhe erreicht (weil zum Beispiel kein eigener Algo genutzt wird), die Funktion vorgegeben ist und viele andere Aspekte von außen bestimmt werden, dann wird es schwer. Du kannst aber gerne im Rahmen eines Rechtsstreits eine Einzelfallentscheidung herbeiführen. Es ist etwas der allgemeinen Textgenerierung hinterher. Aber nicht mehr viel. Was korrekt ist, hier aber nicht wirklich weiter hilft. Wenn Du nen Boden fliest, dann ist das auch Dein Werk. Du hast zwei Fliesenleger. Einer signiert, nachdem er den Boden so gefliest hat, wie du es wolltest, der andere nicht. Wem gibst Du den Auftrag? Du willst dieses Fass nicht bei dem Beispiel Badezimmerfliesen auf machen. Aber du erkennst hier die Spannung. Ab ins Gericht und die ganze Sache klären lassen... wenn man bereits ein berühmter Architekt ist, dann ist das kein Ding. Wenn du als Entwickler in der Kategorie der von dir genannten Beispiele bist, also wenn aktiv gewollt wird, dass Dein Name mit dem Ergebnis in Verbindung gebracht wird, dann ist dies ein Fall, bei dem es nicht darum geht, ob der Name genannt werden soll. Ich bin mir nicht sicher... hast Du Du den von Dir verlinkten Artikel gelesen? Er scheint sehr wenig mit der Frage zu tun zu haben...
  9. Jo. Und jetzt wird es interessant. Bei Auftragsarbeiten, wo kommt die Schöpfungshöhe her? Aus der Idee? Künstlerischem Code? Code ist im bestenfalle eine Nutzung bekannter Methoden (Best practices / Design patterns). Du nutzt also zum großen Teil Know-How von anderen in einer spezifischen Umsetzung einer Idee Deines Auftraggebers. Wenn Dir der Vergleich mit dem Maler zu krass ist: Fliesenleger macht nen total schick aussehenden Boden mit komplex angeordneten farbigen Fliesen basierend auf Deinen Anweisungen. Gehört sein Name jetzt in Dein Badezimmer? Was, wenn er darauf besteht? Es ist ja sein Werk. Und sieht wirklich, wirklich gut aus. Codieren ist Handwerk. Edit: Wenn es für den Auftraggeber ok ist: Nice. Wenn es für den Auftraggeber ok ist, und man seinen Namen auch wirklich drin haben will: Doppelt nice. Aber beides ist jetzt nicht unbedingt üblich. Schau doch mal nach, wer Deine Banking App geschrieben hat. Jo. Geh mal die Liste durch. Schreiben des Papers ist nicht auf der negativ Liste. Dir die Auswertung zu erklären ist auch nicht "rein technisch" da die Art, wie Du Daten auswertest, einen massiven Einfluss hat. Reines Lesen reicht nicht aus, gibst Du Feedback und fließt dieses ein, dann passt es wieder. Nimm doch mal die IU Studie zu Syntea. Kannst Du hier erkennen, in welcher Form die Autoren beteiligt waren? Wie würdest Du prüfen wollen, ob die Nennung gerechtfertigt ist? Aber wir kommen hier wirklich sehr weit weg vom Thema Ghostwriting.
  10. Und? Such Dir nen Pseudonym für "Deine" Veröffentlichungen, und du hast in etwa die gleiche Situation. Ändert sich dadurch etwas an der Gesamtkonstellation? Mach kommerziell draus. Citation needed. Ich bin mir auch nicht sicher, was Du damit meinst. Was Du in Folge anführst, ist wieder eher eine Marke. Was uns zum Thema "Name als Marke" bringt. Aber generell zeigt, dass du von etwas/ jemanden das erwartest, was du damit verbindest. Wenn der Artikel / Buch "passt", dann passt es. Nein, das kannst Du so nicht pauschal sagen. In den allermeisten Fällen hast Du bei Auftragsarbeit keinen solchen Anspruch. Ich hab genug Projekte, bei denen ich auch sehr lange nicht mal sagen durfte, dass ich überhaupt am Projekt beteiligt war... Stark überzogenes Beispiel: Der Maler, der Deine Wand streicht, signiert diese ja auch nicht. Oder installiert eine Plakette. Warum? Hat er. Allein durch den Auftrag. Da gibt er ja maßgeblichen Input... und ansonsten ist die Nennung bei Papers auch gerne mal politisch bedingt. Die aktuellen Probleme mit Veröffentlichungen (und in diese Richtung geht es bei dem Punkt) wären aber ein ganz eigenes Thema. In der Regel ist es eher so, dass du jede Mitarbeit kenntlich machen musst. Wenn Du in nem Forum fragst, was du für ne statistische Auswertung machen sollst, dann ist DataDude42 als Antwortgeber aber sowas von an Deiner Arbeit beteiligt. Siehe hier auch die Problematik bei der Eidesstattlichen. Bei nem Paper werden die Personen, die bei der Auswertung helfen dann auch direkt Co-Autoren. Und ob du nun den Dude im Büro nebenan fragst, oder jemanden im Netz sollte da Banane sein. Der Teil passt auch gut zur "Verschriftlichung" von Ergebnissen, die ja im Video auch angesprochen wird... Aller Personen, die zum Werk beigetragen haben sind potentiell in der ByLine. Damit tragen diese Personen zur Forschungsleistung bei. Du machst hier auch ein interessantes Dilemma auf: Angenommen Person A forscht und produziert die Ergebnisse, Person B schreibt das Paper. Wer sollte nun Deiner Meinung nach als Autor genannt werden? B hat nicht geforscht, A hat nicht das paper geschrieben... Es geht hier wohl eher darum, dass bei einem Pseudonym nicht klar ist, wer der Autor ist, und es somit eine Gruppe von Autoren sein kann / der eigentliche Autor nicht klar ist und dieser somit auch geändert werden kann.
  11. Ich bin gespannt. ab wann "mündliche Prüfungen" (oder deren textuelles Analog) durch eine KI angeboten werden. Natürlich unter proctorieller Aufsicht :)
  12. Klar, ist ja nur ne Dienstleistung. Wechseln wir mal kurz die Branche, und lassen uns anstatt "Text" Computercode schreiben. Und auf einmal hat niemand mehr ein moralisches Problem damit. Ich beauftrage einen Dienstleister für mich Programm / Routine / X zu entwickeln. Und vertreibe das unter meinem Namen / Firmennamen. Im Bereich "Schreiben" ist es bei Copy Writing jetzt auch schon oft so, dass der ursprüngliche Autor nicht genannt wird. Problematisch wird es halt im akademischen Kontext, aber auch hier könntest das durch einfache Maßnahmen auf eine Ebene heben, die "üblich" ist - z.B. den Ghostwrite zum Autor erheben, ggf. unter Nutzung eines Pseudonyms. Dann bleibt nur noch der eine Fall mit der Prüfungsleistung - und da wird ja von allen Seiten gesagt "mach das nicht"
  13. Sie greifen eine Aussage an, die von der von ihnen zitierten Person nicht gemacht wurde. Das ist ein Strohmann Argument. Was ist denn in diesem Fall ein "gefälschtes" Dokument? Welchen Straftatbestand sehen sie durch die "Produktion eines Dokumentes" erfüllt? Wenn jemand so argumentieren würde, wäre das wirklich nicht sehr clever. Allerdings argumentiert so auch niemand.
  14. Sie machen aus einer Aufzählung (der von ihnen zitierte Teil) eine Kausalbeziehung. Das könnte ein Kommunikationsproblem gewesen sein. Der von ihnen darauf geäußerte induktive Schluss ist jedoch ein klares Strohmann Argument.
  15. Eine Aufzählung bedingt keine Kausalbeziehung. Aus Laterne folgt weder eine weitere Laterne, noch aus dieser Sonne, Mond und Sterne. Das dürfte wieder das Problem mit der eidesstattlichen Erklärung produzieren. Iterative Einreichungen sind, aus den im Interview erläuterten Gründen, wenig zielführend. Bzgl. der Prüfungsformen: Welche Optionen sehen sie hier neben einer mündlichen Prüfung? Hier sehe ich Probleme, da die mündliche Leistung von komplett anderen Faktoren abhängt als schriftliche Leistungen. Unterschiede hier auf Betrug zu attribuieren ist ein non sequitur. Es würde auch viele weitere Probleme nach sich ziehen, wie Benachteiligung von Personen mit Beeinträchtigungen, Ungleichbehandlung gleicher Leistungen, etc.
  16. Ok, da es Dir scheinbar schwer fällt, Deinen Gedankengank zu verbalisieren, hier ein paar möglicherweise hilfreiche Punkte ich habe bei einigen in diesem Fred, inklusive Dir, nicht den Eindruck, dass das Interview tatsächlich betrachtet wurde. Was bei der Diskussion eines Videos suboptimal ist. Siehst Du Anhaltspunkte, dass der Interviewpartner sich in jedweder Form fremde Quellen aneignet, und somit einen Diebstahl geistigen Eigentums begeht? Denn das wäre ein nachvollziehbarer Punkt. Dafür finde ich keine Anhaltspunkte. Ich sehe Anhaltspunkte für eine Schuldverschiebung von der Person, die den eigentlichen Betrug begeht weg, hin zur Person, die eine Dienstleistung anbietet. Wenn man diesen Gedankenganng weiterverfolgt und ins Extrem bringt, so wäre bei einem Vollplagiat nicht die abgebende Person, sondern der ursprüngliche Ersteller zu belangen. Was absurd erscheint. Objektiv ist es aber in beiden Fällen der gleiche Tatbestand. Daher würde mich Dein Gedankengang interessieren, der für Dich ja schlüssig erscheint. Evtl. übersehe ich hier ja etwas. Ich finde es auch ungeschickt, dass die vielen validen Punkte, die im Rahmen des Interviews aufgeworfen werden, hier nicht thematisiert werden. Ein Beispiel hierfür ist die problematische Formulierung der eidesstattlichen Erklärung. Durch die sich die meisten Studierenden, wenn sie den gängigen Ratschlägen folgen, auf der gleichen Ebene befinden, wie Personen, die einen Ghostwriter anheuern. Sowohl bei der Nutzung eines Lektorats, als auch nur beim Gegenlesen lassen mit anschließenden Anpassungen stellt dies einen Verstoß gegen die abgegebene Erklärung dar. Ähnlich verhält es sich bei Toolnutzung - hier ist auch unklar, welche Tools wirklich genannt werden müssen. I.d.R. werden hier ja nur die direkt involvierten Tools (wis. Suchmaschinen, Tools zur statistischen Erhebung und Auswertung, etc.) genannt. Was laut den aktuellen Formulierungen nicht ausreicht, und auch hier viele Studierende bei strenger Auslegung einen Verstoß begehen dürften. Dies sind für einen großen Teil der Studierenden relevante Punkte, die eine tiefere Diskussion erlauben würden. Auch wird der Punkt, wie der Entwicklung (Nutzung von KI Tools und Ghoswritern) begegnet werden soll, kaum Raum eingeräumt. Wobei ich einer Diskussion dieser Themen einen relativ hohen Wert beimessen würde.
  17. Ich nicht. Was ich da auch gerade hingeschrieben habe.Weswegen ich verwundert bin, dass du meinst, jeder würde das begreifen. Als Antwort auf einen Post, der klar aussagt, dass es nicht nachvollziehbar ist. Warum ist das für Dich schlüssig?
  18. Warum findest Du das nachvollziehbar? Für mich ist das ein non sequitur.
  19. Es gibt ein paar Dinge, die mich persönlich stören. Zum einen ist da ein IU Teil vorangestellt, ich tippe mal, um die Anfragen an OpenAI zu minimieren. In diesem Teil sind auch die Tutoren involviert, die einzelnen Fragen manuell und mit fixen Antworten begegnen. Wenn jetzt unerwartete Antworten kommen, versuchen die Studierenden, durch Umformulierung der Frage bessere Antworten zu bekommen. Was allerdings nur zu einer hohen Anzahl an ähnlichen Fragen bei den Tutoren führt. Worüber sich diese bereits in den Course Feeds beklagt haben. Ein weiteres Problem ist, dass dieser Sokrates'sche Dialog immer nur einen kleinen Teil des Skripts betrifft und dann automatisch beendigt wird. Um dann weiterzulernen, ist ein recht hoher Aufwand notwendig, man wird also nach der ersten Runde rausgeworfen. Vom Timing her ist es für mich recht ungeschickt, da der erste Durchgang meist dann beendet wird, wenn ich gerade "rein gekommen" bin. Da man sich mit nur sehr wenigen Zeilen Anweisung deutlich nützlichere Modelle bauen kann, wird das inzwischen auch gemacht.
  20. Jo, das wäre ein Punkt, auf den man einen Blick werfen könnte. Einschätzung von Syntea im Vergleich zur tatsächlichen Klausurnote. In der Studie steht, dass die Durchfallquote in der Syntea Gruppe gestiegen ist und die Studierenden in der Synteagruppe im Schnitt schlechter geworden sind. Ich bin mir zwar nicht sicher, ob die Zahlen belastbar sind, da die Studie doch das eine oder andere Problem hat. So rein vom Prinzip her würde "schneller, aber schlechter" sowohl die Aussage des Artikels als auch die Erfahrungen der Studierenden beschreiben. Mir werden in ein paar Kursen gerade die Fragen zur Prüfungszulassung von Syntea gestellt, die im Vergleich zur Klausur ja doch ein paar Größenordnungen leichter sind. In der Psy Gruppe basteln sich auch einige mit ChatGPT eigene Bots um über das Skript labern zu können. Was wohl deutlich besser funktioniert, da die Parameter der IU doch sehr nervig sind, wenn man wirklich mit dem Teil lernen will.
  21. Im Interview hat Elias von Material zum wissenschaftlichem Schreiben geredet, mit dem er seine Autoren auf ein gutes Level bringt. Laut Email ist das der Inhalt eines Kurses (bestehend aus nicht gelisteten YouTube Videos), den er auf deiner Webseite anbietet. Hab mir diesen Kurs besorgt, und werde mir die Videos in den nächsten Tagen mal ansehen.
  22. Und dazu muss das Paper ja scheinbar nicht mal gut sein. Oder auch nur in einem Journal veröffentlicht worden sein. Der Veröffentlichungsdruck wird auch als einer der treibenden Kräfte hinter den aktuellen Betrugsvorwürfen gegen die damalige Department Leiterin von Harvard vermutet. Laut Angaben aus dem Podcast "verschriftlicht" die Agentur gerne mal Ergebnisse aus Untersuchungen, wobei es wohl auch die Fälle gibt, dass die komplette Arbeit erstellt wird.
  23. Auf diesen Punkt wurde ja im Podcast eingegangen. Wie fandest Du die angeführten Argumente?
  24. Der Duktus von Mails und wis. Arbeiten ist doch sehr unterschiedlich, nicht von allen Studierenden wird eine ausreichende Menge an Text vorliegen, um einen Vergleich durchführen zu können. Aber selbst wenn - was ist die Folge? Wie wird die Verdachtshypothese getestet? Die Frage ist ja, ob hier alle Tools genannt werden müssen (OS, Textprozessor, ggf. genutzte Rechtschreibhilfen, etc) und ob beispielsweise "Gegenlesen mit Feedback" ausreichend ist, um diesen Passus zu reissen. Wirf mal einen Blick auf explainpaper.com, das könnte Dir ggf. etwas Zeit sparen.
  25. Ich fand die genannten Punkte, auch insbesondere der Probleme des Systems an sich, die solche Leistungen erst ermöglichen, wirklich interessant. Bei den Lösungsansätzen bin ich mir nicht ganz sicher. Da die vorgeschlagene Alternative ja einen anderen Zweck hat, als eine schriftliche Arbeit. Dies passt dann zur Aussage, dass der Anteil an Studierenden (zu) hoch ist, der tatsächliche akademische Anspruch der zukünftigen Stellen jedoch eher niedrig ist. Ein weiterer interessanter Punkt, über den ich mir in der Tat auch schon Gedanken gemacht habe, ist das Verständnis der eidesstattlichen Erklärung. Verstößt man gegen diese, wenn man eine weitere Person gegenlesen lässt? An der Apollon versichert man, die Arbeit "ohne fremde Hilfe und ohne Benutzung anderer als der angegebenen Quellen und Hilfsmittel angefertigt" zu haben. Gegenlesen / Feedback ist definitiv "fremde Hilfe". Die wenigsten geben alle genutzten Tools in der Arbeit an (Word, Rechtschreibhilfen wie Duden Mentor, Languagetools, Phrasenlisten, Literaturverwaltung, etc.). Hier ist also ein "weiches" Verständnis vorhanden, gefühlt ist also manches OK, das streng genommen gegen die Erklärung verstoßen würde. Alleine die Absprache mit der Betreuungsperson ist hier ein nicht zu unterschätzender Punkt. Der je nach Person auch wirklich sehr unterschiedlich gehandhabt wird.
×
  • Neu erstellen...