Zum Inhalt springen

Tassilo Weller

  • Beiträge
    21
  • Kommentare
    114
  • Aufrufe
    5.551

Integrierte Fragen in ein Kapitel eines Lernheftes


tassilok

713 Aufrufe

Ich integriere mit Hilfe meines Systems Fragen in die Texte der Lernhefte. Mein System extrahiert dazu die Texte aus den PDF-Dateien der Lernhefte. Danach kann ich Stellen im Text mit Fragen Taggen, die ich mit Hilfe des Systems beantworten kann. Für die Kontrolle meiner eigenen Antworten, dient mir die jeweils markierte Textstelle. Auf diese Art und Weise kann ich sehr viele Fragen in die Texte integrieren. Im Moment bin ich im 30. von 36 Lernheften und habe über 2100 Fragen in die Lernhefte integriert und diese Fragen über 6000 mal beantwortet. Auf diese Art und Weise erreiche ich weitaus bessere Lernergebnisse als früher.

 

Das folgende Bild zeigt markierte Fragen im Text eines der Kapitel. Ich habe in das dargestellte Kapitel 40 Fragen zum Text integriert. 

 

1502960280_MarkierteFragen.thumb.jpg.e8716ede9441ebbf0f2669449083556f.jpg

28 Kommentare


Empfohlene Kommentare



Ich arbeite auch mit Fragen zum Text. Allerdings noch etwas altmodisch mit Karteikarten und Bleistift 🙈. Das Ganze ist dann doch etwas zeitraubend. Allerdings lerne ich ja auch schon beim Schreiben.

Je nach Umfang des Skripts komme ich auf 100 bis 200 Karteikarten.

Welche Software, App, etc. verwendest Du denn um die Skripte aufzuarbeiten und die Fragen zu integrieren?

Link zu diesem Kommentar

Ich hatte die handschriftliche Variante auch schon während meines Fernstudiums zum Dipl. Inf. versucht und es recht schnell wieder verworfen. Zum einen war das wegen dem Zeitaufwand. Der zweite Grund lag darin begründet, dass das Formulieren einer Antwort auf der Rückseite der Karteikarte, zu Beginn des Lernens besonders schwierig ist. Der dritte Grund war, dass das Verfassen einer Karteikarte den Lesefluss sehr stark unterbricht. Das führt bei mir zu einer sich drastisch ansteigenden Hemmung, weiterzulesen.

 

Das mit dem Lernen durch das Schreiben, ist ebenfalls ein wichtiger Punkt für mich. Durch das Schreiben der Frage, kommt es bei mir zur Reflektion und dadurch, dass ich die "offizielle Antwort" nicht schreiben muss, sondern nur im Text markieren, wird der Lesefluss kaum unterbrochen. So entsteht eine intuitive und schöpferische Arbeitsweise. Durch den Vergleich der eigenen Antwort mit den Inhalten, wird das Schöpferische mit dem Analytischen verbunden. Das wiederholte Schreiben der eigenen Antwort, führt dann zum schöpferisch-analytischen Übungseffekt.

 

Neben Textinhalten, kann ich mit dem System auch Audioinhalte und Videoinhalte auf die selbe Art und Weise mit Fragen versehen, diese schriftlich beantworten und anhand des Inhalts meine eigene Antworten kontrollieren. Früher waren Video- und Audioinhalte für mich völlig uninteressant fürs Lernen, da ich bei allem, das ich lernen will, schöpferisch tätig werden muss. Das ist bei Audio- und Videoinhalten noch viel schwieriger als bei Textinhalten. Jetzt kann ich auch Video- und Audioinhalte lernen.

 

Das Prinzip der schöpferisch-analytischen Arbeit, ist ein wichtiger Kernaspekt des Systems, dass ich benutze. Es ist ein allgemeines Hilfsmittel zur Organisation von geistiger Arbeit und von mir selbst entwickelt. Ich nutze es nicht nur fürs Lernen, sondern als allgemeines Hilfsmittel im Arbeitsumfeld, wie eine Art Krücke im Umgang mit der Informationsflut. Es basiert auf Technologien im Bereich der künstlichen Intelligenz.

 

Leider finde ich niemanden, der das System mit mir weiter entwickelt (suche schon seit 2010). Deshalb gibt es keine öffentlich zugängliche Version des Systems. Nur der Programmiercode ist öffentlich zugänglich. Ich habe schon hunderte von Mails geschrieben, etliche Vorträge gehalten und in unzähligen Foren oder Gruppen gepostet, leider alles ohne Erfolg.

Bearbeitet von tassilok
Link zu diesem Kommentar
vor 39 Minuten schrieb LinaA:

Dann hast Du das also selbst entworfen und geschrieben. Meinen Respekt hat Du 🙂👍

Vielen Dank 🙂 Vielleicht finde ich irgendwann Entwickler, die mitmachen wollen, dann gibt's auch eine Community-Variante, die kostenlos sein wird.

Link zu diesem Kommentar

Ich überlege mit gerade, ob ich den PDF Text nicht mit GPT-2 oder GPT-3 (wenn ich da mal Zugang bekomme) automatisch in Fragen umbauen kann. Wobei entsprechende deutsche Modelle noch nicht ganz so toll sind.

 

Bisher mache ich es beim ersten Durchgehen so, dass ich mir in Notion pro Skript eine Seite anlege und hier meine Fragen pro Lektion erstelle, die später exportiere und in Anki als Lernkarten nutze.

 

Die Skripte selbst forme ich in mehreren Schritten um, damit ich damit besser Arbeiten kann. Also den rechten Rand vergrößern, Referenzen zu eine Google Scholar suche der Quelle umforme, etc.
Wobei ich mir überlegt habe, ob ich hier nicht noch nen Zwischenschritt einbaue, der nen Plugin für Chrome aufruft, welches dann erst in der Literaturverwaltung sucht und nur bei einem Miss die Scholar Suche anstößt.

Aber das ist eher so ein Projekt für "wenn mal Zeit ist" oder ich mich wieder in Plugin Entwicklung einarbeiten möchte.

 

Von meinen Gesprächen würde ich davon ausgehen, dass Du, wenn Du Dein Tool weiterentwickeln möchtest, mal mit den Hochschulen direkt reden solltest. Da gibt es durchaus Interesse an Verbesserungen der Lernumgebungen. 

Link zu diesem Kommentar
vor 3 Minuten schrieb DerLenny:

Ich überlege mit gerade, ob ich den PDF Text nicht mit GPT-2 oder GPT-3 (wenn ich da mal Zugang bekomme) automatisch in Fragen umbauen kann. Wobei entsprechende deutsche Modelle noch nicht ganz so toll sind.

 

Klingt sehr interessant. Ich habe in letzter Zeit einige Vorträge gesehen, in denen es auch um Textanalyse ging. Da gibt's eine wissenschaftlergruppe in Darmstadt (https://www.ontologenkreis.org/) Die einhellige Meinung war, dass eine solch semantische Textanalyse noch absolute Zukunftsmusik ist. 

 

Das mit dem automatisch wär für mich nichts, da das Schreiben der Frage ein schöpferische Akt ist und dies zu einer Fokussierung auf die Inhalte führt. Deshalb versuche ich ein System zu entwickeln, dass schöpferisches Arbeiten besser mit analytischem Arbeiten verbindet. Das System kann dem Bereich des Semantic Web zugeordnet werden. 

Link zu diesem Kommentar
vor 10 Minuten schrieb DerLenny:

Die Skripte selbst forme ich in mehreren Schritten um, damit ich damit besser Arbeiten kann. Also den rechten Rand vergrößern, Referenzen zu eine Google Scholar suche der Quelle umforme, etc.
Wobei ich mir überlegt habe, ob ich hier nicht noch nen Zwischenschritt einbaue, der nen Plugin für Chrome aufruft, welches dann erst in der Literaturverwaltung sucht und nur bei einem Miss die Scholar Suche anstößt.

 

Auch das klingt sehr interessant. Bei mir liegt der Fokus hauptsächlich auf der interaktiven Arbeit und der thematischen Offenheit. Deshalb kann ich die Fragen in einem HTML-Editor mit Hilfe einer erweiterten Suchmaschine in den Text integrieren. In der Suchmaschine können nicht gefundene Objekte direkt angelegt werden und in den Text oder in ein Video integriert werden. So kann ich nicht nur Fragen integrieren, sondern beliebige Objekte. Damit wird es möglich, beispielsweise auch Ressourcen aus dem Arbeitsumfeld mit Texten oder auch Videos vernetzen, beispielsweise Servernamen oder Tabellen in Datenbanken.

 

Für solche Automatismen integriere ich Module in mein System. Die Konfigurationen für die Module werden ebenfalls im System gespeichert.  

Link zu diesem Kommentar
vor 18 Minuten schrieb DerLenny:

Von meinen Gesprächen würde ich davon ausgehen, dass Du, wenn Du Dein Tool weiterentwickeln möchtest, mal mit den Hochschulen direkt reden solltest. Da gibt es durchaus Interesse an Verbesserungen der Lernumgebungen. 

 

Habe schon viele Kontakte zu Professoren oder Studenten gehabt. Erst vor einer Woche hatte ich einen Vortrag vor Wissenschaftlern (Home | Darmstädter Ontologenkreis) Leider ist der Vortrag ziemlich in die Hose gegangen. Mir wurde vorgeworfen, dass ich völlig falsch liege. Ich bin wohl nicht der richtige, um mein System oder besser meine Idee zu vermarkten.

Link zu diesem Kommentar

Das ist nice!

Für die Videos hatte ich mir mal was ähnliches überlegt. H5P würde sich da ja als Container anbieten.

Bei meinen Studiengängen sind die Videos aber so, dass ich mir das dann eher gespart habe.

 

Prinzipiell würde H5P es erlauben, das in einem universellen Format zu teilen. 

Du könntest Deinen Code erweitern, und anhand von Markern im PDF aus dem Skript ein Moodle (oder generell ein H5P) Modul bauen, und so die Vorteile in anderen Umgebungen nutzbar machen.

 

 

EDIT: Durch deinen neuen Kommentar wirkt mein Beitrag jetzt arschig - das war komplett auf das Video Thema bezogen

Bearbeitet von DerLenny
Link zu diesem Kommentar
vor 1 Minute schrieb tassilok:

Leider ist der Vortrag ziemlich in die Hose gegangen. Mir wurde vorgeworfen, dass ich völlig falsch liege. Ich bin wohl nicht der richtige, um mein System oder besser meine Idee zu vermarkten.

 

 

Die Idee ist absolut valide. Ich kann jetzt nicht sagen, wie du es präsentiert hast, aber ich kann dir genug Studien geben, die ein solches Vorgehen sinnvoll erscheinen lassen.

 

Das war ja der Grund, warum ich meine Tools gebaut habe, um näher am wis. Konsens beim Lernen zu liegen.

Link zu diesem Kommentar
vor 4 Minuten schrieb DerLenny:

Prinzipiell würde H5P es erlauben, das in einem universellen Format zu teilen. 

Du könntest Deinen Code erweitern, und anhand von Markern im PDF aus dem Skript ein Moodle (oder generell ein H5P) Modul bauen, und so die Vorteile in anderen Umgebungen nutzbar machen.

 

Klingt auch sehr interessant. Im Moment arbeite ich einfach mit HTML5 und One-Page Anwendungen, die über Websocket miteinander kommunizieren. Ein sehr simpler maschineller Lernprozess ermittelt, welcher Anwendungsteil in einer Interaktion am sinnvollsten genutzt werden kann. So kann ich immer neue Views hinzufügen und diese über diesen Lernprozess dann intuitiv nutzen. Die Anwendung baut sich sozusagen während der Arbeit anhand der Interaktion um, das ist aber auf einem sehr niedrigen Niveau. Das Ziel ist die Aufhebung klassischer Anwendungsgrenzen. Ich hab den Vortrag bei YouTube hochgeladen (Prinzipien eines Semantic Desktop)

Link zu diesem Kommentar
vor 20 Minuten schrieb DerLenny:

 

 

Die Idee ist absolut valide. Ich kann jetzt nicht sagen, wie du es präsentiert hast, aber ich kann dir genug Studien geben, die ein solches Vorgehen sinnvoll erscheinen lassen.

 

Das war ja der Grund, warum ich meine Tools gebaut habe, um näher am wis. Konsens beim Lernen zu liegen.

 

Ich denke das Problem war, dass ich davon ausgehe, dass mein System dem Bereich des Semantic Web zugeordnet werden kann, aber eine komplett eigenständige Lösung entwickelt habe, was daran liegt, dass ich erst nach Jahren der Entwicklung meines Systems mitbekommen habe, dass es Semantic Web überhaupt gibt.

 

Im Vortrag wollte ich die Gemeinsamkeiten und Unterschiede mit Hilfe von Demos verdeutlichen. Da kam die berechtigte Kritik, dass meine Implementierung nicht mit den offiziellen Standards arbeitet und damit die universelle Weitergabe von Daten erschwert und somit gar nicht dem Bereich des Semantic Web zugeordnet werden kann. Daraufhin hat die Hälfte der Zuschauer den virtuellen Raum verlassen und der verbliebene Rest, blieb dann relativ still, bis wir die Veranstaltung beendet haben.

 

Das bedeutet aber, dass ich erst wiederkommen soll, wenn ich meine Idee auf die offiziellen Technologien umgestellt habe. Ich habe sogar eine Basis gefunden, mit der ich das schaffen könnte, aber die kostet im Jahr 3000,- €. Sie basiert auf SHACL, einer Semantic Web Sprache, die unscharfe Modelle ermöglicht, was für mich ein zentraler Aspekt ist, um persönliche Konzepte mit offiziellen Modellen so zu verbinden, dass neue kombinierte und vielschichtige Modelle entstehen. Diese Umstellung würde aber wahrscheinlich auch mehrere Monate Zeit kosten. Das ist mir zu unsicher und zu teuer und so muss ich damit leben, immer wieder als "Schwurbler" abgestempelt zu werden.

Link zu diesem Kommentar

Ok, nach semantic web klingt das für mich jetzt auch nicht wirklich... aber du könntest natürlich eine entsprechende Version exportieren.

Die textuellen Inhalte solltest eigentlich ganz gut abbilden können, für die Video Inhalte könntest evtl nen neues Schema vorschlagen (wenn nicht die Referenzen hier schon reichen, das hab ich nur mal überflogen)

Link zu diesem Kommentar
vor 4 Minuten schrieb DerLenny:

Die textuellen Inhalte solltest eigentlich ganz gut abbilden können, für die Video Inhalte könntest evtl nen neues Schema vorschlagen (wenn nicht die Referenzen hier schon reichen, das hab ich nur mal überflogen)

Letztendlich sind das nur zwei Funktionen von über 100.

 

Es wäre kein Problem, die Informationen beispielsweise in der RDF-Notation zu exportieren. Ich hab in meinem System einen RDF Export Filter und andere Filter, mit denen ich Inhalte exportieren kann.

 

Für mich ist die Unterstützung, die das System mir persönlich bietet, wesentlich wichtiger als die Portabilität, denn die hilft mir nicht dabei, meinen Arbeitsalltag zu bewältigen, aber mein System hilft mir.

 

Link zu diesem Kommentar
vor 11 Minuten schrieb tassilok:

Für mich ist die Unterstützung, die das System mir persönlich bietet, wesentlich wichtiger als die Portabilität, denn die hilft mir nicht dabei, meinen Arbeitsalltag zu bewältigen, aber mein System hilft mir.

 

Jo, aber dann ist es halt echt sehr weit von Semantic Web entfernt.

Daher eher mal bei den Bereichen nachfragen, die das evtl. einsetzen wollen würden.

Link zu diesem Kommentar
Gerade eben schrieb DerLenny:

Jo, aber dann ist es halt echt sehr weit von Semantic Web entfernt.

Daher eher mal bei den Bereichen nachfragen, die das evtl. einsetzen wollen würden.

 

Tja, das System ist ein allgemeines Hilfsmittel zur Unterstützung geistiger Arbeit. Die Arbeit mit Texten und Videos sind nur zwei Teilbereiche, die ich nicht mal als die Wichtigsten bezeichnen würde. Das Wichtigste ist die grenzenlose assoziative Vernetzung von formalen Modellen miteinander und das ist typisches Semantic Web bzw. Semantic Desktop.

Link zu diesem Kommentar

Nicht wirklich.

Was du hast ist ein Tool zur Inhaltsvermittlung / -generierung auf Basis eines konnektivistischen Lernmodells.

 

Das kannst du im/mit Semantic Web implementieren, aktuell scheint es aber weit von weg zu sein.

Link zu diesem Kommentar

Das versteh ich eben nicht. Ich benutze Semantic Triple und ich benutze Ontologien, also ist es doch recht nah an Semantic Web.

Link zu diesem Kommentar
vor 13 Minuten schrieb DerLenny:

Nicht wirklich.

Was du hast ist ein Tool zur Inhaltsvermittlung / -generierung auf Basis eines konnektivistischen Lernmodells.

 

Das kannst du im/mit Semantic Web implementieren, aktuell scheint es aber weit von weg zu sein.

 

Das ist für mich nicht nachvollziehbar, je mehr ich über das Thema Semantic Web lese, desto weniger nachvollziehbar wird es, weil ich immer mehr Gemeinsamkeiten finde. Ich habe mehrere Bücher gelesen und wissenschaftliche Papers und je mehr ich lese, desto überzeugter werde ich.

 

Die Technologie kann es ja nicht sein, weil beispielsweise SHACL etwas völlig anderes wie RDF ist und trotzdem für Semantic Web Lösungen verwendet wird. Ich fokussiere mich nur auf andere theoretische Bereiche des Semantic Web Prinzips, denke ich.

Link zu diesem Kommentar
vor 56 Minuten schrieb tassilok:

Die Technologie kann es ja nicht sein, weil beispielsweise SHACL etwas völlig anderes wie RDF ist

SHACL ist eine Sprache des W3C um RDF auf Bedingungen zu prüfen.

 

Zitat

This document defines the SHACL Shapes Constraint Language, a language for validating RDF graphs against a set of conditions. These conditions are provided as shapes and other constructs expressed in the form of an RDF graph. RDF graphs that are used in this manner are called "shapes graphs" in SHACL and the RDF graphs that are validated against a shapes graph are called "data graphs". As SHACL shape graphs are used to validate that data graphs satisfy a set of conditions they can also be viewed as a description of the data graphs that do satisfy these conditions. Such descriptions may be used for a variety of purposes beside validation, including user interface building, code generation and data integration.

Quelle: https://www.w3.org/TR/shacl/

Bearbeitet von DerLenny
Link zu diesem Kommentar
Gerade eben schrieb DerLenny:

SHACL ist eine Sprache des W3C um RDF auf Bedingungen zu prüfen.

Richtig, doch kann die Sprache auch benutzt werden, um Datenmodelle zu erzeugen, was beispielsweise in der Lösung TopBraid von TopQuadrant gemacht wird. Damit wird es möglich, unscharfe Modelle zu erzeugen, weil beispielsweise definiert werden kann, dass ein Objekt Aspekte ausprägen kann, die über die Definition in der Ontologie hinaus gehen. Diese validierte Überschreitung wird mit SHACL erst möglich. Das ist weder mit RDF, OWL, noch mit RDF Schema möglich. Ich nenne diese Form von Axiom, "Integratives Axiom", weil es die Überschreitung möglich macht trotz Bindung an ein formales Modell. Das ist notwendig, um persönliche Konzepte mit öffentlichen Ontologien zu kombinieren. Diese Kombination stellt in mehreren wissenschaftlichen Papers eine wichtige Voraussetzung für einen Semantic Desktop dar und ist eines der zentralen Prinzipien, mit denen mein System arbeitet.

Link zu diesem Kommentar

Du könntest ja mal ein Paper dazu schreiben, was dein konzeptioneller Ansatz ist, um das evtl. nochmal klar zu verstehen. Würde mich schon interessieren. Vielleicht hast das sogar schon gemacht?

Link zu diesem Kommentar
vor 11 Stunden schrieb narub:

Du könntest ja mal ein Paper dazu schreiben, was dein konzeptioneller Ansatz ist, um das evtl. nochmal klar zu verstehen. Würde mich schon interessieren. Vielleicht hast das sogar schon gemacht?

 

Das ist eines meiner Ziele und dafür sammle ich gerade kräftig. Der Philosophie-Kurs, den ich momentan bei Laudius absolviere, ist ein Baustein. Vorträge, die ich vor Wissenschaftlern und Praktikern halte, sind auch ein Baustein. Hinzu kommt Literatur, die ich gelesen habe und lesen werde und meine eigenen Blogbeiträge, die ich seit 2014 immer wieder in Bezug auf Beispiele der Arbeit mit meinem System veröffentlicht habe. Zur Vernetzung aller Informationen, nutze ich auch mein System.

 

Ich habe für die Vorbereitung eines Vortrages beispielsweise in zwei wissenschaftliche Papers zum Thema "Semantic Desktop", "Application Features" referenziert, die nach den Autoren ein Semantic Desktop realisieren sollte. Diese habe ich mit den Features verknüpft, die ich meinem Semantic Desktop zuspreche. Die Features habe ich anschließend mit den Hauptbegriffen meiner Konzepte vernetzt und so konnte ich die Unterschiede zwischen meinen Prinzipien und den "offiziellen" ermitteln.

 

Ich kann in meinem System Berichte erzeugen, beispielsweise einen der mir anzeigt, welche Referenzen meine Hauptbegriffe zu Stellen in möglichen Quellen aufweisen. Im Moment habe ich ca. 354 Referenzen zu meinen Hauptbegriffen, beispielsweise in Büchern. Die sind natürlich auch maschinell nutzbar.

 

Das folgende Bild zeigt die Verknüpfung zwischen einem zentralen Begriff meines Konzeptes und einem Kapitel in einem Buch über Semantic Web.

 

23-12-_2021_06-01-35.thumb.jpg.11582798b13f7e249fc6342fd0981266.jpg

Link zu diesem Kommentar

Interessanter Lernansatz. Ich werde das mal mit dem Fragen-Formulieren im PDF Reader ausprobieren. Das hat zwar keinen so schönen Workflow, aber ist mal andere Herangehensweise als meine bisherigen Zusammenfassungen.

Link zu diesem Kommentar

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden


×
  • Neu erstellen...