Zum Inhalt springen

Das Hagener Manifest zu New Learning - Diskussion und Unterzeichnung


Markus Jung

Empfohlene Beiträge

vor 2 Stunden hat Splash geschrieben:

Ersetze Studierende durch Menschen

 

Ich mag es gerne konkret und hier geht es ja um Studierende oder allgemeiner gefasst Lernende. Natürlich trifft dies auf allgemein auf viele Menschen zu. Allerdings würde ich mir gerade bei Studierenden wünschen, dass diese überlegte Entscheidungen treffen, nachdem sie sich intensiv informiert haben. Das kann ja dann durchaus die Entscheidung dafür sein, ein Datenschutzrisiko einzugehen. Dann aber bewusst und später kein "Wenn ich das gewusst hätte...", wenn es zum Beispiel mal zu einem Datenleak kommen sollte.

 

An anderer Stelle habe ich es schon erwähnt, für mich ist der Einsatz von Atomkraft ein eindrückliches Beispiel, welche Folgen es hat, wenn neue Technologien eingesetzt werden, ohne die Folgen zu bedenken oder davon auszugehen, dass sich schon Lösungen finden werden. - Oder vielleicht sogar manchmal die Überlegung, dass dann ja längst andere verantwortlich seien werden und etwas kurzfristige Vorteile verspricht.

 

Was den Mittelweg angeht, da bin ich bei dir.  Ich bin kein Technologie-Gegner und auch nicht übervorsichtig, was den Datenschutz angeht. Aber ich wäge ab, gerade wenn es um wirklich sensible Daten oder Technologien geht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Anzeige: (wird für registrierte Benutzer ausgeblendet)

@Ronald Deckert Keine Frage - Handeln sollte überlegt sein. Doch sollte m.E. abgewägt werden zwischen Chancen und Risiken. Wenn man immer erst versucht, alle potentiellen Externalitäten zu eruieren, wird man nicht von der Stelle kommen. Nicht umsonst ist Europa nicht mehr Vorreiter, wenn es um innovative Technologien geht und sowohl die USA als auch China machen uns vor, wie es geht. Eine Balance zu finden ist sicherlich nicht einfach, doch wird man nicht jede Bedenken im Vorfeld ausräumen können, sondern muss meines Erachtens auch im Bedarfsfall 'nachjustieren' müssen. Wenn wir uns weiter in der Hauptsache von Angst und Bedenken lenken lassen, dürfte es niemanden überraschen, wenn der Wohlstand sich weiter in andere Teile dieses Planeten verschiebt.

 

Ergänzend: Wir sollten nicht blind agieren, doch nur wenn wir in (Mittel-)Europa wieder eine grössere Innovationskultur schaffen, wird man Unternehmen wie Google, Tesla, Amazon, Facebook, Alibaba und Tencent die Stirn bieten können. Zu einer Innovationskultur gehört für mich auch eine Fehlerkultur, aus der man lernen können sollte. Aber ich glaube, das driftet wieder ein wenig ab.

Bearbeitet von Splash
Link zu diesem Kommentar
Auf anderen Seiten teilen

Mein Eindruck ist, dass sowohl die Chancen also auch die Risiken von KI gesehen werden. Aber in der Diskussion scheinen mir die einen in erster Linie die Risiken zu sehen und auch zu betonen, die anderen die Chancen. Diejenigen, die in erster Linie die Chancen sehen, scheinen mir in der Mehrzahl die zu sein, die daran verdienen können. Und die Diskussionen verlaufen eher in Richtung "entweder - oder" als in "sowohl - als auch".

 

Fakt ist doch, dass Algorithmen jetzt und wohl auch noch eine ganze Zeit weit davon entfernt sind, wirklich gut zu funktionieren. Das wird aller Voraussicht nach auch noch eine ganze Zeit so bleiben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Minute hat KanzlerCoaching geschrieben:

Fakt ist doch, dass Algorithmen jetzt und wohl auch noch eine ganze Zeit weit davon entfernt sind, wirklich gut zu funktionieren. Das wird aller Voraussicht nach auch noch eine ganze Zeit so bleiben.

 

Fakt ist, dass das nicht stimmt und/oder zu verallgemeinernd ist. Es kommt auch hier darauf an, welche Algorithmen für welchen Zweck. In der Industrie gibt es genügend Beispiele, in denen konkret die Nutzung von AI schneller zu besseren Ergebnissen führt, als die Ergebnisse von Menschen.

 

vor 4 Minuten hat KanzlerCoaching geschrieben:

Diejenigen, die in erster Linie die Chancen sehen, scheinen mir in der Mehrzahl die zu sein, die daran verdienen können. Und die Diskussionen verlaufen eher in Richtung "entweder - oder" als in "sowohl - als auch".

 

Ich sehe es auch aus der Perspektive des Standorts Deutschland oder Standort Europa. Und wie bereits von mir klar ausformuliert, gilt es, eine Balance zu finden, mit der die Wettbewerbsfähigkeit und den Anschluss nicht vollends verspielt werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 35 Minuten hat Markus Jung geschrieben:

Ich mag es gerne konkret und hier geht es ja um Studierende oder allgemeiner gefasst Lernende. Natürlich trifft dies auf allgemein auf viele Menschen zu.

 

Was ich damit sagen wollte, ist dass es sich um ein gesellschaftliches Thema handelt, was wir in vielen Ländern und Kulturen vorfinden ;). Am Ende entscheidet sich der Konsument zumeist für die Lösung, die ihm einen Nutzen stiftet. Während wir in Deutschland oft scheinbar durch eine immense Angst (z.B. vor Bespitzelung) geleitet werden, trifft dies anderswo auf diesem Planeten auf Unverständnis. Ich muss zugeben, dass es mich zuweilen amüsiert, wenn Menschen sich darüber echauffieren, mit Karte zahlen zu sollen, um Bargeld zu vermeiden, zugleich aber die Payback Karte zücken, um Punkte zu sammeln. Lustiger sind eigentlich nur noch diejenigen, die auf Facebook ihre Verschwörungstheorien kund tun oder sich zuletzt auf eben dieser Platform darüber aufgeregt haben, dass ein Bonner Bäcker (aufgrund Corona) nur noch Kartenzahlung akzeptieren möchte.

 

Vorsicht ist gut, Übervorsicht dürfte schnell zum Hindernis werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Stunden hat KanzlerCoaching geschrieben:

Fakt ist doch, dass Algorithmen jetzt und wohl auch noch eine ganze Zeit weit davon entfernt sind, wirklich gut zu funktionieren. Das wird aller Voraussicht nach auch noch eine ganze Zeit so bleiben.

 

Mir scheint es eher so zu sein, dass es an Aufklärung über Chancen, Risiken und Möglichkeiten fehlt.

 

Ein Algorithmus ist zunächst nichts anderes als das Rezept, das Sie zum Plätzchen-Backen verwenden. Zutaten vorne rein, Plätzchen hinten raus -> die wohl definierten Arbeitsschritte dazwischen sind ein Algorithmus.

 

Wie irgendwo weiter vorne bereits geschrieben, gibt es eine unendlich große Bandbreite an Anwendungsmöglichkeiten. Als Risiko könnte man bspw. sehen, dass die Bewertung von Prüfungen nicht nur durch solche Algorithmen unterstützt, sondern ersetzt wird. Als Chance lässt sich vielleicht begreifen, solche Verfahren zur Betrugserkennung einzusetzen. Und zwischen diesen beiden Schubladen gibt es noch viel mehr Möglichkeiten, die sich aufgetan haben. Von der Handschrifterkennung von Studierenden über Navigationssysteme, die helfen, rechtzeitig am Prüfungszentrum anzukommen ...

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 14 Stunden hat developer geschrieben:

Ein Algorithmus ist zunächst nichts anderes als das Rezept, das Sie zum Plätzchen-Backen verwenden. Zutaten vorne rein, Plätzchen hinten raus -> die wohl definierten Arbeitsschritte dazwischen sind ein Algorithmus.

 

Mag sein, nur werden eben mit einem Algorithmus keine Plätzchen mit einer Zutatenliste von fünf Bestandteilen  und einer definierten Zuführung von Hitze zur Garung gebacken. Da schmecken wenn es schief geht, zwei Bleche mit Plätzchen nicht. Der entstehende Schaden ist also gering und betrifft eine extrem eingeschränkten Personenkreis.

 

Die von Ihnen beschriebenen Beispiele für eine chancenreiche und lebenserleichternde Anwendung von KI sind ebenfalls - gesamtgesellschaftlich betrachtet - eher risikoarm. Selbst eine fehlerhafte Bewertung einer Prüfung durch KI ist für den betroffenen Studenten unangenehm bis richtig schlimm, hebt aber kein gesellschaftliches System aus den Angeln.

 

Anders ist das mit Anwendungen von KI, die in die Wahrnehmung und damit ins Bewusstsein von Menschen eingreifen. Da mal eben ohne eine Risikobewertung der Folgen anzufangen und dann, wenn etwas aus dem Ruder läuft, ggf. nachzubessern, wird nicht gehen. Denn dann sind schon Veränderungen eingetreten, die nicht mehr umkehrbar sind.

 

Ich sehe die Möglichkeiten, die KI eröffnet schon und finde sie auch faszinierend. Aber ich sehe eben auch Gefahren. Damit bin ich auch nicht alleine. Als (ein!) Beispiel habe ich den Artikel aus der computerwoche verlinkt, die ja nun nicht im Verdacht von Technik- und Entwicklungsfeindlichkeit steht. 

 

Ich zitiere: 

"Klar ist: Die Entwickler künstlich intelligenter Systeme werden in Zukunft weit mehr können müssen als nur das Programmieren von Algorithmen. Sie müssen die langfristigen Folgen ihrer Arbeit abschätzen können - und zwar nicht nur im Sinne ihres Auftraggebers, sondern auch im gesamtgesellschaftlichen Kontext. Sie müssen nicht nur wissen, wie ihre Maschine tickt, sondern auch wie sie selbst als Menschen funktionieren und was der menschlichen Gemeinschaft dient."

 

Risiko Bias: Warum Verzerrungen KI gefährden - computerwoche.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Die Risikobewertung ist im Zweifel immer Subjektiv. Nehmen Sie als Beispiel das in China in der Entwicklung bzw. schon im Roll-out befindliche Scoring-System, anhand dessen jeder Bürger und jede Bürgerin bewertet werden wird. Vereinfacht gesagt: staatsbürgerkonformes Verhalten gibt Pluspunkte, Verstöße geben Abzug. Die Konsequenzen sind vielfältig und so etwas wie der feuchte Traum der deutschen Schufa. Vereinfacht gesagt, wenn Sie es versauen, war es das mit längeren Zugfahrten, Flugreisen oder gar dem Verlassen Ihres Wohnblocks.

 

Ist das nun gut oder schlecht? Ich denke, aus unserer europäischen Perspektive stellt sich die Frage gar nicht. Die chinesische ist aber eine andere – hier hat der Turbokapitalismus der vergangenen Jahrzehnte dazu geführt, dass viele Menschen das Vertrauen in ihre Umwelt, Wirtschaft, Regierung verloren haben (ein Stichwort: Milchpulver-Skandal). Insofern scheint es so, als dass dieses System von vielen Chinesen begrüßt wird, da es als vertrauensbildend angesehen wird.

 

Mein persönliches Alptraum-Szenario ist übrigens ein militärisches. Ich habe eine Armee von Robotern vor Augen, die in den oft für Soldaten sehr verlustreichen Häuserkampf ziehen und gefangen genommene Menschen vor sich her treiben.

 

Klingt utopisch und weit weg? I don't think so. Und ich denke auch, dass alles, was mit Software und Maschinen gemacht werden kann, am Ende auch damit gemacht werden wird. Aber das liegt daran, dass ich von Natur aus wohl eher pessimistisch (realistisch?) bin. Es ist natürlich mitnichten so, dass wir die ersten sind, die das diskutieren. Es gibt tatsächlich schon ganze wissenschaftliche Disziplinen, die sich damit beschäftigen – die Maschinenethik und die Technikethik.

 

Um den Bogen wieder zurück zu schlagen: Wichtig ist, das alles differenziert zu betrachten und Chancen und Risiken abzuwägen. Auch in der Einführung des Automobils haben zu Beginn viele vor allem die Gefahren gesehen. Es gab viele Verkehrstote, unendlich viele Kutschenführer verloren ihre Arbeit. Was ist passiert? Neue Jobs entstanden, Ampeln und Verkehrsregeln wurden eingeführt und kontinuierlich verbessert, der öffentliche Raum neu geordnet. Als Gesellschaft haben wir uns die Technologie also zunutze gemacht.

 

Ich denke, das geht auch mit den ominösen "Algorithmen" so.

 

PS: Mich motiviert das hier fast schon wieder ein bisschen, mich endlich für den AI-Master an der IUBH einzuschreiben. Der behandelt diese ethischen Fragen übrigens auch ;-).

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich denke, es gibt hier ein paar Aspekte, die man aus meiner Sicht auch erst mal für sich bewerten sollte:

 

1. Algorithmen sind in der Lage, bessere Ergebnisse zu liefern, als Menschen, das ist vielfach bewiesen. Als Beispiel möchte ich Ergebnisse in der Erkennung von Hautkrebs heranführen. Auch sind AI basierte Systeme in der Lage, Texte juristisch zu bewerten - schneller und mit geringerer Fehlerquote, als Menschen. Gerade in komplexen Sachverhalten, die für uns Menschen einen hohen Lernaufwand bedeuten, können uns Maschinen outperformen. Anders gibt es aber eben auch Bereiche, in denen sich solche Systeme deutlich schwerer tun, als wir Menschen, wie beispielsweise auf Bildern Eiscreme von Katzenbabys zu unterscheiden. Nennen wir es ein Ergebnis der Evolution oder Moravec's Paradox.

 

2. Algorithmen sind in der Lage, nachhaltig "falsche" Ergebnisse zu liefern, insbesondere dann, wenn die Quelldaten, auf denen sie basieren, nicht frei von bias sind. Garbage in -> Garbage out! Nach meiner aktuellen Kenntnis ist dies eines der derzeit wichtigsten Probleme. Ein prominentes Beispiel hierzu war die Apple Kreditkarte und das Einräumen des Kreditlimits. Gerade hier sehe ich großen Bedarf darin, mit einer Fehlerkultur lernen zu dürfen. Gerade hier ist der Bedarf an Daten immens und wird oft unter Datenschutzaspekten abgewürgt.

 

3. Ethische Aspekte. Ja, diese sind auf jeden Fall wichtig! Allerdings sollte die Frage nicht sein, wozu man die jeweilige Technologie nutzen könnte, sondern wozu man sie nutzen wird. 

  • Am Beispiel 'Militärischer Einsatz' dieser Technologien sind auch für mich kein schöner Gedanke. Es ist Tatsache, dass dies bereits Praxis ist, nicht nur im Fall von Drohnen. Dennoch ist es so, dass wir uns dem nicht verschliessen dürfen, da im Zweifel die Übermacht von Anderen wächst und man sich dem nicht erwehren kann.
  • Das Beispiel China und die Überwachung in den Städten ein weiteres Szenario, zu dem man vielfältiger Meinung sein darf. Fakt ist aber, dass es ein Sicherheitsgewinn ist und man am Beispiel sich zu keiner Zeit irgendwo unsicher fühlt. Wozu diese Videoüberwachung genutzt wird und werden darf, ist ein anderes Thema und dort mit Sicherheit die ethische Diskussion auch aus meiner Sicht berechtigt.
  • Definiert wurden mal die 'three laws of robotics', die ich als einfaches Grundregelwerk für sinnvoll erachte.

Dies sind Beispiele für 'narrow AI', also spezifische Themen, für die AI genutzt wird. AI wird generalistischer werden, ob wir es wollen oder nicht. Die Frage wird dann nur sein, wer als maßgeblich Beteiligter hier lenken und somit ethische Aspekte einbringen kann. Mein Bauchgefühl sagt mir, dass wir uns an vielen Stellen zu sehr im klein-klein verlieren, statt auch an das große Ganze zu denken.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde hat developer geschrieben:

PS: Mich motiviert das hier fast schon wieder ein bisschen, mich endlich für den AI-Master an der IUBH einzuschreiben. Der behandelt diese ethischen Fragen übrigens auch ;-).

 

Bei mir juckt es auch immer mehr .. wobei tendenziell Data Science ;)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden


×
  • Neu erstellen...