Ich bin froh über die Entscheidung meines Instituts, die Verwendung sogenannter KI-Tools in Studien- und Prüfungsleistungen vollständig zu verbieten.
-
Ich bin froh über die Entscheidung meines Instituts, die Verwendung sogenannter KI-Tools in Studien- und Prüfungsleistungen vollständig zu verbieten. Keine „Prompt-Kompetenz“, kein „Man muss die KI nur *richtig* einsetzen“, kein „Wir können uns dem nicht verschließen“, sondern die einfache Erkenntnis, dass „KI“ das Gegenteil von dem ist, was unsere Studierenden lernen sollen. https://www.geisteswissenschaften.fu-berlin.de/we06/lehre_und_studium/Studium/Hinweise-zu-Hausarbeiten-und-Pruefungsleistungen/index.html
@astefanowitsch Sehr gut, Glückwunsch (geschrieben von einem Angestellten einer Universität, deren Präsident sich darin gefällt, regelmäßig laute und unsachkundige „Hurra hurra AI ist die Zukunft“-Op-eds in diversen Medien zu veröffentlichen)
-
@michaelgiesler @astefanowitsch
Eine große Stärke der Geisteswissenschaften ist, dass im Studium Soft Skills wie Recherche, Diskussionsfähigkeit, Textverständnis, Strukturverständnis, ... vermittelt werden.
Diese Soft Skills entwickelt man aber vor allem durch mühsame Recherche, Auseinandersetzung mit Quellen, Formulierung von Argumenten und Texten und der Strukturierung von Ergebnissen.
Das Schreiben von Hausarbeiten ist nicht der Zweck, sondern nur Mittel zum Zweck im Studium.
Wenn eine KI das alles per Knopfdruck übernimmt, geht jeglicher Lerneffekt verloren.
Damit Kinder ein Verständnis für Zahlen entwickeln, gibt man ihnen auch nicht ab Klasse 1 ein Taschenrechner in die Hand, sondern lässt sie zuerst für mehrere Jahre auf dem Papier/ im Kopf rechnen.
@goblin
Nichtsdestotrotz wird in der Schule IMMER auch das Werkzeug "Taschenrechner" verwendet und den Schüler*innen der Umgang damit beigebracht.
Der Thread hier sprach aber von einem vollständigen Verbot.Etwas sarkastisch drängt es mich zu fragen, ob auch ein Verbot von Computern erwogen wurde, damit man manuelle Recherche in den Büchereien und Registerkästen lernt.
-
@goblin
Nichtsdestotrotz wird in der Schule IMMER auch das Werkzeug "Taschenrechner" verwendet und den Schüler*innen der Umgang damit beigebracht.
Der Thread hier sprach aber von einem vollständigen Verbot.Etwas sarkastisch drängt es mich zu fragen, ob auch ein Verbot von Computern erwogen wurde, damit man manuelle Recherche in den Büchereien und Registerkästen lernt.
@michaelgiesler @astefanowitsch
Das Durchwühlen eines Archivregisters ist kein Soft Skill, der heute noch relevant ist (bis auf wenige Ausnahmen).
All das, was mit dem Recherchieren, Auseinandersetzen und Schreiben von Texten einhergeht, allerdings schon.
Dass ein LLM nur als Werkzeug eingesetzt wird, ist im best case möglich, aber in der Praxis unwahrscheinlich, weil die Anreize für Missbrauch sehr hoch sind.
Bei einem LLM kann man einfach die Aufgabenstellung des Dozenten in das Promptfenster einfügen. Mit dem daraus entstehenden Text muss sich dann der Dozent herumschlagen. Da die Korrektur aber gar nicht die Leistung des Studierenden betrifft, verpufft der Aufwand des Dozenten wirkungslos.
Das nutzt dem Studi nichts und verschwendet die Zeit des Dozenten. -
@astefanowitsch rein interessehalber: welches Problem löst man denn durch das Verbot dieses Werkzeuges?
Ich mein, gerade im geisteswissenschaftlichen Umfeld ist in allen beruflichen Bereichen doch die Benutzung von KI gang und gäbe. Das sollte in der Ausbildung doch auch zumindest thematisiert werden.
@michaelgiesler Man löst das Problem, dass die Studierenden das eigene Denken und Handeln outsourcen, und noch dazu an einen Textgenerator, der ein Denken und Handeln dann nur oberflächlich simuliert. Ob der Einsatz von KI im geisteswissenschaftlichen Umfeld gang und gäbe ist, würde ich jetzt erstmal dahingestellt sein lassen — aber selbst, wenn es so wäre, wäre dieser Einsatz falsch und kein Grund, sich dem anzuschließen.
-
@goblin
Nichtsdestotrotz wird in der Schule IMMER auch das Werkzeug "Taschenrechner" verwendet und den Schüler*innen der Umgang damit beigebracht.
Der Thread hier sprach aber von einem vollständigen Verbot.Etwas sarkastisch drängt es mich zu fragen, ob auch ein Verbot von Computern erwogen wurde, damit man manuelle Recherche in den Büchereien und Registerkästen lernt.
@michaelgiesler Weder ein Taschenrechner noch ein Computer haben in ihrem Wesen irgendetwas mit generativer KI gemeinsam, aber wie @goblin richtig sagt, müssen/sollten wir selbst mit diesen Technologien immer so vorgehen, dass wir auch darauf verzichten könnten.
-
@michaelgiesler @astefanowitsch
Eher Sarkasmus (deshalb der s-tag). Wie immer mit dem Kern von Wahrheit: Dein Statement war ein Eigentor. Und wenn es wahr ist, habe die GWs dann damit die Hosen heruntergelassen. Wenn es eines ist, wofür GWs bezahlt werden, dann das Denken. Nicht das von-Maschinen-Denken-Lassen.
-
@astefanowitsch Das setzt alles voraus, dass „die KI“ eine eigenständige zusätzliche Anwendung ist, die man explizit starten und benutzen muss. Oder dann eben nicht benutzen darf
Je mehr integriert wird, und nicht als Feature, sondern ständig im Hintergrund laufend, desto schwieriger. Mini-Beispiel: was machen mit der Literaturrechrche, wenn das Suchsystem der Hochschulbibliothek ein angepasstes LLM in die Keyword-Suche integriert? Wenn das Repositorium generierte Zusammenfassungen anbietet?
@CerstinMahlow In dem Beispiel geht es ja eher schon darum, die Studierenden vor diesen Technologien zu warnen und ihnen beizubringen, sie zu umgehen. Bei der Literaturrecherche muss man wieder stärker auf traditionelle Methoden der Erschließung setzen, oder sich eben durch den KI-generierten Ergebnis-Müll wühlen. Bei den Zusammenfassungen kann man den Studierenden wenigstens recht leicht zeigen, wie schlecht die sind und wie wenig Sinn es hat, sich auf sie zu verlassen.
-
@CerstinMahlow In dem Beispiel geht es ja eher schon darum, die Studierenden vor diesen Technologien zu warnen und ihnen beizubringen, sie zu umgehen. Bei der Literaturrecherche muss man wieder stärker auf traditionelle Methoden der Erschließung setzen, oder sich eben durch den KI-generierten Ergebnis-Müll wühlen. Bei den Zusammenfassungen kann man den Studierenden wenigstens recht leicht zeigen, wie schlecht die sind und wie wenig Sinn es hat, sich auf sie zu verlassen.
@CerstinMahlow Wie unser Statement zeigt, ist die Recherche ja explizit einer der Bereiche, in denen wir die KI nicht erlauben, aber da kämpfen wir auch durchaus gegen die eigene Uni-Bibliothek, die eine KI in den Bibliothekskatalog integriert hat. Im Moment muss die wenigstens noch explizit aktiviert werden...
-
@michaelgiesler @astefanowitsch
Das Durchwühlen eines Archivregisters ist kein Soft Skill, der heute noch relevant ist (bis auf wenige Ausnahmen).
All das, was mit dem Recherchieren, Auseinandersetzen und Schreiben von Texten einhergeht, allerdings schon.
Dass ein LLM nur als Werkzeug eingesetzt wird, ist im best case möglich, aber in der Praxis unwahrscheinlich, weil die Anreize für Missbrauch sehr hoch sind.
Bei einem LLM kann man einfach die Aufgabenstellung des Dozenten in das Promptfenster einfügen. Mit dem daraus entstehenden Text muss sich dann der Dozent herumschlagen. Da die Korrektur aber gar nicht die Leistung des Studierenden betrifft, verpufft der Aufwand des Dozenten wirkungslos.
Das nutzt dem Studi nichts und verschwendet die Zeit des Dozenten.@goblin
Wenn man ein Werkzeug verwendet, lernt man etwas (gilt auch für den Taschenrechner). Bei der Texterzeugung durch Sprachmodelle lernt man aktiv nichts - man umgeht sein Gehirn, wie der Beitrag oben erläutert.(Und kommt mir jetzt bitte nicht mit dem Bullshitbingo Kästchen "Prompting-Kompetenz". Danke.)
-
Ich bin froh über die Entscheidung meines Instituts, die Verwendung sogenannter KI-Tools in Studien- und Prüfungsleistungen vollständig zu verbieten. Keine „Prompt-Kompetenz“, kein „Man muss die KI nur *richtig* einsetzen“, kein „Wir können uns dem nicht verschließen“, sondern die einfache Erkenntnis, dass „KI“ das Gegenteil von dem ist, was unsere Studierenden lernen sollen. https://www.geisteswissenschaften.fu-berlin.de/we06/lehre_und_studium/Studium/Hinweise-zu-Hausarbeiten-und-Pruefungsleistungen/index.html
-
@michaelgiesler @astefanowitsch
Eher Sarkasmus (deshalb der s-tag). Wie immer mit dem Kern von Wahrheit: Dein Statement war ein Eigentor. Und wenn es wahr ist, habe die GWs dann damit die Hosen heruntergelassen. Wenn es eines ist, wofür GWs bezahlt werden, dann das Denken. Nicht das von-Maschinen-Denken-Lassen.
@glitzersachen
Eine KI denkt ja nicht. Und kann dieses dem Menschen also auch nicht abnehmen.
Eine KI hilft bei Recherche und Struktur, führt den Nutzenden also schneller ans Ziel. -
@michaelgiesler Weder ein Taschenrechner noch ein Computer haben in ihrem Wesen irgendetwas mit generativer KI gemeinsam, aber wie @goblin richtig sagt, müssen/sollten wir selbst mit diesen Technologien immer so vorgehen, dass wir auch darauf verzichten könnten.
@astefanowitsch @goblin in meinem GW-Studium vor 20 Jahren war es in der Tat auch ein Thema, inwiefern man das Internet und Computer nutzen darf. Deswegen reizt mich das Thema und dein Thread etwas. Damals hatte ich den Eindruck, dass man Angst vor neuen Entwicklungen hatte (Zitat: "Internet? Ach, das vergeht wieder.")
Jetzt bin ich als GW-Akademiker in einem Job, wo ich fürs Denken bezahlt werde, wäre ohne Internet vollkommen aufgeschmissen und erfreue mich an den neuen Möglichkeiten durch KI.
-
@glitzersachen
Eine KI denkt ja nicht. Und kann dieses dem Menschen also auch nicht abnehmen.
Eine KI hilft bei Recherche und Struktur, führt den Nutzenden also schneller ans Ziel.@michaelgiesler @astefanowitsch
Ja, das ist die "AI ist ja nur ein Werkzeug"-Idee. Einige von uns glauben das nicht. Stichwort: Aktive Skill-Erosion.
Ich empfehle das mal zu recherchieren.
BTW: Als Recherche-Werkzeug ist KI nur mäßig geeignet. Eine Suchmaschine wäre besser. AI erfindet Quellen. Und das kostet sehr viel Zeit.
-
@michaelgiesler @astefanowitsch
Ja, das ist die "AI ist ja nur ein Werkzeug"-Idee. Einige von uns glauben das nicht. Stichwort: Aktive Skill-Erosion.
Ich empfehle das mal zu recherchieren.
BTW: Als Recherche-Werkzeug ist KI nur mäßig geeignet. Eine Suchmaschine wäre besser. AI erfindet Quellen. Und das kostet sehr viel Zeit.
@michaelgiesler @astefanowitsch
Ich empfehle ausserdem die Aufarbeitung der Literatur im Umkreis von Emily Bender und Timnit Gebru. Ich hoffe, die Namen sagen etwas.
-
@astefanowitsch @cwilcke Klingt soweit gut und sinnvoll. Das Problem mit den Studierenden, die mit Prüfungssituationen in Präsenz schlechter zurechtkommen, habt ihr sicher auch im Blick?
@Teskariel Die haben wir ja auch jetzt bei Präsenzprüfungen im Blick. Die Betroffenen haben normalerweise einen Nachteilsausgleich, der solche Situationen regelt (zum Beispiel durch zusätzliche Zeit bei der Vorbereitung und/oder der Prüfung selbst, durch die Bereitstellung von Räumen, in denen sie alleine sitzen können, durch vorherigen Aufbau von Vertrauen zwischen Prüfling und Prüfer_in usw.). @cwilcke
-
@Teskariel Die haben wir ja auch jetzt bei Präsenzprüfungen im Blick. Die Betroffenen haben normalerweise einen Nachteilsausgleich, der solche Situationen regelt (zum Beispiel durch zusätzliche Zeit bei der Vorbereitung und/oder der Prüfung selbst, durch die Bereitstellung von Räumen, in denen sie alleine sitzen können, durch vorherigen Aufbau von Vertrauen zwischen Prüfling und Prüfer_in usw.). @cwilcke
@astefanowitsch @cwilcke Ach, cool, was es da alles gibt!
-
@michaelgiesler @astefanowitsch
Ja, das ist die "AI ist ja nur ein Werkzeug"-Idee. Einige von uns glauben das nicht. Stichwort: Aktive Skill-Erosion.
Ich empfehle das mal zu recherchieren.
BTW: Als Recherche-Werkzeug ist KI nur mäßig geeignet. Eine Suchmaschine wäre besser. AI erfindet Quellen. Und das kostet sehr viel Zeit.
@glitzersachen @astefanowitsch natürlich gibt es eine Skill-Erosion.
Ich kann weder mein Essen selber anbauen, noch mein Dach über dem Kopf selber reparieren.
Im Job-Umfeld kann ich weder den Rechner, mit dem ich arbeite, selber bauen, noch einen Großteil der Software, die ich benötige, selber schreiben.Aber muss ich das denn?
-
@goblin
Wenn man ein Werkzeug verwendet, lernt man etwas (gilt auch für den Taschenrechner). Bei der Texterzeugung durch Sprachmodelle lernt man aktiv nichts - man umgeht sein Gehirn, wie der Beitrag oben erläutert.(Und kommt mir jetzt bitte nicht mit dem Bullshitbingo Kästchen "Prompting-Kompetenz". Danke.)
@frank
Also, ich benutze einen Taschenrechner (oder die KI) nicht dazu, etwas zu lernen, sondern Aufgaben zu bewältigen, und meinen Job zu erledigen. Lernen tue ich dabei andere Dinge. -
@astefanowitsch Ich finde das insofern vernünftig als dass das eine Art Rechtssicherheit schafft. Ansonsten müsste der verantwortungsvolle Umgang mit diesen Tools Teil des Lehrplans werden.
@danimrich Ja, und natürlich gibt es niemanden, der so etwas unterrichten könnte — allein schon, weil die Tools in ihrer Funktionsweise absichtlich intransparent sind und sich ständig ändern, so dass es eigentlich nur zwei Arten von potenziellen Lehrkräften für solche Kurse gibt: Diejenigen, die sich einbilden, sie wüssten, wie man sinn-/verantwortungsvoll mit KI umgeht, und diejenigen, die wissen, dass es einen solchen Umgang nicht gibt.
-
@glitzersachen @astefanowitsch natürlich gibt es eine Skill-Erosion.
Ich kann weder mein Essen selber anbauen, noch mein Dach über dem Kopf selber reparieren.
Im Job-Umfeld kann ich weder den Rechner, mit dem ich arbeite, selber bauen, noch einen Großteil der Software, die ich benötige, selber schreiben.Aber muss ich das denn?
@michaelgiesler Auf jeden Fall kannst du sehr gut falsche Äquivalenzen produzieren — übrigens eine der wenigen Dinge, in denen auch die LLMs gut sind
@glitzersachen

