KI imitiert den Menschen immer mehr
Aktuell kann KI nur das, was nicht nur gedacht, sondern auch geschrieben wurde. Das machen Geisteswissenschaftler:innen allerdings auch. Nur verfügen sie nicht über den Wortschatz von ChatGPT. Die Folgen für den Geist sind abzusehen. Wie das Auto zu weniger Bewegung geführt hat, so verleitet eine KI, die Texte verarbeitet, dass weniger Texte durch Menschen geschrieben werden. Es geht nicht nur um die Student:innen. Sie machen schon einen immer größeren Bogen um die Geisteswissenschaften, aus denen die Universität ursprünglic erwachsen ist. Sie müssten in diesen Fächern etwas lernen und trainieren, was sie unentbehrlich macht. Unentbehrlich ist menschliche Intelligenz noch da, wo neues Wissen erzeugt wird, denn Chatbots können nur das, was Menschen vorher schon gekonnt haben und es muss online verfügbar sein. Erst dann beginnt der Wettstreit. Aber, so die Beruhigungspille, bleibt der Mensch doch immer noch vor der KI, weil er etwas kann, was mit Rechnen nicht möglich ist: Wahr und Falsch, lebensfördernd oder schädlich. KI kann da nur so weit mithalten, wie sich diese Fähigkeiten mathematisieren lassen. Geisteswissenschaftler:innen ziehen sich auf dieses Argument zurück, ChatGPT könne nicht zwischen Fake und Tatsache unterscheiden. Aber es ist nur der Anfang. Was technisch noch nicht geht, kann aber noch kommen: Dass Künstliche Intelligenz korrigiert werden kann.
Der nächste Meilenstein: Die Kontrolle von Chatbots
Wenn Prüfungsarbeiten und sogar Dissertationen mit ChatGPT geschrieben werden, dann sind sicher Fehler enthalten, die die Herkunft solcher Texte zeigen. Aber welcher Student bzw. welche Studentin wird einen solchen, mit Fakes gefütterten Chatbot nutzen, wenn es bald besser überprüfte gibt. Zudem drohen unkontrollierte Chatbots das Internet immer mehr zu einem unsicheren Ort zu machen, weil fehlerhafte oder Fake-Texte ins Netz gelangen, welche von ChatGPT ausgespuckt worden sind. Mit diesen fehelrhaften Texten und Bildern wird dann die KI „trainiert“. Je länger eine solche KI genutzt wird, desto wertloser wird sie. Bisher kann KI technisch noch nicht nachträglich korrigiert werden. Aber genau darin liegt eine Chance, wenn Chatbots nur mit redaktionell geprüften Texten „trainiert“ bzw. dessen Inhalte „korrigiert“ werden.
Höherwertige KI’s führen zu Monopolen
Die Fakultät, die einen Geldgeber oder eine Geldgeberin gewinnt, die eine fachspezifischen Chatbot finanziert, wird sicher überleben. Sie wird umso unersetzlicher, je mehr Fachleute die Texte prüfen, mit denen der Chatbot gefüttert wird. Der Mechanismus ist an Google ablesbar. Es gilt das in den Sozialwissenschaften formulierte Matthäusprinzip „Dem, der hat, wird noch mehr gegeben werden“. Dann wird sich für die anderen Fakultäten dieser Fachrichtung eine neue Situation ergeben. Die Studierenden, die dann mit Chatbots bereits aufgewachsen sind, werden sich an dieser Fakultät orientieren. Vor allem werden sie Fragen zuerst an ihren Fach-Chatbot richten. Das verändert die Funktion der Prüfungen. Sie werden nicht mehr den Schwerpunkt auf die Abfrage von Wissensdaten legen können. Diese ermöglichen zwar eine Benotung nach richtig und falsch, für das werden aber nur die Redakteur:innen gebraucht, die einen Chatbot betreuen. Geisteswissenschaftler:innen werden aber nicht mehr für die Wissensbestände ihres Faches angefragt, sondern in der Kompetenz zu verstehen. Wenn sie diese nicht nur auf klassisch gewordene Texte, Architektur, Theater, Malerei anwenden, sondern auf die vielen Fragen, die junge Menschen bereits ins Studium mitbringen. Dann gibt es viel zu bedenken, denn die Zeitläufe liefern immer weniger die Erklärung mit, warum ein Krieg notwendig wäre, warum Inflation nicht steuerbar ist, warum Demokratie für dem Einzelnen viel mehr Freiheitsräume offenlässt, wie eine Berufsausbildung angelegt sein muss, damit sie mehr als zehn Jahre hält. Die Rolle der Lehrenden wird sich erheblich ändern, weil sie sich nicht hauptsächlich um die Weitergabe der Wissensbestände kümmern müssen.
Alles, was sich berechnen lässt, kann eine KI prinzipiell
Ein weiteres Argument greift nur noch wenige Monate. „Die Maschinen können nicht denken“. Wenn sie rechnen können, werden sie auch logische Regeln beherrschen. Der Algorithmus braucht nur auf bestimmte Worte hin fokussiert werden, um die logischen Schritte mit anderen Texten zu vergleichen und Unstimmigkeiten festzustellen. Das Samsung-Tablet, auf dem ich diesen Text schreibe, kann schon anfänglich Syntax und Kommasetzung. Auch logisches Denken kann man ihm beibringen.
Die Geisteswissenschaften sollten die KI zähmen
Weil die Künstliche Intelligenz in die Tätigkeitsfelder der menschlichen Intelligenz immer mehr eingreift, sind die Wissenschaften, die den Geist erforschen, die Adressaten der Frage: „Was macht eine Maschine mit uns, die uns das Denken abnimmt?" Oder besser gesagt: Wie können wir uns die Maschine zu nutzen machen, damit sie das menschliche Denken unterstützt?
Da die Algorithmen noch viel mehr Teil unseres Lebens werden als das Auto, sollten wir uns darüber klarwerden, wie sie funktionieren. Auf jeden Fall bringen sie in Sekunden das vorhandene Wissen und alle Kulturgüter auf den Schirm. Im Feld der Musik ist das schon selbstverständlich. Damit ist ein Ziel erreicht und sogar übertroffen, welches in den siebziger Jahren in Japan formuliert wurde: Jedem Menschen das gesamte Wissen und alle Kulturgüter zugänglich zu machen. Der Bildschirm ist nicht nur unseren Augen nahe, er wird ein Teil des Gehirns, in dem wir inzwischen genauso suchen wie in unseren Gedächtniszellen. Wenn sich die Geisteswissenschaften dem Verstehen widmen, dann werden sie nicht abhängig von den Maschinen, die mehr Bücher gelesen haben als es einem Menschen in seinem Leben möglich ist.
Die Unterstützung der Jurist:innen
ChatGPT verletzt die Rechte der Autoren gravierend. Das gültige Urheberecht erfasst diesen Missbrauch nicht. Damit das Recht greifen kann, muss der Missbrauch juristisch gefasst werden. Auch hier müssen die Geisteswissenschaftler nicht warten, bis irgendwer den Stein ins Rollen bringt. Am besten über die Verwertungsgesellschaften. Die VG-Wort erklärt sich nicht für zuständig, obwohl sie nicht als Privatinitiative, sondern als Körperschaft des Öffentlichen Rechts zum Schutz der Autorenrechte ihre Daseinsberechtigung herleitet. Es wäre der beste Schutz gegen Fake-News, wenn die Chatbots die Autoren auflisten würden, mit deren Werken sie ihre KI trainiert haben. Es wäre zum Vorteil der Betreiber, wenn wie bei Büchern und Artikeln die Autoren identifiziert werden können. Es gibt schon positive Entwicklungen: Dienste wie Adobe Firefly nutzen nur Fotos und Grafiken zur Programmierung der KI, für die eine Zustimmung der Urheber vorliegt. Dienste, wie Perplexity verbinden die KI-Ergebnisse mit Suchanfragen aus dem world wide web. Der Vorteil: Die Quellen werden angegeben und sind überprüfbar. Und genau für diese Überprüfung werden zukünftig gut ausgebildete Geistenwissenschaftler:innen benötigt werden.
Warum ChatGPT die Theologie bedrohen kann
Textarbeiter werden durch Algorithmen ersetzt
ChatGPT-Gehirnsprache gegen Maschinensprache
ChatGPT braucht Geisteswissenschaften
ChatGPT und das Buch
Hinweis: In den Monaten Juni / Juli 2025 widmet sich das Portale www.explizit.net schwerpunktmäßig dem Thema „Künstliche Intelligenz“: https://explizit.net/monatsthema/.
Kommentare (0)
Keine Kommentare gefunden!