Direkt zum Inhalt der Seite springen

Blog Universität Witten-Herdecke | ChatGPT – Potenziale und Herausforderungen für Universitäten

ChatGPT – Potenziale und Herausforderungen für Universitäten

Einführung in Large-Language-Modelle

Spätestens seitdem ChatGPT in den USA einen Abschluss in Wirtschaftswissenschaften erhalten hat, wird das Thema nicht nur an der Universität Witten/Herdecke (UW/H) und anderen Hochschulen virulent diskutiert, sondern schlägt auch große Wellen in der Öffentlichkeit. In den Debatten geht es z. B. um Fragen der Prüfungsgestaltung an Universitäten, um menschliche Eigenschaften oder die Zukunft der Arbeit.

„Wir neigen dazu, die disruptiven Potenziale von Technik auf kurze Sicht zu überschätzen und auf lange Sicht zu unterschätzen“, sagt Jan Smetana, wissenschaftlicher Mitarbeiter an der UW/H, in seinem Vortag zu „ChatGPT – Large Language Models und die Universität von morgen“, der vom Lehrstuhl für Didaktik und Bildungsforschung im Gesundheitswesen organisiert wurde. Auch Prof. Dr. Werner Vogd, Professor für Soziologie an der Universität Witten/ Herdecke, und Dr. Jonathan Harth, wissenschaftlicher Mitarbeiter am Lehrstuhl für Soziologie, beschäftigen sich mit den sozialen Folgen der Nutzung von künstlicher Intelligenz. Kürzlich habe sie dazu das Buch „Das Bewusstsein der Maschinen – die Mechanik des Bewusstseins“ veröffentlicht. Im Folgenden geben sie einige Einblicke in ihre Überlegungen und Prognosen zu den Potenzialen und Herausforderungen von KIs in der Gesellschaft.

 

Was ist ChatGPT?

ChatGPT ist keine neue Erfindung. Es ist zunächst ein Chatbot-System, das an den Chatbot aus dem Kundenservice erinnert. Allerdings ist es zu weit mehr in der Lage als nur Beispieltexte auszugeben. Es generiert Texte entsprechend der Eingabe der Nutzer:innen. Dabei bezieht es sich auf vorangegangene Punkte in der Konversation, kann auf Rückfragen eingehen, sich korrigieren und sogar Eingeständnisse machen. Es handelt sich daher um ein „Large Language Model“ (LLM).

 

Wie funktioniert ChatGPT?

Menschen können Texte lesen und erahnen, worauf der Autor hinauswill; sie bemerken abrupte Änderungen oder unpassende Wörter und können versuchen, Satzenden zu ergänzen. Intuitiv weiß man, dass eine Nachricht, in der es heißt: „Ich rufe dich an, wie wär's ____?“, wahrscheinlich mit „morgen“ oder „Donnerstag“ endet und nicht mit „gestern“ oder „grün“.

Die Vorhersage dessen, was als nächstes kommen könnte, ist genau das, was ein Sprachmodell (Language Model, LM) tut. Ausgehend von einem bestimmten Ausgangstext sagt es voraus, welche Wörter wahrscheinlich folgen werden. Wenn man dies wiederholt, kann das Sprachmodell längere Textfragmente erzeugen. Sprachmodelle gibt es schon lange. Sie werden erstellt (oder trainiert), indem eine Reihe von Textdokumenten analysiert und herausgefiltert wird, welche Wörter und Wortfolgen mit größerer Wahrscheinlichkeit vorkommen als andere.

Neu ist, dass immer mehr Daten für das Training von KI-Modellen verwendet werden. Damit werden sie zu „großen“ Sprachmodelle, den „Large Language Models“ wie ChatGPT: GPT-3 zum Beispiel hat 175 Milliarden Parameter und wurde auf rund 500 Milliarden Token trainiert. Token sind Wörter oder Teile von Wörtern. Die meisten dieser Textdaten wurden aus dem Internet entnommen, einige stammen jedoch auch aus Büchern. Die Kombination aus großen Datenmengen und großen Modellen macht das Trainieren von LLMs teuer, sodass nur eine Handvoll Organisationen in der Lage war, dies zu tun. Die neu entstandenen LLMs können jedoch viel längere Wortfolgen besser modellieren; der von ihnen erzeugte Text ist flüssiger als der von früheren LMs.

Buch: „Das Bewusstsein der Maschinen“

Die Frage, ob Maschinen ein Bewusstsein entwickeln können, ist nicht mehr nur ein Thema der Science-Fiction. Mit fortschrittlichen Technologien wie ChatGPT rückt diese Möglichkeit in greifbare Nähe. In ihrem neuesten Werk „Das Bewusstsein der Maschinen – die Mechanik des Bewusstseins“ gehen Prof. Dr. Werner Vogd und Dr. Jonathan Harth dieser Frage auf den Grund. Das Buch beleuchtet, wie Künstliche Intelligenz (KI) unsere Selbstwahrnehmung und unser Verständnis von Bewusstsein herausfordert.

Die Autoren setzen bei Gotthard Günthers Pionierwerk „Das Bewusstsein der Maschinen“ von 1957 an und erörtern, was es heißt, Subjektivität zu besitzen. Dabei fragen sie nach den Bedingungen, unter denen Maschinen ein Bewusstsein entwickeln könnten und beleuchten die Grenzen und Möglichkeiten menschlichen Bewusstseins aus phänomenologischer und neurowissenschaftlicher Perspektive. Diese Überlegungen werden durch einen umfassenden Einblick in den aktuellen Stand der KI-Forschung begleitet. Ihr Fazit: Künstliche Intelligenzen können uns wertvolle Erkenntnisse darüber liefern, was es bedeutet, ein Mensch zu sein.

Mehr Informationen zum Buch auf der Website des Velbrück Verlags

  

Was kann ChatGPT – und was kann es nicht?

Das Bahnbrechende an GPT-3 ist die Größenordnung des Datensatzes, der sich im Bereich von Petabyte (ein Petabyte entspricht 1000 Terabyte) befindet. Dieser Datensatz ist aktuell auf dem Stand von 2021 und repräsentiert, trotz seiner Größe, nicht die gesamte Realität, sondern nur einen limitierten Teil.

Dr. Harth argumentiert, dass generative Modelle wie ChatGPT das kollektive Wissen der Weltgesellschaft anzapften, indem sie auf einem umfangreichen Textkorpus trainiert würden. Durch das Training mit Millionen von Büchern, Artikeln und Texten aus verschiedenen wissenschaftlichen Disziplinen, Kunstrichtungen und Kulturen könnten diese Modelle eine Art Sozialität oder kollektives Wissen abbilden, das weit über das hinausgeht, was ein einzelner Mensch verarbeiten oder erfahren kann. Gleichzeitig stellt Dr. Harth klar, dass sie keine direkte Kopie der Sozialität oder des kollektiven Wissens seien. Stattdessen „erstellen sie ein eigenes Bild der Sozialität, das Fehler und Unvollkommenheiten aufweisen kann, ähnlich einer komprimierten JPEG-Version eines Bildes.“ Sie ermöglichten es den Benutzer:innen jedoch, an einem größeren Ausschnitt der sozialen Weltgesellschaft teilzuhaben, als es in normalen Gesprächen oder durch das Lesen einzelner Bücher möglich wäre.

Die kognitiven Fähigkeiten von ChatGPT stellt der Wissenschaftler allerdings infrage. Er betont, „dass solche KI-Systeme keine interne Operativität oder Zeitlichkeit besitzen“ und somit nicht als kognitive Systeme bezeichnet werden können. Kognitive Systeme seien „immer aktiv, verarbeiten Sinneseindrücke oder denken“. Dr. Harth stellt jedoch ebenfalls fest, ChatGPT könne den Eindruck erwecken, als ob es Intentionen oder Gedanken hätte, obwohl dies nicht der Fall ist.

Basierend auf der zuvor programmierten Datenbank ist ChatGPT in der Lage, Muster zu erkennen und zu rekombinieren. Allerdings scheitert das Programm, wenn es keine Datengrundlage für das Problem gibt oder Kreativität gefragt ist. Die KI besitze kein Bewusstsein und keine Subjektivität, „die sowohl ein Ich als auch ein Weltmodell erzeugt“, so Dr. Harth. Darüber hinaus kann ChatGPT die Informationen, die es präsentiert, nicht in einen Kontext einordnen. Ein Konzept wie Wahrheit spielt da zum Beispiel keine Rolle. So kann es vorkommen, dass wissenschaftliche Quellen falsch zugeordnet oder als wahrscheinlichste Folgen von Worten errechnet werden, aber eigentlich gar nicht existieren.

Welche Wirkung haben Technologien wie ChatGPT auf die Universitäten?

Prof. Vogd vermutet, solche KI-Systeme könnten zeigen, dass aktuelle Universitätsabschlüsse, die  auf der Reproduktion von Wissen basierten, nicht besonders wertvoll seien: „In dem Stadium, in dem ChatGPT sich jetzt befindet, kann es eigentlich all das abnehmen, was wir auch mechanisch machen. Wenn ich eine Tätigkeit äußerst ungerne verrichte, verfalle ich in einen tranceähnlichen Zustand. Ich höre auf zu denken und meine Routine erledigt den Rest, da ich die Sprachverarbeitung habitualisiert habe“, so Prof. Vogd.

Laut Dr. Harth gehe damit die Frage einher , was das Ziel eines Universitätsabschlusses heutzutage sein sollte: „Welche Rolle soll Universität zukünftig spielen in der Gesellschaft oder auch für einzelne Menschen in ihrer biografisch-habituellen Ausbildung?“ Er und Prof. Vogd sehen sowohl Chancen als auch disruptive Aspekte in der Entwicklung von KI-Systemen wie ChatGPT. Prof. Vogd glaubt, solche Technologien könnten dazu führen, dass sich „die Spreu vom Weizen trennt, da einige Menschen sie trivial nutzen und andere kreativ mit widersprüchlichen Ergebnissen arbeiten und Neues entwickeln könnten. Daraus ergebe sich die Frage, wie man solche Technologien nutzen möchte, um intelligent Probleme zu umkreisen und weiterhin an der Spitze der wissenschaftlichen Forschung zu stehen.

 

Wie sollten die Strukturen der Universität angepasst werden und was müssten Studierende lernen, um mit KI-Systemen wie ChatGPT umgehen zu können?

Bereits heute kann die ChatGPT-Technologie als hilfreiches Werkzeug angewandt werden, um Information zu generieren zu strukturieren; und um trivialisierende und reproduzierende Aufgaben zu übernehmen. ChatGPT könnte zum Beispiel Studierende beim Lernen oder dem Schreibprozess unterstützen. Die Voraussetzung dafür ist, die präsentierte Information reflektieren und einordnen zu können. Lehrende sind durch ChatGPT in der Lage, ihre Lehre zu personalisieren oder Ideen für die Semesterplanung zu generieren.

Prof. Vogd betont, dass mehr Projekte, insbesondere Lehrforschungsprojekte, wichtig wären. KI-Systeme wie ChatGPT ermöglichten es Studierenden, schnell in verschiedene Gebiete einzusteigen, jedoch müssten Fragen und Fähigkeiten gebündelt und organisiert werden. Dozierende sollten in dieser neuen Umgebung als Coaches und Moderator:innen agieren, die Studierende durch komplexe Wissenskonfigurationen führen und sie dabei unterstützen, intelligente Fragen zu stellen und Projekte auf raffinierte Weise voranzutreiben.

Vogd betont, dass Universitäten in dieser Hinsicht eine Zukunft hätten, da sie Wissen und Wissensgenerierung vermitteln können. Nur Personen, die sich intensiv mit Wissen und den damit verbundenen Mechanismen auseinandergesetzt haben, können andere anleiten, produktiv damit umzugehen.

Dr. Harth fügt hinzu, dass die zunehmende Verbreitung von KI-Systemen wie ChatGPT die Bedeutung von Kompetenzen wie kritischem Denken, methodischem Wissen und Medienkompetenz für Studierende unterstreiche. Universitäten sollten ihren Fokus darauf richten, solche Fähigkeiten zu vermitteln, um Studierenden in einer Welt, in der KIs weit verbreitet sind, ein solides Fundament für den Erfolg zu bieten. Der Wissenschaftler sieht hier vor allem die Bedeutung des Dialogs und des praxisorientierten Lernens sowie die Notwendigkeit, Kreativität und Emanzipation in den Bildungsprozess zu integrieren. So könntenStudierende über bloße Reproduktion und Trivialisierung hinausgehen und in der Zusammenarbeit mit KI-Systemen echte Innovationen schaffen.

Feststeht, dass wir gerade am Anfang einer spannenden technischen Disruption stehen, durch die wir wie nie zuvor in der Lage sind, Wissen zu demokratisieren und zugänglich zu machen.

Dabei sei es wichtig, „die Neugierde zu bewahren, sich wach und kritisch mit der neuen Technik auseinanderzusetzen und dadurch die Entwicklung mit gestalten zu können“, sagt Prof. Vogd. Die nächste Stufe in der Entwicklung künstlicher Intelligenzen könnte dann sogar darin bestehen, Maschinen zu bauen, die sich dynamisch selbst programmieren und ihre Ergebnisse selbst projizieren können. Und die große Frage sei nach Prof. Vogd dann: „Was bedeutet das für eine Gesellschaft? Was bedeutet das für den Arbeitsmarkt, für den sozialen Frieden? Das sind jetzt die großen Fragen.“

Schreibe einen Kommentar
* Pflichtfelder

Kommentare

Keine Kommentare vorhanden.