Wie Studierende von LLMs und Chatbots als digitaler Tutor profitieren können

In der modernen Hochschulbildung sind die Optimierung und Personalisierung des Lernprozesses äußerst wichtig. Insbesondere in komplexen Studiengängen wie Jura können Technologien wie Large Language Models (LLMs) und Retrieval Augmented Generation (RAG) eine entscheidende Rolle spielen. Ein Pilotprojekt an der Universität Leipzig zeigt, wie diese Technologien erfolgreich in Form einesKI-Tutors eingesetzt werden.

Hintergrund und Turing

Im Jahr 1950 stellte Alan Turing in seinem Essay „Computing Machinery and Intelligence“ die revolutionäre Frage: Können Maschinen denken? Er schlug das berühmte „Imitation Game“ vor, das heute als Turing-Test bekannt ist. Seiner Ansicht nach könnte eine Maschine als „denkend“ angesehen werden, wenn sie in der Lage ist, einen menschlichen Prüfer zu täuschen.

Dieser Gedanke bildet die theoretische Grundlage für viele moderne KI-Anwendungen. Seitdem ist ein langer Weg zurückgelegt worden, und insbesondere für Studierende eröffnen sich neue Möglichkeiten, KI-Tools wie z.B. LLMs zur Unterstützung ihres Studiums einzusetzen.

Wie funktioniert so ein digitaler Tutor für das Jura-Studium?

1. Frage stellen (Query): Studierende stellen eine juristische Frage, z.B. “Was ist eine Verfügung?”

2. Verarbeitung der Anfrage (Embedding): Die Frage wird in Vektoren umgewandelt, damit sie für das LLM lesbar werden und analysiert werden können.

3. Suche in Vektordatenbank: Das Retrieval-System sucht in einer Vektordatenbank nach relevanten Texten, die mit der Frage übereinstimmen. Diese können Skripte, Lehrbücher oder Vorlesungsfolien sein.

4. Antwortgenerierung: Das LLM analysiert die gefundenen Daten und liefert eine präzise Antwort. Die Antwort kann mit Quellenangaben versehen werden, z.B. mit der Seite im Lehrbuch oder der entsprechenden Folie in der Vorlesung.

Für Jurastudierende ist dies ein mächtiges Tool, da sie nicht nur schnell Antworten erhalten, sondern diese auch direkt auf die entsprechenden Lehrmaterialien verweisen. Dies erleichtert das Verständnis komplexer juristischer Konzepte und fördert das selbstständige Lernen.

Vorteile für Studierenden und Lehrenden

Digitale Tutoren bieten verschiedene Vorteile für das Lehren und Lernen an Universitäten. Für die Studierenden bedeutet dies:

  • Personalisierte Lernunterstützung: Die Studierenden können individuelle Fragen stellen und erhalten auf ihren aktuellen Wissensstand maßgeschneiderte Antworten.
  • Anpassung an unterschiedliche Themen: Man kann den digitalen Tutor leicht an verschiedene Rechtsgebiete wie Zivilrecht, Strafrecht oder öffentliches Recht anpassen. Er kann auch schwierige juristische Konzepte erklären oder bei der Prüfungsvorbereitung helfen.
  • Flexibilität und Kostentransparenz: Ob zu Hause oder unterwegs, der digitale Tutor steht jederzeit zur Verfügung und bietet Zugang zu den wichtigsten Informationen – über ein Learning Management System (LMS) wie Moodle oder direkt als App. Darüber hinaus sorgen monatliche Token-Budgets für eine klare Kostenkontrolle.

Auch für die Lehrenden bringt der Einsatz von LLMs in Kombination mit RAG eine Reihe von Vorteilen mit sich:

  • Unterstützung bei der Planung: KI-Tools können dabei helfen, Lehrveranstaltungen besser zu strukturieren.
  • Entwicklung von Lehrmaterialien: Die KI kann bei der Erstellung von Aufgaben, Lehrmaterialien, Fallbeispielen oder Klausurfragen unterstützen.
  • Individuelles Feedback: Lehrende können detailliertes Feedback für Studierende generieren, z.B. durch automatische Analyse von Seminararbeiten oder Prüfungsleistungen.

Herausforderungen beim Einsatz von LLMs

Trotz der vielen Vorteile und Möglichkeiten, die digitale Tutoren und andere KI-basierte Lernsysteme bieten, gibt es auch Herausforderungen, die in Betracht gezogen werden müssen:

  • Ressourcenintensiv: Der Betrieb solcher Systeme erfordert einen hohen Rechenaufwand und entsprechende Kosten.
  • Abhängigkeit von Anbietern: Derzeit binden viele solcher Systeme an externen Anbietern wie Microsoft Azure oder OpenAI, was die Unabhängigkeit von Hochschulen einschränken kann.
  • Qualität der Antworten: KI-Systeme liefern nicht immer perfekte Ergebnisse. Es kann zu „Halluzinationen“ (falschen oder unsinnigen Antworten) kommen. Wie alle datenbasierten Systeme können auch LLMs Verzerrungen (Biases) aufweisen, die auf die verwendeten Trainingsdaten zurückzuführen sind. Daher muss sowohl die Genauigkeit der Antworten als auch die Vermeidung von Biases sichergestellt werden.

Der technische Hintergrund: Azure und OpenAI

Der oben vorgestellte digitale Tutor basiert auf der Cloud-Infrastruktur von Microsoft Azure. Azure bietet verschiedene Services, die eine sichere und effiziente Datenverarbeitung ermöglichen. Dazu gehören:

  • AI Search: Eine hybride Suche, die sowohl Vektorsuche als auch Volltextsuche kombiniert, um relevante Daten schnell zu finden.
  • Document Intelligence: Extrahiert Informationen aus PDF-Dokumenten und ermöglicht den direkten Zugriff auf Vorlesungsfolien, Skripte oder andere Studienmaterialien.
  • OpenAI: Azure bietet Zugriff auf die leistungsfähigen Sprachmodelle von OpenAI,. So wurden bei der Implementierung beispielsweise GPT-4 Turbo und das ada-002 Modell für Text Embeddings verwendet, um präzise und effiziente Antworten zu generieren.

Darstellung des Datenverarbeitungsprozesses

Fazit

Das Pilotprojekt mit der Universität Leipzig zeigt wie der Einsatz von LLMs und RAG die Hochschulbildung unterstützen kann. Mithilfe dieser Technologien können Lernprozesse nicht nur effizienter, sondern auch flexibler und zielgerichteter gestaltet werden.

Durch den Einsatz von Microsoft Azure wird zudem eine sichere und DSGVO-konforme Datenverarbeitung gewährleistet.

Die Kombination aus leistungsfähigen Sprachmodellen und innovativen Suchmethoden bietet sowohl Studierenden als auch Lehrenden neue und effektive Wege, das Lernen und Lehren zu verbessern. Die Zukunft des Lernens wird damit personalisierbar, skalierbar und jederzeit verfügbar.

Autorin

Florence López

Florence Lopez, Data Scientist und Diversity Managerin bei scieneers GmbH
florence.lopez@scieneers.de


Weitere Blog-Beiträge zum Thema Sprachmodelle