Textgenerierende KIs basieren auf sogenannten Large Language Models (LLMs) – leistungsfähigen Algorithmen, die sprachliche Zusammenhänge anhand statistischer Muster berechnen. Ein häufiges Missverständnis besteht darin, dass diese Modelle auf gespeicherte Trainingsdaten wie eine klassische Datenbank zugreifen. Tatsächlich generiert die KI ihre Antworten nicht durch das Abrufen bestehender Texte, sondern durch die Wahrscheinlichkeitsberechnung möglicher Wortfolgen auf Basis des eingegebenen Prompts und des bisherigen Dialogkontextes innerhalb eines semantischen Bedeutungshorizontes.
Obwohl die KI oft beeindruckende Ergebnisse liefert besitzt sie kein tiefgehendes, logisches Verständnis der Inhalte. Sie verarbeitet Texte nicht im Sinne menschlicher Kognition, sondern erstellt Vorhersagen auf Grundlage statistischer Wahrscheinlichkeiten. Dies führt zu mehreren Einschränkungen:
Halluzinationen: Die KI kann falsche, aber sehr plausibel klingende Informationen erzeugen, da sie nicht über eine externe Verifikationsmöglichkeit oder ein tatsächliches Faktenverständnis verfügt.
Bias (Verzerrungen): Da die KI aus Trainingsdaten lernt, kann sie bestehende Stereotype oder unausgewogene Perspektiven verstärken. Dies betrifft insbesondere gesellschaftliche, politische oder kulturelle Themen.
Eingeschränkte Lernfähigkeit: Aktuelle generative KI-Systeme zählen zur Kategorie der „schwachen KI“, da sie nicht autonom dazulernen, sondern auf bereits antrainierte Muster angewiesen sind.
Umfangreiche Einführungen zu generativer KI finden Sie auf den Seiten des KI-Campus oder auch im bundesweiten OER-Repository twillo. Für Studierende der MLU steht ein umfangreicher Selbstlernkurs bereit, für Lehrende bietet das LLZ auch Präsenzweiterbildungen an.
Ist MLU-KI tatsächlich eine MLU-Eigenentwicklung?
Nein, die MLU nutzt einen sicheren, verschlüsselten Zugang zu einem bundesweiten Angebot der GWDG und zu einem privaten Anbieter. Der Zugang selbst wurde vom IT-Zentrum der ULB installiert. Über den Zugang stehen verschiedene KI-Anwendungen zur Verfügung, u.a. ChatGPT. Die entstehenden Kosten trägt die MLU. Perspektivisch ist allerdings auch die Implementierung lokal gekapselter, selbst gehosteter KI-Modelle geplant, z.B. für die Forschung.
Warum gibt es verschiedene KI-Sprachmodelle bei MLU-KI?
Es stehen private und Open-Source-Modelle zur Verfügung. Sie unterscheiden sich hinsichtlich Kosten, Leistungsfähigkeit und Einsatzzwecken. Außer ChatGPT sind die anderen Anwendungen kostenfrei, daher ist der Zugriff auf ChatGPT auch pro Nutzer begrenzt. Die Open-Source-Modelle sind dafür konfigurierbar und haben unterschiedliche Trainingssätze.