Portal:Künstliche Intelligenz/MLU-KI: Unterschied zwischen den Versionen

Wiki
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 22: Zeile 22:
| width = 640px
| width = 640px
}}
}}
Beschreibung der an der MLU eingesetzten Sprachmodelle:


'''Beschreibung der an der MLU eingesetzten Sprachmodelle:'''
'''Beschreibung der an der MLU eingesetzten Sprachmodelle:'''

Version vom 26. Mai 2025, 10:53 Uhr

MLU-interner Zugang zu generativer KI ("MLU-KI")

Die verpflichtende Nutzung generativer KI-Anwendungen in der Hochschullehre, z.B. im Rahmen einer Studienleistung, ist nur möglich, wenn es hierfür datenschutzkonforme Lösungen gibt. Viele externe, frei verfügbare KI-Anwendungen erfordern eine Anmeldung unter Angabe personenbezogener Daten (E-Mail, Telefonnummer, teilweise Kreditkartennummer). Für den Einsatz in der Lehre kann dies von den Studierenden mangels Rechtsgrundlage nicht verlangt werden.

Die MLU stellt daher ihren Lehrenden und Studierenden einen eigenen, datenschutzkonformen Zugang (MLU-KI) auf Basis der bundesweit verfügbaren Schnittstelle HAWKI bereit. Der Zugang ist über das normale Nutzerkürzel zu erreichen. Bei der Konzeption wurde besonderen Wert auf den Datenschutz gelegt, so sind z.B. die Chatverläufe verschlüsselt lokal gespeichert und können über einen Access-Key individuell auch auf andere, eigene Geräte übertragen werden.

Das Angebot an LLM's umfasst derzeit (Stand 20.05.2025) insgesamt sowohl drei kostenfreie Open-Source Sprachmodelle sowie einen kostenpflichtigen Zugänge zu ChatGPT-4. Die Kosten für ChatGPT werden derzeit von der MLU übernommen.

Für die Erstbenutzung der Schnittstelle empfehlen wir das Video sowie weiter unten die detaillierte Anleitung.

Beschreibung der an der MLU eingesetzten Sprachmodelle:

Mistral AI (Frankreich)

Mistral Large Instruct ist ein europäisches Sprachmodell. Es ist auf Instruct-Aufgaben für Anweisungen in natürlicher Sprache optimiert und erreicht eine hohe Geschwindigkeit bei entsprechender Installation. Das Modell zeigt starke Leistungen in Programmieraufgaben und übertrifft teilweise Llama 3.1 405B. Es eignet sich besonders für Anwendungen mit hohem Durchsatz wie Echtzeit-Chatbots und Programmierassistenten. Lange Kontexte werden unterstützt.

Llama 3.1 (Meta Platforms, USA)

Llama 3.1 70B ist für eine breite Nutzung angelegt und eignet sich für Textgenerierung, Codierung und logischem Denken. Es übertrifft GPT-4o in bestimmten Benchmarks. Es ist vielseitig einsetzbar in Forschung, Bildung und Unternehmen. Die Verarbeitung erfolgt mit guter Geschwindigkeit und effizienter, als bei Vorläufermodellen. Das Modell unterstützt Kontexte bis zu 128.000 Tokens.

Qwen 2.5 Coder 32B (Alibaba Cloud, China)

Qwen 2.5 Coder 32B ist auf Programmieraufgaben spezialisiert und bietet sehr gute Leistungen in Codegenerierung und Codereparatur. Es übertrifft dabei größere Modelle in Benchmarks. Das Modell eignet sich besonders für Entwickler und Unternehmen mit Schwerpunkt Softwareentwicklung. Es arbeitet mit guter Geschwindigkeit und unterstützt mehrere Programmiersprachen sowie mathematische Aufgaben


ChatGPT (OpenAI, USA)

Das aktuelle ChatGPT-Modell basiert auf GPT-4-turbo und ist auf Instruct-Aufgaben optimiert. Es liefert hohe Genauigkeit, gute Sprachqualität und hohe Leistungen im logischen Denken, Textverarbeitung und Programmieraufgaben. Das Modell ist vielseitig einsetzbar in der Bildung. Es unterstützt lange Kontexte mit bis zu 128.000 Tokens und bietet je nach gebuchtem Umfang auch Zusatzfunktionen. Die Geschwindigkeit ist stabil und anwendungsfreundlich.

Links