Facts4Chat

Ist eine Projektgruppe als Modul des Masters Informatik an der TU Dortmund.

Gruppenmitglieder

Ahmed Asakrah   Robin Ebbinghaus   Michael Frichert   Nico Jeske
Colin Kolbe   Benedikt Kordus   Jonas Röger   Daniel Spenner

Mehr Informationen

PG-662 Modulseite

Betreut von

Prof. Dr. Erich Schubert
Pierre Haritz (from 01.2024)
Dr. Lukas Pfahler (till 01.2024)

Info

Haftungsausschluss

Unsere Anwendung ist nicht als Ersatz für Anwendungen wie Chat-GPT gedacht. Stattdessen ist es unser Ziel, Lösungen für Vorlesungen auf Universitätsniveau zu schaffen. Wir verwenden notwendige Cookies, speichern aber die Abfragen und Antworten des Modells zur Feinabstimmung. Seien Sie also vorsichtig und geben Sie keine vertraulichen Informationen an. Darüber hinaus möchten wir vor den Einschränkungen von LLMs warnen, wie Halluzinationen und verschiedenen Formen von Verzerrungen.

Large Language Models

LLMs, zu Deutsch große Sprachmodelle, entwickeln sich schnell und werden immer leistungsfähiger. Allerdings handelt es sich immer noch um generative Modelle. Das heißt, sie sind sehr gut darin, das nächste Wort auf der Grundlage ihrer Trainingsdaten und des gegebenen Kontexts vorherzusagen, haben aber kein Verständnis dafür, was eine Tatsache ist.

Halluzinationen

Das nächste Wort vorherzusagen, aber nicht das wahrscheinlichste Token zu wählen, sondern eines der wahrscheinlichsten Token, trägt wesentlich dazu bei, dass sich die Kommunikation mit heutigen LLMs natürlicher anfühlt. Diese Art der Wortvorhersage kann zu kreativen, aber oft nicht-faktischen Ergebnissen führen, sogenannten Halluzinationen. Dies liegt daran, dass ein Modell Token basierend auf dem gegebenen Kontext generiert, unabhängig davon, ob es etwas über dieses Thema „weiß“ oder nicht.

Retrieval Augmented Generation

RAG, zu Deutsch datengestützte Generierung, ist ein Weg um Halluzinationen zu reduzieren und die Qualität der Ausgabe zu verbessern. Das bedeutet, dass für jede Abfrage an das LLM zunächst eine Wissensdatenbank nach relevantem Kontext durchsucht wird, um sie mit der ursprünglichen Abfrage zu verknüpfen. Dieser Ansatz ist in seiner Skalierung begrenzt, da die Datenbank zuerst erstellt werden muss. Ziel dieses Ansatzes ist jedoch nicht die Skalierung auf alle Informationen der Welt, sondern die Verwendung für bestimmte Zwecke und in Fällen, in denen die spezifischen Daten beispielsweise privat sind..

Interessante Materialien


OpenAI ResearchMixture Of Experts