Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorPutzar, Larissa-
dc.contributor.authorBannach, Jacek-
dc.date.accessioned2026-03-30T12:23:42Z-
dc.date.available2026-03-30T12:23:42Z-
dc.date.issued2025-05-23-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/19140-
dc.description.abstractModerne Sprachmodelle haben in den vergangenen Jahren gezeigt, dass sie als textbasierte Assistentensysteme sehr gut funktionieren. Jedoch stellt für die Modelle weiterhin die Herausforderung dar, auf der Basis verschiedener Fragen vernünftige, konsistente und kontextbezogene Antworten zu generieren. Eine mögliche Verbesserung, um diesem Problem entgegenzuwirken, ist der Aufbau sogenannter RAG-Systeme (Retrieval-Augmented Generation), die einem Sprachmodell spezifischen, relevanten und thematisch passenden Kontext zu einer Frage bereitstellen. Untersuchungen haben zunächst gezeigt, dass es viele verschiedene Metriken gibt, um die Präzision und Leistungsfähigkeit dieser Systeme zu bewerten. Mit den verschiedenen Metriken und einem Datensatz zur Auswertung von Sprachmodellen sowie RAG-Systemen wurde ein umfassender Test entwickelt, um diese Systeme systematisch und objektiv zu evaluieren. Verschiedene Sprachmodelle sowie RAG-Systeme wurden mit diesem Test ausführlich getestet. Anhand der Untersuchungen konnte gezeigt werden, dass die Präzision der Sprachmodelle steigt, sobald sie einen spezifischen Kontext zu einer Frage erhalten. Dies bedeutet, dass RAG-Systeme im Vergleich zu reinen Sprachmodellen in der Regel generell präziser sind.de
dc.description.abstractModern language models have shown in recent years that they work very well as text-based assistant systems. However, these models still face the challenge of generating reasonable, consistent, and context-related answers based on various questions. A possible improvement to counteract this problem is the development of so-called RAG systems (Retrieval-Augmented Generation), which provide a language model with specific, relevant, and thematically appropriate context for a question. Research has initially shown that there are many different metrics to evaluate the precision and performance of these systems. Using various metrics and a dataset to evaluate language models and RAG systems, a comprehensive test was developed to systematically and objectively assess these systems. Various language models and RAG systems were extensively tested with this test. The tests showed that the precision of the language models increases as soon as they are given specific context for a question. This means that RAG systems are generally more precise than pure language models.en
dc.language.isodeen_US
dc.subject.ddc004: Informatiken_US
dc.titleMethoden zur Evaluierung von RAG-Systemen und Analyse der Grenzen, Faktoren und Implikationen für den praktischen Einsatzde
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Design, Medien und Information (ehemalig, aufgelöst 10.2025)en_US
thesis.grantor.departmentDepartment Medientechnik (ehemalig, aufgelöst 10.2025)en_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeOrtmann, Thorben-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-236868-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Design, Medien und Information (ehemalig, aufgelöst 10.2025)en_US
tuhh.publication.instituteDepartment Medientechnik (ehemalig, aufgelöst 10.2025)en_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.openairetypeThesis-
item.creatorOrcidBannach, Jacek-
item.creatorGNDBannach, Jacek-
item.advisorGNDPutzar, Larissa-
item.grantfulltextopen-
item.languageiso639-1de-
item.fulltextWith Fulltext-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.cerifentitytypePublications-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
BA_Methoden_zur_Evaluierung.pdf774.63 kBAdobe PDFView/Open
Show simple item record

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.