Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorClemen, Thomas-
dc.contributor.authorKhalidi, Ahmad-
dc.date.accessioned2025-11-05T08:55:17Z-
dc.date.available2025-11-05T08:55:17Z-
dc.date.created2025-03-13-
dc.date.issued2025-11-05-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/18353-
dc.description.abstractTrotz großer Fortschritte von großen Sprachmodellen (LLMs) der letzten Jahre in praktischen Anwendungs-zenarien leiden LLMs an Halluzinationen und Biases. Mit retrieval augmented generation (RAG) werden den Sprachmodellen zur Laufzeit eine Faktenbasis übergeben, auf die sie sich beziehen können. Bei Knowledge Graphen (KG) basiert dieser Prozess auf graph representation learning (GRL), einem Aufgabenfeld, welcher die Strukturen von Knoten und Kanten der Graphen auf niedrigsdimensionale Vektorräume abbildet. Die sogenannten knowledge graph embeddings (KGEs) bilden dabei die strukturelle Einbettung von Knoten und Kanten dieser KGs ab. In dieser Arbeit trainieren wir ein BERT-Modell auf die Klassifikationsaufgabe: link prediction. Wir weisen nach, dass sich die Performance steigert, wenn dem BERT-Modell nicht nur die natürlich sprachigen Elemente des KG übergeben werden, sondern vorverarbeitete KGEs, die von graph neuronalen Netzen (GNN) generiert worden sind. Wir untersuchen dann mit Hilfe von explainable AI (XAI) Methoden die inneren Zustände und Verhaltensweisen des BERT-Modells. Es stellte sich dabei heraus, dass BERT die aus dem GNN generierten KGEs nur teilweise zu interpretieren vermag. Dabei unterschied das Modell zwischen verschiedenen Strategien, zwischen denen es anhand weniger offensichtlichen Faktoren entschieden hat. Als eine der wichtigsten Einflussfaktoren stellte sich die Konnektivität von Knoten heraus.de
dc.description.abstractDespite major advances in large language models (LLMs) in recent years in practical scenarios, LLMs suffer from hallucinations and biases. With retrieval augmented generation (RAG), the language models are given a fact base at runtime to which they can refer. For knowledge graphs (KG), this process is based on graph representation learning (GRL), a task field that maps the structures of nodes and edges of the graphs to low-dimensional vector spaces. The so-called knowledge graph embeddings (KGEs) represent the structural embedding of nodes and edges of these KGs. In this work, we train a BERT model on the classification task: link prediction. We prove that the performance increases when the BERT model is not only given the natural language elements of the KG, but also preprocessed KGEs generated by graph neural networks (GNN). We then use explainable AI (XAI) methods to examine the internal states and behaviors of the BERT model. It turned out that BERT is only partially able to interpret the KGEs generated from the GNN. The model distinguished between different strategies, between which it decided on the basis of less obvious factors. One of the most important influencing factors turned out to be the connectivity of nodes.en
dc.language.isoenen_US
dc.subjectLarge Language Modelingen_US
dc.subjectLLMen_US
dc.subjectBERTen_US
dc.subjectGraph Representation Learningen_US
dc.subjectGNNen_US
dc.subjectGCNen_US
dc.subjectLink Predictionen_US
dc.subject.ddc004: Informatiken_US
dc.titleAn Explainability Analysis of BERT’s Interpretability with GNN-Generated Knowledge Graph Embeddings Delivered through Soft Promptsen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentDepartment Informatik (ehemalig, aufgelöst 10.2025)en_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeTropmann-Frick, Marina-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-222241-
tuhh.oai.showtrueen_US
tuhh.publication.instituteDepartment Informatik (ehemalig, aufgelöst 10.2025)en_US
tuhh.publication.instituteFakultät Technik und Informatik (ehemalig, aufgelöst 10.2025)en_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDClemen, Thomas-
item.languageiso639-1en-
item.openairetypeThesis-
item.fulltextWith Fulltext-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidKhalidi, Ahmad-
item.cerifentitytypePublications-
item.creatorGNDKhalidi, Ahmad-
item.grantfulltextopen-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Zur Kurzanzeige

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.