Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorTropmann-Frick, Marina-
dc.contributor.authorTran, Thien Phuc-
dc.date.accessioned2024-08-02T09:31:52Z-
dc.date.available2024-08-02T09:31:52Z-
dc.date.created2023-10-27-
dc.date.issued2024-08-02-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16131-
dc.description.abstractIn dieser Arbeit werden globale kontextualisierte Repräsentationen (GCoRe) vorgestellt - ein Zusatzmodul zu bestehenden Transformer-basierten Sprachmodellen, das die Leistung bei Question-Answering / Machine-Reading - Comprehension Aufgaben verbessert. Während Transformer-basierte Modelle eine begrenzte Eingabelänge haben und oft nicht in der Lage sind, globalen Kontext und weitreichende Abhängigkeiten zu erfassen, wird GCoRe entwickelt, um diese Probleme zu entschärfen, indem Graph-Inferenz mit Graph Neural Networks auf einem Kontextgraphen durchgeführt wird, der aus dem gesamten Eingabetext konstruiert wurde. Die kontextualisierten Token-Embeddings werden dann mit den aus dem Kontextgraphen abgeleiteten globalen kontextualisierten Merkmalen angereichert. Die Experiment-Ergebnisse zeigen, dass GCoRe das Basismodell im HotpotQA-Datensatz, der aus komplexen Fragen und langen Kontexttexten besteht, um 0,57% übertrifft. Auch im SQuAD 2.0-Datensatz, der kürzere Absätze und Single-Hop-Fragen enthält, übertrifft GCoRe das Basismodell um 0.15%. Besonders bemerkenswert ist, dass GCoRe eine Frage, die Schlussfolgerungen über familiäre Beziehungen erfordert, korrekt beantwortet, während das Basismodell DeBERTa v3 die Frage nicht korrekt beantworten kann.de
dc.description.abstractThis thesis introduces Global Contextualized Representations (GCoRe) – an add-on module to existing Transformer-based language models, which helps improve the performance on Question Answering / Machine Reading Comprehension tasks. Whereas Transformerbased models have limited input length and often fail to capture global context and long-range dependencies, GCoRe is designed to mitigate these problems by performing graph inference using Graph Neural Networks on a context graph constructed from the entire input text. The contextualized token embeddings are then augmented with the inferred global contextualized features derived from the context graph. The experimental results demonstrate that GCoRe surpasses the baseline model by 0.57% in the HotpotQA dataset, which comprises complex questions and lengthy context texts. GCoRe also outperforms the baseline model by 0.15% in the SQuAD 2.0 dataset which contains shorter paragraphs and single-hop questions. Notably, GCoRe accurately answers a question that requires reasoning about familial relationships, while the baseline model, DeBERTa v3, fails to answer the question correctly.en
dc.language.isoenen_US
dc.subjectNatural Language Processingen_US
dc.subjectTransformersen_US
dc.subjectGraph Neural Networksen_US
dc.subjectKnowledge Graphsen_US
dc.subjectQuestion Answeringen_US
dc.subjectMachine Reading Comprehensionen_US
dc.subject.ddc004: Informatiken_US
dc.titleGlobal Contextualized Representations: Enhancing Machine Reading Comprehension with Graph Neural Networksen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeSarstedt, Stefan-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-191446-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDTropmann-Frick, Marina-
item.creatorGNDTran, Thien Phuc-
item.languageiso639-1en-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidTran, Thien Phuc-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
MA_Global Contextualized Representations.pdf2.25 MBAdobe PDFView/Open
Show simple item record

Page view(s)

37
checked on Nov 24, 2024

Download(s)

42
checked on Nov 24, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.