Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorTropmann-Frick, Marina-
dc.contributor.authorSchomacker, Thorben-
dc.date.accessioned2025-02-13T12:35:30Z-
dc.date.available2025-02-13T12:35:30Z-
dc.date.created2022-12-15-
dc.date.issued2025-02-13-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/17075-
dc.description.abstractTransformer-models have become the most prominent method for solving a multitude of natural language processing (NLP) tasks since their introduction in 2017. Natural Language Generation (NLG) is one of these problems. In this thesis we applied modern NLG-techniques to the problem of text simplification. Text simplification can be desribed as an intra-language translation task, where standard language is translated to simple language. Currently there are only a few German datasets available for Text Simplification. Even fewer with larger and aligned Documents, and not a single one with narrative texts. With this paper we firstly explore to which degree modern NLG-techniques can be applied to our newly proposed German Narrative Text Simplifications dataset. We used Longformer Attention and a pre-trained mBART model. Our findings indicate that currently avaible approach are not able to solve the task properly. We conclude on a few directions for future research to adress this problem.en
dc.description.abstractTransformator-Modelle haben sich seit ihrer Einführung im Jahr 2017 zur Lösung einer Vielzahl von Aufgaben der natürlichen Sprachverarbeitung (NLP) durchgesetzt. Natural Language Generation (NLG) ist eines dieser Probleme. In dieser Arbeit haben wir moderne NLG-Techniken auf das Problem der Textvereinfachung angewendet. Textvereinfachung kann als eine innersprachliche Übersetzungsaufgabe beschrieben werden, bei der Standardsprache in einfache Sprache übersetzt wird. Derzeit gibt es nur wenige deutsche Datensätze zur Textvereinfachung. Noch weniger mit größeren und Dokumenten, die in beiden Versionen vorliegen. Und kein einziger mit narrativen Texten. In diesem Beitrag untersuchen wir zunächst, inwieweit sich moderne NLG-Techniken auf unseren neu eingeführten deutschen Datensatz für narrative Textvereinfachungen anwenden lassen. Wir haben Longformer Attention und ein vortrainiertes mBART-Modell verwendet. Unsere Ergebnisse zeigen, dass die derzeit verfügbaren Ansätze nicht in der Lage sind, die Aufgabe richtig zu lösen. Wir schließen mit einigen Hinweisen für die zukünftige Forschung, um dieses Problem zu adressieren.de
dc.language.isoenen_US
dc.subjectLanguage Generationen_US
dc.subjectTransformeren_US
dc.subjectNarrative Textsen_US
dc.subjectGermanen_US
dc.subjectLow-Resourceen_US
dc.subjectFew-Shoten_US
dc.subjectLarge Contexten_US
dc.subject.ddc004: Informatiken_US
dc.titleSimplification of German Narrative Documents with Longformer mBARTen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeZukunft, Olaf-
tuhh.contributor.refereeDönicke, Tillmann-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-207781-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairetypeThesis-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.fulltextWith Fulltext-
item.creatorOrcidSchomacker, Thorben-
item.advisorGNDTropmann-Frick, Marina-
item.languageiso639-1en-
item.creatorGNDSchomacker, Thorben-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
MA_Simplification of German Narrative Documents.pdf1.9 MBAdobe PDFView/Open
Show simple item record

Page view(s)

120
checked on Feb 26, 2025

Download(s)

17
checked on Feb 26, 2025

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.