Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorvon Luck, Kai-
dc.contributor.authorNitsche, Matthias
dc.date.accessioned2020-09-29T15:31:56Z-
dc.date.available2020-09-29T15:31:56Z-
dc.date.created2018
dc.date.issued2019-10-15
dc.identifier.urihttp://hdl.handle.net/20.500.12738/9137-
dc.description.abstractText summarization is an established sequence learning problem divided into extractive and abstractive models. While extractive models learn to only rank words and sentences, abstractive models learn to generate language as well. The great success of deep learning algorithms on sequence learning tasks led to an increase in sequence to sequence learning algorithms with an attention mechanism. At the same time, the research area around transfer learning, transferring knowledge different domains, languages and tasks, increased over the past years. Word embeddings like GloVe or Word2Vec, are still useful for practical purposes, but were overtaken by a new generation of language models. In this thesis we explore two of the most prominent language models named ELMo and BERT, applying them to the extractive summarization task. We contribute a new ensemble model between abstractive and extractive summarization achieving, a new state-of-the-art on the English CNN/DM dataset. Instead of only working with an academic English dataset, we introduce a new dataset in German from the Deutsche Presse Agentur (DPA). This poses a challenge since real world datasets in German have less available resources through pretrained language models and inhibit more noise. We establish several abstractive and extractive summarization baselines.en
dc.description.abstractTextzusammenfassung ist ein etabliertes Sequenzproblem, unterschieden durch extraktive und abstrahierende Modelle. Extraktive Modelle lernen, Wörter und Sätze zu ordnen, wobei irrelevante Informationen eliminiert werden. Bei abstrahierenden Modellen kommt zusätzlich die Aufgabe der Sprachgenerierung hinzu. Durch den großen Erfolg von Deep Learning Methoden nahmen sequence-to-sequence Algorithmen zu, insbesondere mit dem sogenannten "Attention"-Mechanismus. Hinzu kommt ein größerer Fokus auf Wissenstransfer zwischen verschiedenen Domänen, Sprachen und unterschiedlichen Aufgaben. Word Embeddings wie GloVe oder Word2Vec sind nach wie vor nützlich, wurden aber durch eine neue Generation von Sprachmodellen abgelöst. In dieser Arbeit untersuchen wir zwei der bekanntesten Sprachmodelle namens ELMo und BERT und wenden sie auf die extraktive Zusammenfassung an. Wir bringen ein neues Ensemble-Modell zwischen abstrahierender und extraktiver Zusammenfassung ein, das einen neuen Stand der Technik auf dem englischen CNN/DM-Datensatz erreicht. Anstatt nur mit einem akademischen englischen Datensatz zu arbeiten, führen wir zusätzlich einen neuartigen Datensatz in deutscher Sprache ein, bereitgestellt von der Deutschen Presse Agentur (DPA). Dies stellt eine Herausforderung dar, da reale Datensätze in deutscher Sprache über weniger verfügbare Ressourcen durch vortrainierte Sprachmodelle verfügen und mehr Rauschen beinhaltet.de
dc.language.isodede
dc.rights.urihttp://rightsstatements.org/vocab/InC/1.0/-
dc.subjectNeural Networksen
dc.subjectNLPen
dc.subjectSummarizationen
dc.subjectTransformersen
dc.subjectLanguage Modellingen
dc.subjectELMoen
dc.subjectBERTen
dc.subjectTransfer Learningen
dc.subject.ddc004 Informatik
dc.titleTowards German Abstractive Text Summarization using Deep Learningde
dc.typeThesis
openaire.rightsinfo:eu-repo/semantics/openAccess
thesis.grantor.departmentDepartment Informatik
thesis.grantor.placeHamburg
thesis.grantor.universityOrInstitutionHochschule für angewandte Wissenschaften Hamburg
tuhh.contributor.refereeTropmann-Frick, Marina-
tuhh.gvk.ppn1678894435
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-91391-
tuhh.note.externpubl-mit-pod
tuhh.note.intern1
tuhh.oai.showtrueen_US
tuhh.opus.id5219
tuhh.publication.instituteDepartment Informatik
tuhh.type.opusMasterarbeit-
dc.subject.gndNetzwerk
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersion
dc.type.thesismasterThesis
dcterms.DCMITypeText-
tuhh.dnb.statusdomain-
item.creatorGNDNitsche, Matthias-
item.fulltextWith Fulltext-
item.creatorOrcidNitsche, Matthias-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.advisorGNDvon Luck, Kai-
item.languageiso639-1de-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.openairetypeThesis-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
mnitsche_master_state_20190829.pdf4.43 MBAdobe PDFÖffnen/Anzeigen
Zur Kurzanzeige

Seitenansichten

942
checked on 27.12.2024

Download(s)

612
checked on 27.12.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.