Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorTropmann-Frick, Marina-
dc.contributor.authorSchomacker, Thorben-
dc.date.accessioned2024-05-15T08:18:42Z-
dc.date.available2024-05-15T08:18:42Z-
dc.date.created2020-11-16-
dc.date.issued2024-05-15-
dc.identifier.urihttp://hdl.handle.net/20.500.12738/15731-
dc.description.abstractTextzusammenfassung ist ein etabliertes Problem im NLP-Bereich. Der rasch anwachsende Erfolg von deep learning Algorithmen führte zur Entwicklung des attention Mechanismus, welcher wiederum die Grundlage für die Transformer Architektur bildet. Die Transformer Architektur ist ein transfer learning Ansatz NLP Probleme zu lösen. BERT, ein pre-trained Transformer Modell, hat herausragende Ergebnis beim Lösen verschiedener NLP-Probleme erzielt. In dieser Abschlussarbeit wird BertSum, eine Erweiterung BERTs spezialisiert auf extrahierende Textzusammenfassung, auf neuronale Textzusammenfassung von lateinischen und deutschen Texten angewandt. Dies stellt eine besondere Herausforderung dar, denn die Texte wurden zu einer Zeit verfasst, in der noch keine festgeschriebene Orthographie, Morphologie und Semantik existierte.de
dc.description.abstractText summarization is an established problem in the field of NLP. The rapidly growing success of deep learning algorithms in solving NLP problems has led to the attention mechanism, which is the foundation for the Transformer architecture, a transfer learning approach for NLP tasks. BERT, a pre-trained Transformer model, has performed exceptionally well on various NLP tasks. This thesis applies BertSum, an enhancement of BERT specialized for extractive text summarization, to the neural text summarization of Latin and German texts. The distinctiveness of the chosen corpus is that it consists of medieval documents. This poses a challenge because the documents were written in a time where orthography, morphology, and semantics were not well defined.en
dc.language.isoenen_US
dc.subjectNLPen_US
dc.subjectExtractive Summarizationen_US
dc.subjectTransformeren_US
dc.subjectBERTen_US
dc.subjectBertSumen_US
dc.subjectTransfer Learningen_US
dc.subject.ddc004: Informatiken_US
dc.titleApplication of Transformer-based Methods to Latin Text Analysisen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeZukunft, Olaf-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-185813-
tuhh.oai.showtrueen_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDTropmann-Frick, Marina-
item.creatorGNDSchomacker, Thorben-
item.languageiso639-1en-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidSchomacker, Thorben-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
Show simple item record

Page view(s)

85
checked on Nov 25, 2024

Download(s)

105
checked on Nov 25, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.