Volltextdatei(en) in REPOSIT vorhanden Open Access
Titel: Application of Transformer-based Methods to Latin Text Analysis
Sprache: Englisch
Autorenschaft: Schomacker, Thorben 
Schlagwörter: NLP; Extractive Summarization; Transformer; BERT; BertSum; Transfer Learning
Erscheinungsdatum: 15-Mai-2024
Zusammenfassung: 
Textzusammenfassung ist ein etabliertes Problem im NLP-Bereich. Der rasch anwachsende Erfolg von deep learning Algorithmen führte zur Entwicklung des attention Mechanismus, welcher wiederum die Grundlage für die Transformer Architektur bildet. Die Transformer Architektur ist ein transfer learning Ansatz NLP Probleme zu lösen. BERT, ein pre-trained Transformer Modell, hat herausragende Ergebnis bei...

Text summarization is an established problem in the field of NLP. The rapidly growing success of deep learning algorithms in solving NLP problems has led to the attention mechanism, which is the foundation for the Transformer architecture, a transfer learning approach for NLP tasks. BERT, a pre-trained Transformer model, has performed exceptionally well on various NLP tasks. This thesis applies Be...
URI: http://hdl.handle.net/20.500.12738/15731
Einrichtung: Department Informatik 
Fakultät Technik und Informatik 
Dokumenttyp: Abschlussarbeit
Abschlussarbeitentyp: Bachelorarbeit
Hauptgutachter*in: Tropmann-Frick, Marina  
Gutachter*in der Arbeit: Zukunft, Olaf 
Enthalten in den Sammlungen:Theses

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
BA_Application of Transformer-based Methods_geschwärzt.pdf1.49 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Seitenansichten

112
checked on 06.04.2025

Download(s)

171
checked on 06.04.2025

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.