
Titel: | Application of Transformer-based Methods to Latin Text Analysis |
Sprache: | Englisch |
Autorenschaft: | Schomacker, Thorben |
Schlagwörter: | NLP; Extractive Summarization; Transformer; BERT; BertSum; Transfer Learning |
Erscheinungsdatum: | 15-Mai-2024 |
Zusammenfassung: | Textzusammenfassung ist ein etabliertes Problem im NLP-Bereich. Der rasch anwachsende Erfolg von deep learning Algorithmen führte zur Entwicklung des attention Mechanismus, welcher wiederum die Grundlage für die Transformer Architektur bildet. Die Transformer Architektur ist ein transfer learning Ansatz NLP Probleme zu lösen. BERT, ein pre-trained Transformer Modell, hat herausragende Ergebnis bei... Text summarization is an established problem in the field of NLP. The rapidly growing success of deep learning algorithms in solving NLP problems has led to the attention mechanism, which is the foundation for the Transformer architecture, a transfer learning approach for NLP tasks. BERT, a pre-trained Transformer model, has performed exceptionally well on various NLP tasks. This thesis applies Be... |
URI: | http://hdl.handle.net/20.500.12738/15731 |
Einrichtung: | Department Informatik Fakultät Technik und Informatik |
Dokumenttyp: | Abschlussarbeit |
Abschlussarbeitentyp: | Bachelorarbeit |
Hauptgutachter*in: | Tropmann-Frick, Marina ![]() |
Gutachter*in der Arbeit: | Zukunft, Olaf |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
BA_Application of Transformer-based Methods_geschwärzt.pdf | 1.49 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.