Volltextdatei(en) in REPOSIT vorhanden Open Access
Titel: Untersuchung der Auswirkung von Skalierung vor dem SoftMax Layer auf die Robustheit eines Neuronalen Netzes
Sprache: Deutsch
Autorenschaft: Schradick, Lara Felina 
Schlagwörter: Neuronale Netze; Robustheit; Maschinelles Lernen; SoftMax; Skalierungseffekt; Label Noise; Vanishing Gradients; Batch Normalisation; Neural Networks; Stability; Machine Learning; Softmax; scaling; label noise; vanishing Gradients; batch Normalisation
Erscheinungsdatum: 2-Aug-2024
Zusammenfassung: 
Vergleich von drei verschiedenen Ansätzen zur Stabilisierung neuronaler Netze gegen zwei unterschiedliche Arten von inkorrekt gelabelten Trainingsdaten. Dabei wollen alle drei Ansätze durch Abgrenzung von Logits ein besseres Trainingsergebnis erzielen. Zwei der Ansätze enthalten extra Schritte um Vanishing Gradients vorzubeugen.

Comparison of three different approaches to stabilize neural networks against two different types of incorrectly labeled training data. All three approaches aim to achieve a better training result by better differentiating logits. Two of the approaches include extra steps to prevent vanishing gradients.
URI: https://hdl.handle.net/20.500.12738/16136
Einrichtung: Fakultät Technik und Informatik 
Department Informatik 
Dokumenttyp: Abschlussarbeit
Abschlussarbeitentyp: Bachelorarbeit
Hauptgutachter*in: Stelldinger, Peer  
Gutachter*in der Arbeit: Buth, Bettina 
Enthalten in den Sammlungen:Theses

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
BA_Skalierung auf dem SoftMax Layer_Neuronales Netz.pdf1.48 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Seitenansichten

47
checked on 24.11.2024

Download(s)

46
checked on 24.11.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.