Titel: | Untersuchung der Auswirkung von Skalierung vor dem SoftMax Layer auf die Robustheit eines Neuronalen Netzes | Sprache: | Deutsch | Autorenschaft: | Schradick, Lara Felina | Schlagwörter: | Neuronale Netze; Robustheit; Maschinelles Lernen; SoftMax; Skalierungseffekt; Label Noise; Vanishing Gradients; Batch Normalisation; Neural Networks; Stability; Machine Learning; Softmax; scaling; label noise; vanishing Gradients; batch Normalisation | Erscheinungsdatum: | 2-Aug-2024 | Zusammenfassung: | Vergleich von drei verschiedenen Ansätzen zur Stabilisierung neuronaler Netze gegen zwei unterschiedliche Arten von inkorrekt gelabelten Trainingsdaten. Dabei wollen alle drei Ansätze durch Abgrenzung von Logits ein besseres Trainingsergebnis erzielen. Zwei der Ansätze enthalten extra Schritte um Vanishing Gradients vorzubeugen. Comparison of three different approaches to stabilize neural networks against two different types of incorrectly labeled training data. All three approaches aim to achieve a better training result by better differentiating logits. Two of the approaches include extra steps to prevent vanishing gradients. |
URI: | https://hdl.handle.net/20.500.12738/16136 | Einrichtung: | Fakultät Technik und Informatik Department Informatik |
Dokumenttyp: | Abschlussarbeit | Abschlussarbeitentyp: | Bachelorarbeit | Hauptgutachter*in: | Stelldinger, Peer | Gutachter*in der Arbeit: | Buth, Bettina |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
BA_Skalierung auf dem SoftMax Layer_Neuronales Netz.pdf | 1.48 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.