Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorStelldinger, Peer-
dc.contributor.authorSchradick, Lara Felina-
dc.date.accessioned2024-08-02T12:16:22Z-
dc.date.available2024-08-02T12:16:22Z-
dc.date.created2022-07-18-
dc.date.issued2024-08-02-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16136-
dc.description.abstractVergleich von drei verschiedenen Ansätzen zur Stabilisierung neuronaler Netze gegen zwei unterschiedliche Arten von inkorrekt gelabelten Trainingsdaten. Dabei wollen alle drei Ansätze durch Abgrenzung von Logits ein besseres Trainingsergebnis erzielen. Zwei der Ansätze enthalten extra Schritte um Vanishing Gradients vorzubeugen.de
dc.description.abstractComparison of three different approaches to stabilize neural networks against two different types of incorrectly labeled training data. All three approaches aim to achieve a better training result by better differentiating logits. Two of the approaches include extra steps to prevent vanishing gradients.en
dc.language.isodeen_US
dc.subjectNeuronale Netzeen_US
dc.subjectRobustheiten_US
dc.subjectMaschinelles Lernenen_US
dc.subjectSoftMaxen_US
dc.subjectSkalierungseffekten_US
dc.subjectLabel Noiseen_US
dc.subjectVanishing Gradientsen_US
dc.subjectBatch Normalisationen_US
dc.subjectNeural Networksen_US
dc.subjectStabilityen_US
dc.subjectMachine Learningen_US
dc.subjectSoftmaxen_US
dc.subjectscalingen_US
dc.subjectlabel noiseen_US
dc.subjectvanishing Gradientsen_US
dc.subjectbatch Normalisationen_US
dc.subject.ddc004: Informatiken_US
dc.titleUntersuchung der Auswirkung von Skalierung vor dem SoftMax Layer auf die Robustheit eines Neuronalen Netzesde
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeButh, Bettina-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-191485-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDStelldinger, Peer-
item.creatorGNDSchradick, Lara Felina-
item.languageiso639-1de-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidSchradick, Lara Felina-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
BA_Skalierung auf dem SoftMax Layer_Neuronales Netz.pdf1.48 MBAdobe PDFView/Open
Show simple item record

Page view(s)

47
checked on Nov 24, 2024

Download(s)

46
checked on Nov 24, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.