Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorStelldinger, Peer-
dc.contributor.authorSchradick, Lara Felina-
dc.date.accessioned2024-08-02T12:16:22Z-
dc.date.available2024-08-02T12:16:22Z-
dc.date.created2022-07-18-
dc.date.issued2024-08-02-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16136-
dc.description.abstractVergleich von drei verschiedenen Ansätzen zur Stabilisierung neuronaler Netze gegen zwei unterschiedliche Arten von inkorrekt gelabelten Trainingsdaten. Dabei wollen alle drei Ansätze durch Abgrenzung von Logits ein besseres Trainingsergebnis erzielen. Zwei der Ansätze enthalten extra Schritte um Vanishing Gradients vorzubeugen.de
dc.description.abstractComparison of three different approaches to stabilize neural networks against two different types of incorrectly labeled training data. All three approaches aim to achieve a better training result by better differentiating logits. Two of the approaches include extra steps to prevent vanishing gradients.en
dc.language.isodeen_US
dc.subjectNeuronale Netzeen_US
dc.subjectRobustheiten_US
dc.subjectMaschinelles Lernenen_US
dc.subjectSoftMaxen_US
dc.subjectSkalierungseffekten_US
dc.subjectLabel Noiseen_US
dc.subjectVanishing Gradientsen_US
dc.subjectBatch Normalisationen_US
dc.subjectNeural Networksen_US
dc.subjectStabilityen_US
dc.subjectMachine Learningen_US
dc.subjectSoftmaxen_US
dc.subjectscalingen_US
dc.subjectlabel noiseen_US
dc.subjectvanishing Gradientsen_US
dc.subjectbatch Normalisationen_US
dc.subject.ddc004: Informatiken_US
dc.titleUntersuchung der Auswirkung von Skalierung vor dem SoftMax Layer auf die Robustheit eines Neuronalen Netzesde
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeButh, Bettina-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-191485-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDStelldinger, Peer-
item.creatorGNDSchradick, Lara Felina-
item.languageiso639-1de-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidSchradick, Lara Felina-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
BA_Skalierung auf dem SoftMax Layer_Neuronales Netz.pdf1.48 MBAdobe PDFÖffnen/Anzeigen
Zur Kurzanzeige

Seitenansichten

47
checked on 24.11.2024

Download(s)

46
checked on 24.11.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.