Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorvon Luck, Kai-
dc.contributor.authorZach, Juri-
dc.date.accessioned2024-01-05T10:53:07Z-
dc.date.available2024-01-05T10:53:07Z-
dc.date.created2021-05-03-
dc.date.issued2024-01-05-
dc.identifier.urihttp://hdl.handle.net/20.500.12738/14535-
dc.description.abstractDer Forschungsbereich der künstlichen Intelligenz hat in den letzten Jahren große Fortschritte gemacht, insbesondere im Bereich der neuronalen Netze. Der Einsatz von neuronalen Netzen in sicherheitskritischen Anwendungsbereichen birgt dennoch einige Risiken, da neuronale Netze Black Box Systeme sind. Das bedeutet, dass zum jetzigen Zeitpunkt weder das gelernte Wissen noch die Entscheidungsgrundlagen von neuronalen Netzen verstanden werden. Der Forschungsbereich der erklärbaren künstlichen Intelligenz versucht, dieses Problem durch die Entwicklung von Interpretationsmethoden für neuronale Netze zu lösen. Doch obwohl auch hier große Fortschritte erzielt wurden, bleiben sowohl das gelernte Wissen von neuronalen Netzen als auch dessen Entscheidungsgrundlagen größtenteils unbekannt. Besonders vorangetrieben wurde die Entwicklung besserer Interpretationsmethoden durch bessere Regularisierungsmethoden. Leider gibt es in der wissenschaftlichen Gemeinschaft noch keinen genauen Konsens darüber, was Regularisierungsmethoden genau leisten sollen. In dieser Arbeit werden die Anforderungen an Regularisierungsmethoden für Interpretationen von neuronalen Netzen definiert und eine Metrik entwickelt, mit der die Qualität einer Interpretation gemessen werden kann. Mithilfe dieser Qualitätsmetrik können Interpretationsmethode für neuronale Netze erstmals automatisiert verbessert werden. Dies wird experimentell bewiesen, indem Interpretationsmethoden für zwei unterschiedlich komplexe Netze mithilfe der Bayesschen Optimierung und evolutionärer Algorithmen optimiert werden. Die hierdurch entwickelten Interpretationsmethoden liefern vor allem auf den tiefen und schwer zu interpretierenden Schichten der neuronalen Netze gute und für Menschen verständliche Ergebnisse.de
dc.description.abstractThe research field of artificial intelligence has made great progress in recent years, especially in the area of neural networks. The use of neural networks in safety-critical application areas nevertheless involves some risks since neural networks are black box systems. This means that at this point in time, neither the learned knowledge nor the decisionmaking basis of neural networks is understood. The research area of explainable artificial intelligence is trying to solve this problem by developing interpretation methods for neural networks. However, although much progress has been made in this area as well, both the learned knowledge of neural networks and its basis for decision making remain largely unknown. In particular, the development of better interpretation methods has been driven by better regularization methods. Unfortunately there is not yet a precise consensus in the scientific community on exactly what regularization methods should do. This paper defines the requirements for regularization methods for neural network interpretation and develops a metric that can be used to measure the quality of an interpretation. With the help of this quality metric, interpretation methods for neural networks can be improved automatically for the first time. This is experimentally proven by optimizing interpretation methods for two differently complex networks using Bayesian optimization and evolutionary algorithms. The interpretation methods developed in this way deliver good results that are understandable for humans, even at the deep layers of the neural networks which are difficult to interpret.en
dc.language.isodeen_US
dc.subjectneuronale Netzeen_US
dc.subjectBayessche Optimierungen_US
dc.subjectkünstliche Intelligenzen_US
dc.subject.ddc004: Informatiken_US
dc.titleEntwicklung einer Qualitätsmetrik für Interpretationen von neuronalen Netzende
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeTiedemann, Tim-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-167677-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDvon Luck, Kai-
item.creatorGNDZach, Juri-
item.languageiso639-1de-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidZach, Juri-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
crisitem.author.deptDepartment Informatik-
crisitem.author.parentorgFakultät Technik und Informatik-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
Zach.pdf4.95 MBAdobe PDFView/Open
Show simple item record

Page view(s)

180
checked on Nov 26, 2024

Download(s)

63
checked on Nov 26, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.