Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorTropmann-Frick, Marina-
dc.contributor.authorMeyer, Paul-
dc.date.accessioned2024-12-06T11:14:15Z-
dc.date.available2024-12-06T11:14:15Z-
dc.date.created2024-05-30-
dc.date.issued2024-12-06-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16668-
dc.description.abstractGenerative Adversarial Nets (GAN) haben in den letzten Jahren an Popularität gewonnen, in der Forschung und auch im kommerziellen Einsatz. GANs können genutzt werden, um künstlich Bilder, Text oder Ton zu erzeugen. Weiterhin eignen sie sich dazu, Trainingsdatensätze künstlich zu erweitern und die Auflösung von Bildern zu verbessern. In der jüngeren Vergangenheit hat außerdem das Thema Nachvollziehbarkeit algorithmischer Entscheidungen an Bedeutung gewonnen. Zum einen getrieben durch die Forschung, aber auch durch Gesetzgeber und Regulierungsbehörden. Der Ruf nach Nachvollziehbarkeit betrifft daher auch Künstliche Intelligenz und Anwendungen wie GANs. Diese Arbeit untersucht wie GANs für Nutzende besser nachvollziehbar gemacht werden können. Dazu werden die Ausgaben eines Teilmodells des GAN (Diskriminator) mit Methoden zur Nachvollziehbarkeit von Künstlicher Intelligenz analysiert. Außerdem wird überprüft, wie verständlich die Erklärungen dieser Methoden für Nutzende eines GAN sind. Dafür wurde ein Proof of Concept zum Vergleich der Methoden entwickelt, die ein GAN analysieren, welches künstliche Bilder generiert.de
dc.description.abstractGenerative Adversarial Nets (GAN) have gained popularity in both research and industry. GANs are used to generate artificial images, texts, or audio waves. GANs are either able to expand training datasets or improve the resolution of images. The topic of traceability of algorithmic decisions has also gained importance in the recent past. This development is driven by researchers and either by legislative authorities or regulators. The need for traceability applies to Artificial Intelligence and generative models like GANs. This thesis examinates how the traceability of GANs can be improved for any user. To do so the outcomes of a GANs discriminative model (discriminator) are analyzed with xAI methods. Additionally, it is examined how comprehensible the explanations provided by the xAI methods are for any user. Therefore, a proof of concept has been developed to compare the xAI methods. Within the proof of concept, the xAI methods analyze a GAN which generates artificial images.en
dc.language.isodeen_US
dc.subjectxAIen_US
dc.subjectNachvollziehbarkeiten_US
dc.subjectErklärbarkeiten_US
dc.subjectInterpretierbarkeiten_US
dc.subjectGANen_US
dc.subject.ddc004: Informatiken_US
dc.titleEvaluierung ausgewählter xAI-Methoden zur Nachvollziehbarkeit von Diskriminator-Entscheidungen in GANsde
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeClemen, Thomas-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-199775-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.creatorGNDMeyer, Paul-
item.fulltextWith Fulltext-
item.creatorOrcidMeyer, Paul-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.advisorGNDTropmann-Frick, Marina-
item.languageiso639-1de-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
BA_Evaluierung_ausgewählter_xAI-Methoden.pdf3.17 MBAdobe PDFView/Open
Show simple item record

Page view(s)

20
checked on Dec 21, 2024

Download(s)

18
checked on Dec 21, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.