Fulltext available Open Access
Title: Evaluierung ausgewählter xAI-Methoden zur Nachvollziehbarkeit von Diskriminator-Entscheidungen in GANs
Language: German
Authors: Meyer, Paul 
Keywords: xAI; Nachvollziehbarkeit; Erklärbarkeit; Interpretierbarkeit; GAN
Issue Date: 6-Dec-2024
Abstract: 
Generative Adversarial Nets (GAN) haben in den letzten Jahren an Popularität gewonnen, in der Forschung und auch im kommerziellen Einsatz. GANs können genutzt werden, um künstlich Bilder, Text oder Ton zu erzeugen. Weiterhin eignen sie sich dazu, Trainingsdatensätze künstlich zu erweitern und die Auflösung von Bildern zu verbessern. In der jüngeren Vergangenheit hat außerdem das Thema Nachvollziehbarkeit algorithmischer Entscheidungen an Bedeutung gewonnen. Zum einen getrieben durch die Forschung, aber auch durch Gesetzgeber und Regulierungsbehörden. Der Ruf nach Nachvollziehbarkeit betrifft daher auch Künstliche Intelligenz und Anwendungen wie GANs. Diese Arbeit untersucht wie GANs für Nutzende besser nachvollziehbar gemacht werden können. Dazu werden die Ausgaben eines Teilmodells des GAN (Diskriminator) mit Methoden zur Nachvollziehbarkeit von Künstlicher Intelligenz analysiert. Außerdem wird überprüft, wie verständlich die Erklärungen dieser Methoden für Nutzende eines GAN sind. Dafür wurde ein Proof of Concept zum Vergleich der Methoden entwickelt, die ein GAN analysieren, welches künstliche Bilder generiert.

Generative Adversarial Nets (GAN) have gained popularity in both research and industry. GANs are used to generate artificial images, texts, or audio waves. GANs are either able to expand training datasets or improve the resolution of images. The topic of traceability of algorithmic decisions has also gained importance in the recent past. This development is driven by researchers and either by legislative authorities or regulators. The need for traceability applies to Artificial Intelligence and generative models like GANs. This thesis examinates how the traceability of GANs can be improved for any user. To do so the outcomes of a GANs discriminative model (discriminator) are analyzed with xAI methods. Additionally, it is examined how comprehensible the explanations provided by the xAI methods are for any user. Therefore, a proof of concept has been developed to compare the xAI methods. Within the proof of concept, the xAI methods analyze a GAN which generates artificial images.
URI: https://hdl.handle.net/20.500.12738/16668
Institute: Fakultät Technik und Informatik 
Department Informatik 
Type: Thesis
Thesis type: Bachelor Thesis
Advisor: Tropmann-Frick, Marina  
Referee: Clemen, Thomas  
Appears in Collections:Theses

Files in This Item:
File Description SizeFormat
BA_Evaluierung_ausgewählter_xAI-Methoden.pdf3.17 MBAdobe PDFView/Open
Show full item record

Page view(s)

20
checked on Dec 21, 2024

Download(s)

18
checked on Dec 21, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.