Volltextdatei(en) in REPOSIT vorhanden Open Access
Titel: Evaluierung ausgewählter xAI-Methoden zur Nachvollziehbarkeit von Diskriminator-Entscheidungen in GANs
Sprache: Deutsch
Autorenschaft: Meyer, Paul 
Schlagwörter: xAI; Nachvollziehbarkeit; Erklärbarkeit; Interpretierbarkeit; GAN
Erscheinungsdatum: 6-Dez-2024
Zusammenfassung: 
Generative Adversarial Nets (GAN) haben in den letzten Jahren an Popularität gewonnen, in der Forschung und auch im kommerziellen Einsatz. GANs können genutzt werden, um künstlich Bilder, Text oder Ton zu erzeugen. Weiterhin eignen sie sich dazu, Trainingsdatensätze künstlich zu erweitern und die Auflösung von Bildern zu verbessern. In der jüngeren Vergangenheit hat außerdem das Thema Nachvollziehbarkeit algorithmischer Entscheidungen an Bedeutung gewonnen. Zum einen getrieben durch die Forschung, aber auch durch Gesetzgeber und Regulierungsbehörden. Der Ruf nach Nachvollziehbarkeit betrifft daher auch Künstliche Intelligenz und Anwendungen wie GANs. Diese Arbeit untersucht wie GANs für Nutzende besser nachvollziehbar gemacht werden können. Dazu werden die Ausgaben eines Teilmodells des GAN (Diskriminator) mit Methoden zur Nachvollziehbarkeit von Künstlicher Intelligenz analysiert. Außerdem wird überprüft, wie verständlich die Erklärungen dieser Methoden für Nutzende eines GAN sind. Dafür wurde ein Proof of Concept zum Vergleich der Methoden entwickelt, die ein GAN analysieren, welches künstliche Bilder generiert.

Generative Adversarial Nets (GAN) have gained popularity in both research and industry. GANs are used to generate artificial images, texts, or audio waves. GANs are either able to expand training datasets or improve the resolution of images. The topic of traceability of algorithmic decisions has also gained importance in the recent past. This development is driven by researchers and either by legislative authorities or regulators. The need for traceability applies to Artificial Intelligence and generative models like GANs. This thesis examinates how the traceability of GANs can be improved for any user. To do so the outcomes of a GANs discriminative model (discriminator) are analyzed with xAI methods. Additionally, it is examined how comprehensible the explanations provided by the xAI methods are for any user. Therefore, a proof of concept has been developed to compare the xAI methods. Within the proof of concept, the xAI methods analyze a GAN which generates artificial images.
URI: https://hdl.handle.net/20.500.12738/16668
Einrichtung: Fakultät Technik und Informatik 
Department Informatik 
Dokumenttyp: Abschlussarbeit
Abschlussarbeitentyp: Bachelorarbeit
Hauptgutachter*in: Tropmann-Frick, Marina  
Gutachter*in der Arbeit: Clemen, Thomas  
Enthalten in den Sammlungen:Theses

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
BA_Evaluierung_ausgewählter_xAI-Methoden.pdf3.17 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Seitenansichten

20
checked on 21.12.2024

Download(s)

18
checked on 21.12.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.