Titel: | Evaluierung ausgewählter xAI-Methoden zur Nachvollziehbarkeit von Diskriminator-Entscheidungen in GANs | Sprache: | Deutsch | Autorenschaft: | Meyer, Paul | Schlagwörter: | xAI; Nachvollziehbarkeit; Erklärbarkeit; Interpretierbarkeit; GAN | Erscheinungsdatum: | 6-Dez-2024 | Zusammenfassung: | Generative Adversarial Nets (GAN) haben in den letzten Jahren an Popularität gewonnen, in der Forschung und auch im kommerziellen Einsatz. GANs können genutzt werden, um künstlich Bilder, Text oder Ton zu erzeugen. Weiterhin eignen sie sich dazu, Trainingsdatensätze künstlich zu erweitern und die Auflösung von Bildern zu verbessern. In der jüngeren Vergangenheit hat außerdem das Thema Nachvollziehbarkeit algorithmischer Entscheidungen an Bedeutung gewonnen. Zum einen getrieben durch die Forschung, aber auch durch Gesetzgeber und Regulierungsbehörden. Der Ruf nach Nachvollziehbarkeit betrifft daher auch Künstliche Intelligenz und Anwendungen wie GANs. Diese Arbeit untersucht wie GANs für Nutzende besser nachvollziehbar gemacht werden können. Dazu werden die Ausgaben eines Teilmodells des GAN (Diskriminator) mit Methoden zur Nachvollziehbarkeit von Künstlicher Intelligenz analysiert. Außerdem wird überprüft, wie verständlich die Erklärungen dieser Methoden für Nutzende eines GAN sind. Dafür wurde ein Proof of Concept zum Vergleich der Methoden entwickelt, die ein GAN analysieren, welches künstliche Bilder generiert. Generative Adversarial Nets (GAN) have gained popularity in both research and industry. GANs are used to generate artificial images, texts, or audio waves. GANs are either able to expand training datasets or improve the resolution of images. The topic of traceability of algorithmic decisions has also gained importance in the recent past. This development is driven by researchers and either by legislative authorities or regulators. The need for traceability applies to Artificial Intelligence and generative models like GANs. This thesis examinates how the traceability of GANs can be improved for any user. To do so the outcomes of a GANs discriminative model (discriminator) are analyzed with xAI methods. Additionally, it is examined how comprehensible the explanations provided by the xAI methods are for any user. Therefore, a proof of concept has been developed to compare the xAI methods. Within the proof of concept, the xAI methods analyze a GAN which generates artificial images. |
URI: | https://hdl.handle.net/20.500.12738/16668 | Einrichtung: | Fakultät Technik und Informatik Department Informatik |
Dokumenttyp: | Abschlussarbeit | Abschlussarbeitentyp: | Bachelorarbeit | Hauptgutachter*in: | Tropmann-Frick, Marina | Gutachter*in der Arbeit: | Clemen, Thomas |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
BA_Evaluierung_ausgewählter_xAI-Methoden.pdf | 3.17 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.