Volltextdatei(en) in REPOSIT vorhanden Open Access
Titel: Adversariale Angriffe auf KI-Modelle zur Tumorerkennung : Sicherheitsrisiken in der medizinischen Bildklassifikation
Sprache: Deutsch
Autorenschaft: Al Methiab, May 
Schlagwörter: Faltungsnetz; adversariale Angriffe; White-Box-Angriff; Black-Box-Angriff; Fast Gradient Sign Method
Erscheinungsdatum: 25-Okt-2025
Zusammenfassung: 
CNN auf Kaggle-MRTs (mit/ohne Tumor) trainiert und mit Standardmetriken bewertet. Angriffe: FGSM, BIM, PGD (White-Box) + entscheidungsbasierter Black-Box; Verteidigung: adversariales Training (robusteres Modell) und Vorverarbeitungsmethode mit CLAHE-Funktion und Median-Filter.

A CNN is trained on a Kaggle MRI dataset (tumor vs. non-tumor) and evaluated using standard metrics. Attacks: FGSM, BIM, PGD (white-box) plus a decision-based blackbox attack; Defense: adversarial training (yielding a more robust model) and a preprocessing method using the CLAHE function and a median filter.
URI: https://hdl.handle.net/20.500.12738/19262
Einrichtung: Fakultät Technik und Informatik (ehemalig, aufgelöst 10.2025) 
Department Informations- und Elektrotechnik (ehemalig, aufgelöst 10.2025) 
Dokumenttyp: Abschlussarbeit
Abschlussarbeitentyp: Bachelorarbeit
Betreuer*in: Neumann, Heike 
Gutachter*in: Lapke, Martin  
Enthalten in den Sammlungen:Theses

Dateien zu dieser Ressource:
Zur Langanzeige

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.