Titel: | The Impact of Image Resolution and Model Scaling on Deep Learning based Automated Chest Radiograph Interpretation | Sprache: | Englisch | Autorenschaft: | Chizari, Nima | Schlagwörter: | Machine Learning; Deep Learning; Computer Vision; Medical Imaging; Maschinelles Lernen; Bilderkennung; Medizinische Bildgebung | Erscheinungsdatum: | 14-Nov-2023 | Zusammenfassung: | Der effektiven Nutzung Deep Learning basierter Verfahren für die automatisierte Röntgen-Thorax Interpretation fehlte es an einem annotierten Datensatz mitentsprechender Größe. Dieses Problem scheint durch den CheXpert Datensatz [21], welcher als Wettbewerbsaufgabe veröffentlicht wurde, gelöst zu sein. Mehrere Teilnehmer [30, 51] konnten bereits zeigen, dass man erfolgreich ein Deep Learning Modell auf diesem Datensatz trainieren kann, indem sie die Detektionsrate ihres Modells mit der Detektionsrate von 3 Radiologen auf 500 Studien bestehend aus 5 verschiedenen Pathologien verglichen. Die Modelle übertrafen die Detektionsrate der Radiologen im Grossteil der Pathologien. Die Autoren nutzten die Röntgenbilder in runterskalierten Varianten (320x320 oder kleiner) als direkte Eingabe zu den Modellen. Diese Arbeit untersucht empirisch die Auswirkung von 5 verschiedenen Bildauflösungen, gemessen in der Metrik Area Under Receiver Operating Characteristic Curve (AUROC), an den gleichen 5 Pathologien mit verschiedenen auf ImageNet vor trainierten Modellen. Die Resultate deuten auf potenziell höhere Detektionsraten, hauptsächlich verursacht durch höhere Bildauflösungen. Dieses Verhalten ist allerdings abhängig von der Pathologie. In 3 von 5 Fällen profitierten die Detektionsraten der Modelle, die auf einer Bildauflösung über 320 x 320 trainiert wurden, während die verbleibenden zwei Pathologien abnehmende Detektionsraten aufzeigen. The use of deep learning for automated chest radiograph interpretation has been largely hindered by the absence of an annotated dataset with an appropriate size. This problem seems to be solved by the CheXpert [21] dataset, which has been released publicly as a competition task. Multiple entries [30, 51] have also shown that it is possible to train a deep learning model successfully on their dataset by comparing the detection rate of their model to the detection rate of 3 radiologists on a test set of 500 studies on 5 pathologies, where the models outperformed the radiologists in most tasks. The authors used downscaled versions (320 x 320 or below) of the chest screenings as input to their model. This work empirically examines the impact of 5 different image resolutions on the detection rate Area Under Receiver Operating Characteristic Curve (AUROC) on the 5 evaluation tasks using various ImageNet pretrained models. The results hint at the potential of higher detection rates mainly caused by higher image input resolutions. The benefits are task dependent. In 3 of 5 cases, the models trained on an input resolution above 320x320 show greater detection rates, while the remaining two cases show declining detection rates past this point. |
URI: | http://hdl.handle.net/20.500.12738/14345 | Einrichtung: | Department Informatik Fakultät Technik und Informatik |
Dokumenttyp: | Abschlussarbeit | Abschlussarbeitentyp: | Masterarbeit | Hauptgutachter*in: | von Luck, Kai | Gutachter*in der Arbeit: | Meisel, Andreas |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
Masterthesis_Chizari_Nima_geschwärzt.pdf | 1.71 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.