Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorLins, Christian-
dc.contributor.authorWitte, Anja-
dc.date.accessioned2025-03-12T06:26:27Z-
dc.date.available2025-03-12T06:26:27Z-
dc.date.created2023-10-13-
dc.date.issued2025-03-12-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/17288-
dc.description.abstractDie Menge der gelabelten Daten ist in industriellen Anwendungsfällen häufig gering, da der Annotierungs-prozess zeit- und kostenaufwändig ist. In der Forschung wird zunehmend self-supervised Pretraining z. B. mit Masked Autoencodern (MAE) angewandt, um Segmentierungsmodelle mit weniger Labeln zu trainieren. In der vorliegenden Masterthesis wird daher der Einfluss des MAE-Pretrainings auf die Label-Effizienz für die semantische Segmentierung mit U-Net Transformers am Beispiel von Holzplatzkränen analysiert. Zusätzlich wird Transfer Learning in Bezug auf den Krantyp und die Perspektive im Kontext der Label-Effizienz betrachtet. Die Ergebnisse zeigen, dass der MAE erfolgreich anwendbar ist und die Label-Effizienz erhöht. Der stärkste positive Einfluss wird bei allen Experimenten in den niedrigeren Labelmengen gefunden. Der höchste Effekt wird beim Transfer Learning in Bezug auf Kräne erzielt, wobei die IoU und der Recall um 4,31% bzw. 8,58% verbessert werden. Weitere Analysen zeigen, dass die Erhöhung der Label-Effizienz aus einer besseren Unterscheidung zwischen dem Hintergrund und den segmentierten Kranobjekten resultieren.de
dc.description.abstractThe amount of labeled data in industrial use cases is limited because the annotation process is time-consuming and costly. In research, self-supervised pretraining such as Masked Autoencoder (MAE) are used to train segmentation models with fewer labels. Therefore, this master thesis analyses the influence of MAE pretraining on the labelefficiency for semantic segmentation with U-Net Transformers. This is investigated for the use case of log-yard cranes. Additionally, two transfer learning cases with respect to crane type and perspective are considered in the context of label-efficiency. The results show that MAE is successfully applicable and increases label-efficiency. The strongest positive influence is found for all experiments in the lower label amounts. The highest effect is achieved with transfer learning regarding cranes, where IoU and Recall increase by 4.31% and 8.58 %, respectively. Further analyses show that improvements result from a better distinction between the background and the segmented crane objects.en
dc.language.isoenen_US
dc.subjectMasked Autoencoderen_US
dc.subjectSelf-Supervised Pretrainingen_US
dc.subjectSemantische Segmentierungen_US
dc.subjectUNETRen_US
dc.subjectLabel-Effizienzen_US
dc.subjectHolzplatzkräneen_US
dc.subjectLog-yard Cranesen_US
dc.subject.ddc004: Informatiken_US
dc.titleMasked Autoencoder: Influence of Self-Supervised Pretraining on Object Segmentation in Industrial Imagesen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeLange, Sascha-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-209016-
tuhh.oai.showtrueen_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.grantfulltextopen-
item.creatorGNDWitte, Anja-
item.cerifentitytypePublications-
item.creatorOrcidWitte, Anja-
item.advisorGNDLins, Christian-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.fulltextWith Fulltext-
item.openairetypeThesis-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
MA_Masked Autoencoder_geschwärzt.pdf2.14 MBAdobe PDFÖffnen/Anzeigen
Zur Kurzanzeige

Seitenansichten

11
checked on 03.04.2025

Download(s)

2
checked on 03.04.2025

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.