Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorLins, Christian-
dc.contributor.authorWitte, Anja-
dc.date.accessioned2025-03-12T06:26:27Z-
dc.date.available2025-03-12T06:26:27Z-
dc.date.created2023-10-13-
dc.date.issued2025-03-12-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/17288-
dc.description.abstractDie Menge der gelabelten Daten ist in industriellen Anwendungsfällen häufig gering, da der Annotierungs-prozess zeit- und kostenaufwändig ist. In der Forschung wird zunehmend self-supervised Pretraining z. B. mit Masked Autoencodern (MAE) angewandt, um Segmentierungsmodelle mit weniger Labeln zu trainieren. In der vorliegenden Masterthesis wird daher der Einfluss des MAE-Pretrainings auf die Label-Effizienz für die semantische Segmentierung mit U-Net Transformers am Beispiel von Holzplatzkränen analysiert. Zusätzlich wird Transfer Learning in Bezug auf den Krantyp und die Perspektive im Kontext der Label-Effizienz betrachtet. Die Ergebnisse zeigen, dass der MAE erfolgreich anwendbar ist und die Label-Effizienz erhöht. Der stärkste positive Einfluss wird bei allen Experimenten in den niedrigeren Labelmengen gefunden. Der höchste Effekt wird beim Transfer Learning in Bezug auf Kräne erzielt, wobei die IoU und der Recall um 4,31% bzw. 8,58% verbessert werden. Weitere Analysen zeigen, dass die Erhöhung der Label-Effizienz aus einer besseren Unterscheidung zwischen dem Hintergrund und den segmentierten Kranobjekten resultieren.de
dc.description.abstractThe amount of labeled data in industrial use cases is limited because the annotation process is time-consuming and costly. In research, self-supervised pretraining such as Masked Autoencoder (MAE) are used to train segmentation models with fewer labels. Therefore, this master thesis analyses the influence of MAE pretraining on the labelefficiency for semantic segmentation with U-Net Transformers. This is investigated for the use case of log-yard cranes. Additionally, two transfer learning cases with respect to crane type and perspective are considered in the context of label-efficiency. The results show that MAE is successfully applicable and increases label-efficiency. The strongest positive influence is found for all experiments in the lower label amounts. The highest effect is achieved with transfer learning regarding cranes, where IoU and Recall increase by 4.31% and 8.58 %, respectively. Further analyses show that improvements result from a better distinction between the background and the segmented crane objects.en
dc.language.isoenen_US
dc.subjectMasked Autoencoderen_US
dc.subjectSelf-Supervised Pretrainingen_US
dc.subjectSemantische Segmentierungen_US
dc.subjectUNETRen_US
dc.subjectLabel-Effizienzen_US
dc.subjectHolzplatzkräneen_US
dc.subjectLog-yard Cranesen_US
dc.subject.ddc004: Informatiken_US
dc.titleMasked Autoencoder: Influence of Self-Supervised Pretraining on Object Segmentation in Industrial Imagesen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeLange, Sascha-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-209016-
tuhh.oai.showtrueen_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.grantfulltextopen-
item.creatorGNDWitte, Anja-
item.cerifentitytypePublications-
item.creatorOrcidWitte, Anja-
item.advisorGNDLins, Christian-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.fulltextWith Fulltext-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
MA_Masked Autoencoder_geschwärzt.pdf2.14 MBAdobe PDFView/Open
Show simple item record

Page view(s)

11
checked on Apr 3, 2025

Download(s)

2
checked on Apr 3, 2025

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.