Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorvon Luck, Kai-
dc.contributor.authorHintze, Nadia-
dc.date.accessioned2025-09-25T10:17:39Z-
dc.date.available2025-09-25T10:17:39Z-
dc.date.created2024-08-19-
dc.date.issued2025-09-25-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/18223-
dc.description.abstractNeuronale Netze zur Objekterkennung sind auf eine ausreichende Anzahl qualitativ hochwertiger Trainings-daten angewiesen. Solche Trainingsdaten mit Aufnahmen realer Umgebungen zu beschaffen ist jedoch ein langwieriger und aufwändiger Prozess. Die gebrauchten Trainingsdaten können alternativ in einer virtuellen 3D-Umgebung synthetisch generiert werden. Diese Arbeit beantwortet die Frage, inwiefern solche Daten genaue und robuste Modelle erzeugen können. Dabei setzt sie sich mit den Einflüssen verschiedener Aspekte der Umgebungsgestaltung, wie z.B. der Orientierung an der Anwendungsdomäne oder einer besonders hohen Varianz, auseinander. Zu diesem Zweck wird eine Anwendung implementiert, die synthetische Datensätze mit unterschiedlich gestalteten Umgebungen generiert. Der Vergleich von Modellen, die mit diesen Datensätzen trainiert wurden, zeigt, dass synthetische Daten als eigenständige Datensätze gute Trainingsergebnisse liefern können. Der gemeinsame Einsatz von synthetischen und real aufgenommenen Daten kann darüber hinaus einen Zusatz an Genauigkeit und Robustheit gegenüber ausschließlich real angefertigten Daten bewirken.de
dc.description.abstractNeural networks for object recognition are dependent on a sufficient amount of highquality training data. However, obtaining such training data with images of real environments is a lengthy and time-consuming process. Alternatively, the required training data can be generated synthetically in a virtual 3D environment. This thesis answers the question to what extent such data can generate precise and robust models. It deals with the influences of different aspects of the environment design, such as the orientation to the application domain or a particularly high variance. For this purpose, an application is implemented that generates synthetic data sets with differently designed environments. The comparison of models trained with these data sets shows that synthetic data can provide good training results as independent data sets. The joint use of synthetic and real recorded data can also result in additional accuracy and robustness compared to exclusively real data.en
dc.language.isodeen_US
dc.subjectObjekterkennungen_US
dc.subjectSynthetische Trainingsdatenen_US
dc.subjectYOLOv8en_US
dc.subjectUnity3D Engineen_US
dc.subjectObject Recognitionen_US
dc.subject.ddc004: Informatiken_US
dc.titleEinsatz synthetisch erzeugter Daten zur Verbesserung von Deep Learning Modellen zur Objekterkennungde
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeDraheim, Susanne-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-220717-
tuhh.oai.showtrueen_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.languageiso639-1de-
item.openairetypeThesis-
item.advisorGNDvon Luck, Kai-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidHintze, Nadia-
item.cerifentitytypePublications-
item.fulltextWith Fulltext-
item.creatorGNDHintze, Nadia-
item.grantfulltextopen-
crisitem.author.deptDepartment Informatik-
crisitem.author.parentorgFakultät Technik und Informatik-
Appears in Collections:Theses
Show simple item record

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.