Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorvon Luck, Kai-
dc.contributor.authorOttenheym, Thore-
dc.date.accessioned2025-01-02T12:07:51Z-
dc.date.available2025-01-02T12:07:51Z-
dc.date.created2024-09-13-
dc.date.issued2025-01-02-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16770-
dc.description.abstractDiese thesis untersucht die Anwendbarkeit von Graph Convolutional Networks (GCNs) zur Automatisierung der Interpretation von in-the-wild Skelettdaten. Die Studie untersucht, ob GCNs, insbesondere das Spatial-Temporal Graph Convolutional Network (ST-GCN), Gesten, die in einer unkontrollierten Umgebung aufgenommen wurden, effizient erkennen können. Es wurde ein Datensatz mit Daten aus dem HopE-Projekt erstellt und eine Trainingspipeline entwickelt, die Techniken des Transfer learnings und der Data Augmentation beinhaltet. Die Ergebnisse zeigen, dass GCNs in der Lage sind, die räumliche und zeitliche Dynamik zu erfassen, die für eine genaue Gestenerkennung in realen Szenarien notwendig ist, und geben einen Einblick in das Potenzial von GCNs zur Verbesserung der automatischen Gesteninterpretation in unterschiedlichen und unvorhersehbaren Umgebungen.de
dc.description.abstractThis thesis investigates the applicability of Graph Convolutional Networks (GCNs) for automating the interpretation of in-the-wild skeletal data. The study examines whether GCNs, specifically the Spatial-Temporal Graph Convolutional Network (ST-GCN), can effectively interpret gestures captured in uncontrolled environments. A dataset was created using data from the HopE project, and a training pipeline was developed that incorporates transfer learning and data augmentation techniques. The results demonstrate that GCNs can capture the spatial and temporal dynamics necessary for accurate gesture recognition in real-world scenarios, and provide insight into the potential of GCNs to improve automated gesture interpretation in diverse and unpredictable environments.en
dc.language.isoenen_US
dc.subjectSkelettdatenen_US
dc.subjectGraph Convolution Networken_US
dc.subjectGesture Interpretationen_US
dc.subjectSkeleton dataen_US
dc.subject.ddc004: Informatiken_US
dc.titleGraph Convolutional Network based Gesture Interpretation of Sekeleton Dataen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeSchwarzer, Jan-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-201865-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.creatorOrcidOttenheym, Thore-
item.grantfulltextopen-
item.fulltextWith Fulltext-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.advisorGNDvon Luck, Kai-
item.languageiso639-1en-
item.openairetypeThesis-
item.creatorGNDOttenheym, Thore-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat
BA_Graph Convolutional Network.pdf8.64 MBAdobe PDFÖffnen/Anzeigen
Zur Kurzanzeige

Seitenansichten

39
checked on 05.02.2025

Download(s)

14
checked on 05.02.2025

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.