Volltextdatei(en) in REPOSIT vorhanden Open Access
DC ElementWertSprache
dc.contributor.advisorPareigis, Stephan-
dc.contributor.authorHoffmann, Alexander-
dc.date.accessioned2024-09-27T12:36:26Z-
dc.date.available2024-09-27T12:36:26Z-
dc.date.created2023-08-17-
dc.date.issued2024-09-27-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16344-
dc.description.abstractDie Diskrepanz zwischen der Realität und einer Simulation stellt die Forschung im Bereich des autonomen Fahrens vor zahlreiche Herausforderungen. Simulationen erfassen nicht alle Aspekte der realenWelt, und das Training in der Simulation kann zu unvorhersehbarem Verhalten in der tatsächlichen Anwendung führen, aufgrund der Unterschiede zwischen der Simulation und der realen Umgebung. In dieser Arbeit wird ein Ansatz vorgestellt, um diese Unterschiede speziell in Bezug auf die Lenkung eines Fahrzeugs zu behandeln. Dieser Ansatz wird bei drei unterschiedlichen Reinforcement Learning Algorithmen angewandt: TD3, PPO und DQN. Die Idee besteht darin, anstatt das Netzwerk mit einem absoluten Lenkwinkel zu trainieren, mit der Differenz zwischen dem gewünschten und dem gegebenen Lenkwinkel zu arbeiten. Dadurch können Abweichungen in der Lenkung korrigiert werden, die durch technische Fehler in einer realen Anwendung verursacht wurden. Dieser Ansatz, der als TD3Δ, PPOΔ und DQNΔ bezeichnet wird, wird mit dem herkömmlichen TD3, PPO und DQN verglichen. Zusätzlich werden die Architekturen beschrieben, die in TD3Δ, PPOΔ und DQNΔ verwendet werden.de
dc.description.abstractThe discrepancy between reality and simulation presents numerous challenges in the field of autonomous driving research. Simulations do not capture all aspects of the real world, and training in a simulation can lead to unpredictable behavior in real-world applications due to differences between the simulation and the actual environment. This work presents an approach to specifically address these differences in relation to vehicle steering. This approach is applied to three different reinforcement learning algorithms: TD3, PPO, and DQN. The idea is to train the network not with an absolute steering angle but with the difference between the desired and actual steering angles. This allows for correcting steering deviations caused by technical errors in a real-world application. This approach, referred to as TD3Δ, PPOΔ, and DQNΔ, is compared with the conventional TD3, PPO, and DQN methods. Additionally, the architectures used in TD3Δ, PPOΔ, and DQNΔ are described.en
dc.language.isodeen_US
dc.subjectAutonomes Fahrenen_US
dc.subjectReinforcement Learningen_US
dc.subjectSim-to-Real Gapen_US
dc.subjectMachine Learningen_US
dc.subjectDeep Learningen_US
dc.subjectRobuste Steuerungen_US
dc.subjectAutonomous Drivingen_US
dc.subjectReinforcement Learningen_US
dc.subjectRobust Controlen_US
dc.subject.ddc004: Informatiken_US
dc.titleRobuster Reinforcement Learning Algorithmus zur Überbrückung der Sim-to-Real Gap im autonomen Fahrende
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeTiedemann, Tim-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-195197-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDPareigis, Stephan-
item.creatorGNDHoffmann, Alexander-
item.languageiso639-1de-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidHoffmann, Alexander-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Enthalten in den Sammlungen:Theses
Dateien zu dieser Ressource:
Zur Kurzanzeige

Seitenansichten

46
checked on 23.11.2024

Download(s)

19
checked on 23.11.2024

Google ScholarTM

Prüfe

HAW Katalog

Prüfe

Feedback zu diesem Datensatz


Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.