
DC Element | Wert | Sprache |
---|---|---|
dc.contributor.advisor | Pareigis, Stephan | - |
dc.contributor.author | Bah, Amadou | - |
dc.date.accessioned | 2025-05-23T07:13:24Z | - |
dc.date.available | 2025-05-23T07:13:24Z | - |
dc.date.created | 2023-02-13 | - |
dc.date.issued | 2025-05-23 | - |
dc.identifier.uri | https://hdl.handle.net/20.500.12738/17672 | - |
dc.description.abstract | Im Rahmen dieser Bachelorarbeit wird ein Prototyp für den Einsatz von Deep Reinforcement Learning auf dem Husky-Roboter entwickelt. Mithilfe von Deep Reinforcement Learning sollte der Roboter kollisionsfrei und zeiteffizient in seiner Umgebung navigieren. Zu diesem Zweck werden verschiedene Reinforcement Learning Agenten trainiert. Für die Erkennung von den Hindernissen wird ein zweidimensionaler Laserscanner verwendet und dabei werden verschiedene Darstellungsformen von den Laser-Daten untersucht. Die Agenten werden sowohl in statischen als auch in dynamischen Umgebungen trainiert. In den Experimenten konnte gezeigt werden, dass die Agenten trotz einiger Limitationen kollisionsfrei und zeiteffizient in statischen Umgebungen navigieren konnten. Im dynamischen Kontext konnte zudem gezeigt werden, dass einer der trainierten Agenten dynamische Hindernisse in seiner Bewegungsplanung berücksichtigen konnte. | de |
dc.description.abstract | In this bachelor thesis, a prototype for the use of Deep Reinforcement Learning on the Husky robot is developed. With the help of Deep Reinforcement Learning the robot should navigate collision-free and time-efficiently in its environment. For this purpose different reinforcement learning agents are trained. For the detection of obstacles a two-dimensional laser scanner is used and different representations of the laser data are investigated. The agents are trained in both static and dynamic environments. In the experiments, it was shown that the agents could navigate collision-free and time-efficiently in static environments despite some limitations. In the dynamic context it could be shown that one of the trained agents was able to consider dynamic obstacles in its motion planning. | en |
dc.language.iso | de | en_US |
dc.subject | Deep Reinforcement Learning | en_US |
dc.subject | Roboternavigation | en_US |
dc.subject | Stable-Baselines3 | en_US |
dc.subject | Husky-Roboter | en_US |
dc.subject | Pybullet | en_US |
dc.subject | Robot navigation | en_US |
dc.subject | Husky Robot | en_US |
dc.subject.ddc | 004: Informatik | en_US |
dc.title | Kollisionsfreie lokale Roboternavigation mit Deep Reinforcement Learning in statischen und dynamischen Umgebungen | de |
dc.type | Thesis | en_US |
openaire.rights | info:eu-repo/semantics/openAccess | en_US |
thesis.grantor.department | Fakultät Technik und Informatik | en_US |
thesis.grantor.department | Department Informatik | en_US |
thesis.grantor.universityOrInstitution | Hochschule für Angewandte Wissenschaften Hamburg | en_US |
tuhh.contributor.referee | Meisel, Andreas | - |
tuhh.identifier.urn | urn:nbn:de:gbv:18302-reposit-213031 | - |
tuhh.oai.show | true | en_US |
tuhh.publication.institute | Fakultät Technik und Informatik | en_US |
tuhh.publication.institute | Department Informatik | en_US |
tuhh.type.opus | Bachelor Thesis | - |
dc.type.casrai | Supervised Student Publication | - |
dc.type.dini | bachelorThesis | - |
dc.type.driver | bachelorThesis | - |
dc.type.status | info:eu-repo/semantics/publishedVersion | en_US |
dc.type.thesis | bachelorThesis | en_US |
dcterms.DCMIType | Text | - |
tuhh.dnb.status | domain | en_US |
item.fulltext | With Fulltext | - |
item.openairetype | Thesis | - |
item.creatorOrcid | Bah, Amadou | - |
item.grantfulltext | open | - |
item.openairecristype | http://purl.org/coar/resource_type/c_46ec | - |
item.advisorGND | Pareigis, Stephan | - |
item.languageiso639-1 | de | - |
item.creatorGND | Bah, Amadou | - |
item.cerifentitytype | Publications | - |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
BA_Kollisionsfreie lokale Roboternavigation mit Deep Reinforcement Learning.pdf | 4.01 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.