| DC Element | Wert | Sprache |
|---|---|---|
| dc.contributor.advisor | Tropmann-Frick, Marina | - |
| dc.contributor.author | Dohrn, Finn V. | - |
| dc.date.accessioned | 2026-02-02T12:39:38Z | - |
| dc.date.available | 2026-02-02T12:39:38Z | - |
| dc.date.created | 2025-03-28 | - |
| dc.date.issued | 2026-02-02 | - |
| dc.identifier.uri | https://hdl.handle.net/20.500.12738/18775 | - |
| dc.description.abstract | Bis 2025 werden 41,6 Milliarden IoT-Geräte erwartet. Dadurch wächst die Menge an kontinuierlich generierten Daten rasant. Klassische maschinelle Lernverfahren, die auf statischen Datensätzen trainiert werden, sind nicht in der Lage, sich kontinuierlich an dynamische Umgebungen anzupassen. Problematisch ist dabei der Konzeptdrift, der dazu führt, dass Modelle im Laufe der Zeit an Genauigkeit verlieren. Zur Steigerung der Robustheit und Genauigkeit des kontinuierlichen Lernens stellt diese Arbeit einen neuartigen Ansatz vor, der auf den Erkenntnissen einer systematischen Literaturrecherche basiert. Dieser Ansatz kombiniert Online Maschinelles Lernen (OML) mit Mixture of Experts (MoE) in einer neuartigen inkrementellen MoE-Architektur. Zur Evaluierung dieser hybriden Architektur werden verschiedene Experimente zur Regression und Klassifikation vorgestellt, die durch geeignete Methoden bewertet werden. Diese Arbeit präsentiert die Implementierung des Frameworks riverMoE, welches die konzipierte hybride Architektur als Erweiterung eines bestehenden OML-Frameworks realisiert. Die Ergebnisse der durchgeführten Experimente zeigen, dass die gezielte gewichtete Kombination von Einzelprognosen auch mit inkrementellen Lernalgorithmen zu präziseren Gesamtprognosen führen kann. Erwartungsgemäß erfordert die Nutzung neuronaler Komponenten einen erhöhten Rechen- und Speicheraufwand. Zudem zeigen die Experimente in adaptiven Umgebungen eine höhere Stabilität gegenüber Konzeptdrift, die jedoch von der Initialisierung abhängt. Auf Grundlage der Ergebnisse wird empfohlen, die bisher umgesetzten inkrementellen MoE-Varianten um zusätzliche Ansätze zu erweitern und weitere Experimente durchzuführen. Darüber hinaus sollte die Erklärbarkeit des Gates in der Kombination der einzelnen Experten eingehender untersucht werden. | de |
| dc.description.abstract | 41.6 billion IoT devices are expected by 2025. As a result, the amount of continuously generated data is growing rapidly. Traditional machine learning methods that are trained on static data sets and are not able to continuously adapt to dynamic environments. The problem here is concept drift, which leads to models losing accuracy over time. In order to make continuous learning more robust and accurate, this paper presents a novel approach based on the findings of a systematic literature review. This approach combines Online Machine Learning (OML) with Mixture of Experts (MoE) in a novel incremental MoE architecture. To evaluate this hybrid architecture, various regression and classification experiments are presented and evaluated using appropriate methods. This paper presents the implementation of the framework riverMoE, which realizes the designed hybrid architecture as an extension of an existing OML framework. The results of the experiments show that the targeted weighted combination of individual forecasts can also lead to more precise overall forecasts when using incremental learning algorithms. As expected the use of neural components requires increased computing and memory resources. Furthermore, the experiments in adaptive environments show a higher stability against concept drift which depends on the initialization. Based on the results, it is recommended to extend the existing implemented MoE variants and to conduct further experiments. In addition, the explainability of the gate in the combination of the individual experts should be examined in more detail. | en |
| dc.language.iso | de | en_US |
| dc.subject | Kontinuierliches adaptives Lernen | en_US |
| dc.subject | Online Maschinelles Lernen | en_US |
| dc.subject | Streamingdaten | en_US |
| dc.subject | Dynamische Umgebung | en_US |
| dc.subject | Mixture of Experts | en_US |
| dc.subject.ddc | 004: Informatik | en_US |
| dc.title | Adaptives maschinelles Lernen mit Mixture of Experts | de |
| dc.type | Thesis | en_US |
| openaire.rights | info:eu-repo/semantics/openAccess | en_US |
| thesis.grantor.department | Department Informatik (ehemalig, aufgelöst 10.2025) | en_US |
| thesis.grantor.universityOrInstitution | Hochschule für Angewandte Wissenschaften Hamburg | en_US |
| tuhh.contributor.referee | Zukunft, Olaf | - |
| tuhh.identifier.urn | urn:nbn:de:gbv:18302-reposit-231984 | - |
| tuhh.oai.show | true | en_US |
| tuhh.publication.institute | Department Informatik (ehemalig, aufgelöst 10.2025) | en_US |
| tuhh.publication.institute | Fakultät Technik und Informatik (ehemalig, aufgelöst 10.2025) | en_US |
| tuhh.type.opus | Masterarbeit | - |
| dc.type.casrai | Supervised Student Publication | - |
| dc.type.dini | masterThesis | - |
| dc.type.driver | masterThesis | - |
| dc.type.status | info:eu-repo/semantics/publishedVersion | en_US |
| dc.type.thesis | masterThesis | en_US |
| dcterms.DCMIType | Text | - |
| tuhh.dnb.status | domain | en_US |
| item.openairetype | Thesis | - |
| item.languageiso639-1 | de | - |
| item.grantfulltext | open | - |
| item.creatorGND | Dohrn, Finn V. | - |
| item.cerifentitytype | Publications | - |
| item.creatorOrcid | Dohrn, Finn V. | - |
| item.openairecristype | http://purl.org/coar/resource_type/c_46ec | - |
| item.advisorGND | Tropmann-Frick, Marina | - |
| item.fulltext | With Fulltext | - |
| Enthalten in den Sammlungen: | Theses | |
Dateien zu dieser Ressource:
| Datei | Beschreibung | Größe | Format | |
|---|---|---|---|---|
| MA_Adaptives maschinelles Lernen mit Mixture of Experts_geschwärzt.pdf | 2.97 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.