DC Element | Wert | Sprache |
---|---|---|
dc.contributor.advisor | von Pilgrim, Jens Henning | - |
dc.contributor.author | Škoric, Ante | - |
dc.date.accessioned | 2024-08-21T08:01:19Z | - |
dc.date.available | 2024-08-21T08:01:19Z | - |
dc.date.created | 2022-01-01 | - |
dc.date.issued | 2024-08-21 | - |
dc.identifier.uri | https://hdl.handle.net/20.500.12738/16176 | - |
dc.description.abstract | Microservices und Serverless Deploymentstrategien unterscheiden sich in vielerlei Hinsicht. Bei Serverless kümmert sich der Cloud-Anbieter um die Skalierung und bietet zusätzliche Resilience. Im Gegensatz dazu müssen bei der containerbasierten Microservice-Anwendung die Container mithilfe eines Container-Orchestrierungssystems skaliert werden. In dieser Arbeit wird folgende Fragestellung beantwortet: ”Wie unterscheiden sich die Performance (Skalierbarkeit, Resilience und Cloud Latency) und Kosten zwischen einer Serverless-Deploymentstrategie mit AWS Lambda und einer containerbasierten Microservices-Deploymentstrategie mit Docker und Kubernetes?” Durch die Beantwortung dieser Forschungsfrage ergeben sich Use Cases, in denen die eine Deploymentstrategie der anderen vorgezogen werden kann. Zur Beantwortung der Fragestellung wurden Performance-Tests durchgeführt und eine Kostenberechnung vorgenommen. Dies geschah anhand von zwei verschiedenen Use Cases, einer event-driven Reporting-Anwendung und einer Employee-Time-Sheet-Management-Portal-Anwendung. Für die Implementierung und das Deployment der Serverless-Anwendungen wurde AWS Lambda verwendet, für die Microservice-Anwendungen wurden Docker und Kubernetes eingesetzt. Die durchgeführten Experimente zeigen, dass beide Deploymentstrategien Vor- und Nachteile aufweisen. Die Nachteile der Microservices-Deploymentstrategie bestehen darin, dass sie unter den Load-Balancing- und Trafficverteilungs-Problemen leidet und die Skalierbarkeits- und Ressourcen-Konfiguration ”aufwendiger” ist als die von Serverless. Die Vorteile sind, dass sie im Vergleich zu Serverless eine bessere Requestsbearbeitungsleistung bietet. Der Nachteil der Serverless-Deploymentstrategie ist der, dass sie unter dem Problem des Cold-Starts leidet. Die Vorteile sind, dass sie agiler in Bezug auf Skalierbarkeit als die Microservices-Deploymentstrategie ist und dass sie bei den Anwendungen mit geringem Traffic weniger Kosten verursacht. Aus diesen Erkenntnissen ergeben sich auch Use Cases, in denen die eine Deploymentstrategie der anderen vorgezogen werden kann. Die Microservices-Deploymentstrategie eignet sich für Real-Time-Data-Processing- Anwendungen und Anwendungen, bei denen es auf Bruchteile von Sekunden ankommt. In Gegenteil dazu eignet sich die Serverless-Deploymonetstrategie für die Anwendungen mit Traffic-Schwankungen, Job-Scheduler und automatisch skalierbare APIs. An dieser Stelle ist es wichtig, darauf hinzuweisen, dass die Empfehlungen anhand der Kriterien aus dieser Arbeit gemacht worden sind und keine weiteren Kriterien berücksichtigt wurden. Bei der Auswahl einer Deploymentstrategie in der Praxis sollten auch andere Kriterien, die in dieser Arbeit nicht behandelt wurden, berücksichtigt werden. | de |
dc.description.abstract | Microservices and serverless deployment strategies differ in many ways. With serverless, the cloud provider takes care of scaling and provides additional resilience. In contrast, with the container-based microservice application, the containers must be scaled using a container orchestration system. In this work, we answer the following research question: ”How do performance (scalability, resilience, and cloud latency) and cost differ between a serverless deployment strategy using AWS Lambda and a container-based microservices deployment strategy using Docker and Kubernetes?” By answering this research question, use cases emerge where one deployment strategy may be preferred over the other. To answer the research question, performance tests were conducted and a cost calculation was performed. This was done using two different use cases, an event-driven reporting application and an employee time sheet management portal application. AWS Lambda was used to implement and deploy the serverless applications, and Docker and Kubernetes were used for the microservice applications. The experiments conducted show that both deployment strategies have advantages and disadvantages. The disadvantages of the microservices deployment strategy are that it suffers from the load balancing and traffic distribution issues. Scalability and resource configuration is also ”more complex” than that of serverless. The advantages are that it provides better request handling performance compared to serverless. The disadvantage of the serverless deployment strategy is that it suffers from the cold start problem. The advantages are that it is more agile in terms of scalability than the microservices deployment strategy and it incurs less cost for the low traffic applications. From these findings, use cases (recommendations) emerge in which one deployment strategy may be preferred over the other. The microservices deployment strategy is suitable for real-time data processing applications and applications where fractions of seconds matter. In contrast, the serverless deployment strategy is suitable for the applications with traffic fluctuations, job schedulers and automatically scalable APIs. At this point, it is important to point out that the recommendations have been made based on the criteria from this work and no other criteria have been considered. When selecting a deployment strategy in practice, other criteria not covered in this work should also be considered. | en |
dc.language.iso | de | en_US |
dc.subject | Microservices | en_US |
dc.subject | Serverless | en_US |
dc.subject | Container | en_US |
dc.subject | Performance | en_US |
dc.subject | Scaling | en_US |
dc.subject | Resilience | en_US |
dc.subject | Container Orchestration | en_US |
dc.subject | Kubernetes | en_US |
dc.subject | AWS Lambda | en_US |
dc.subject | Cloud | en_US |
dc.subject | Cloud Native Computing | en_US |
dc.subject | Kafka | en_US |
dc.subject | Client-Reports | en_US |
dc.subject.ddc | 004: Informatik | en_US |
dc.title | Realisierung und Gegenüberstellung einer serverless und einer containerbasierten Microservice-Architektur für das Client-Reporting | de |
dc.type | Thesis | en_US |
openaire.rights | info:eu-repo/semantics/openAccess | en_US |
thesis.grantor.department | Department Informatik | en_US |
thesis.grantor.universityOrInstitution | Hochschule für Angewandte Wissenschaften Hamburg | en_US |
tuhh.contributor.referee | Sarstedt, Stefan | - |
tuhh.identifier.urn | urn:nbn:de:gbv:18302-reposit-191971 | - |
tuhh.oai.show | true | en_US |
tuhh.publication.institute | Department Informatik | en_US |
tuhh.publication.institute | Fakultät Technik und Informatik | en_US |
tuhh.type.opus | Bachelor Thesis | - |
dc.type.casrai | Supervised Student Publication | - |
dc.type.dini | bachelorThesis | - |
dc.type.driver | bachelorThesis | - |
dc.type.status | info:eu-repo/semantics/publishedVersion | en_US |
dc.type.thesis | bachelorThesis | en_US |
dcterms.DCMIType | Text | - |
tuhh.dnb.status | domain | en_US |
item.advisorGND | von Pilgrim, Jens Henning | - |
item.creatorGND | Škoric, Ante | - |
item.languageiso639-1 | de | - |
item.cerifentitytype | Publications | - |
item.openairecristype | http://purl.org/coar/resource_type/c_46ec | - |
item.creatorOrcid | Škoric, Ante | - |
item.fulltext | With Fulltext | - |
item.grantfulltext | open | - |
item.openairetype | Thesis | - |
Enthalten in den Sammlungen: | Theses |
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
BA_Realisierung und Gegenüberstellung einer serverless und einer containerbasierten Microserve-Architektur_geschwärzt.pdf | 3.94 MB | Adobe PDF | Öffnen/Anzeigen |
Feedback zu diesem Datensatz
Export
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt.