Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorvon Luck, Kai-
dc.contributor.authorSoblechero Salvado, André-
dc.date.accessioned2024-08-16T06:59:31Z-
dc.date.available2024-08-16T06:59:31Z-
dc.date.created2022-02-21-
dc.date.issued2024-08-16-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16167-
dc.description.abstractMachine learning is currently widely used for recommender systems. Previous work often represents users using unordered feature vectors while ignoring the sequential nature of users’ actions. In addition, classification models are often used which are limited by the time that they are trained. User history has grown exponentially since the age of Big Data, which implies the need to constantly retrain classification models. This thesis proposes a method which uses representations of users as time-series of embeddings, replacing inflexible standard feature vectors and considering the sequential nature of users’ actions. These user representations are then used to train a causal transformer decoder regression model which outputs the embedding of the next entry in the timeseries, making it unnecessary to constantly retrain the model. The A/B testing results show that the proposed method works.en
dc.description.abstractMaschinelles Lernen wird heutzutage häufig in Empfehlungssystemen verwendet. Bisherige Arbeiten haben die Benutzer oftmals als nicht sortierte Feature-Vektoren dargestellt. Dies ignoriert die sequentielle Verhaltensweise eines Benutzers. Ebenfalls werden in vielen Fällen Klassifikationsmodelle verwendet, welche durch den Zeitpunkt des Trainings beschränkt sind. Seit Big Data steigt die Anzahl der Interaktionen von Benutzern exponentiell. Diese Tatsache impliziert, dass Klassifikationsmodelle konstant neu trainiert werden müssen. In dieser Arbeit wird eine Methode vorgestellt, die Benutzer als eine Zeitreihe von Einbettungen repräsentiert. Diese Zeitreihen ermöglichen es nicht flexible Feature-Vektoren zu ersetzen sowie die sequentielle Verhaltensweise eines Benutzers mit einzubeziehen. Die erwähnten Zeitreihen werden verwendet, um ein kausales Transformer Dekodierer Regressions Modell zu trainieren, welches die jeweils nächste Einbettung vorhersagt. Hierdurch wird verhindert, dass das Modell konstant neu trainiert werden muss. Die A/B-Tests demonstrieren, dass die vorgestellte Methode funktioniert.de
dc.language.isoenen_US
dc.subjectRecommender Systemen_US
dc.subjectNatural Language Processingen_US
dc.subjectNext Click Predictionen_US
dc.subjectSentence Embeddingsen_US
dc.subjectLanguage Agnosticen_US
dc.subject.ddc004: Informatiken_US
dc.titleLanguage Agnostic News Recommendations Using Deep Learning Based Causal Transformer Decoderen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeTiedemann, Tim-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-191861-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusMasterarbeit-
dc.type.casraiSupervised Student Publication-
dc.type.dinimasterThesis-
dc.type.drivermasterThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesismasterThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.advisorGNDvon Luck, Kai-
item.creatorGNDSoblechero Salvado, André-
item.languageiso639-1en-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.creatorOrcidSoblechero Salvado, André-
item.fulltextWith Fulltext-
item.grantfulltextopen-
item.openairetypeThesis-
Appears in Collections:Theses
Files in This Item:
File Description SizeFormat
MA_Language_Agnostic_News_REcommendations.pdf2.26 MBAdobe PDFView/Open
Show simple item record

Page view(s)

573
checked on Nov 24, 2024

Download(s)

33
checked on Nov 24, 2024

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.