Fulltext available Open Access
DC FieldValueLanguage
dc.contributor.advisorTropmann-Frick, Marina-
dc.contributor.authorZamboni, Jannik-
dc.date.accessioned2025-01-02T10:26:21Z-
dc.date.available2025-01-02T10:26:21Z-
dc.date.created2024-05-17-
dc.date.issued2025-01-02-
dc.identifier.urihttps://hdl.handle.net/20.500.12738/16769-
dc.description.abstractDeepfakes have become increasingly more popular and realistic over the last few years thanks to the fast advancement in machine learning architectures such as generative adversarial networks (GANs). The creation and detection of these realistic deepfakes remains a cat and mouse game due to the ever-improving nature of the GAN training process. To break out of this cycle, a focus on person specific features instead of general features to detect deepfakes is necessary. This thesis focuses on facial landmark features that are in motion during the pronunciation of a select number of words of a specific target person and utilizes different convolutional neural network (CNN) architectures for its classification. It can be shown that this approach is feasible, produces results with a high confidence and could also be expanded on more words. The trained model is also resistant against various video resolutions and could successfully detect future unseen video resolution formats.en
dc.description.abstractDeepfakes sind in den letzten Jahren dank der rasanten Fortschritte bei Architekturen des maschinellen Lernens wie Generative Adversarial Networks (GANs) immer beliebter und realistischer geworden. Die Erstellung und Erkennung dieser realistischen Deepfakes bleibt ein Katz- und Mausspiel, was in der Natur des GAN-Trainingsvorgangs liegt. Um diesen Kreislauf zu durchbrechen, ist eine Konzentration auf personenspezifische Merkmale anstatt allgemeiner Merkmale zur Erkennung von Deepfakes notwendig. Diese Arbeit konzentriert sich auf Gesichtsmerkmale, die während der Aussprache einer ausgewählten Anzahl von Wörtern einer bestimmten Zielperson in Bewegung sind, und verwendet verschiedene Architekturen von Convolutional Neural Networks (CNNs) für deren Klassifizierung. Es kann gezeigt werden, dass dieser Ansatz praktikabel ist, Ergebnisse mit hoher Zuverlässigkeit liefert und auf weitere Wörter ausgedehnt werden kann. Das trainierte Modell ist außerdem resistent gegen verschiedene Videoauflösungen und könnte erfolgreich Videos von unbekannten Videoauflösungsformaten erkennen.de
dc.language.isoenen_US
dc.subject.ddc004: Informatiken_US
dc.titleDeepfake detection via facial landmark motion analysis during person-specific word pronunciationen
dc.typeThesisen_US
openaire.rightsinfo:eu-repo/semantics/openAccessen_US
thesis.grantor.departmentFakultät Technik und Informatiken_US
thesis.grantor.departmentDepartment Informatiken_US
thesis.grantor.universityOrInstitutionHochschule für Angewandte Wissenschaften Hamburgen_US
tuhh.contributor.refereeSchultz, Martin-
tuhh.identifier.urnurn:nbn:de:gbv:18302-reposit-201851-
tuhh.oai.showtrueen_US
tuhh.publication.instituteFakultät Technik und Informatiken_US
tuhh.publication.instituteDepartment Informatiken_US
tuhh.type.opusBachelor Thesis-
dc.type.casraiSupervised Student Publication-
dc.type.dinibachelorThesis-
dc.type.driverbachelorThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersionen_US
dc.type.thesisbachelorThesisen_US
dcterms.DCMITypeText-
tuhh.dnb.statusdomainen_US
item.creatorOrcidZamboni, Jannik-
item.grantfulltextopen-
item.fulltextWith Fulltext-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.advisorGNDTropmann-Frick, Marina-
item.languageiso639-1en-
item.openairetypeThesis-
item.creatorGNDZamboni, Jannik-
Appears in Collections:Theses
Files in This Item:
Show simple item record

Page view(s)

54
checked on Feb 4, 2025

Download(s)

32
checked on Feb 4, 2025

Google ScholarTM

Check

HAW Katalog

Check

Note about this record


Items in REPOSIT are protected by copyright, with all rights reserved, unless otherwise indicated.