Citation link: http://dx.doi.org/10.25819/ubsi/10472
DC FieldValueLanguage
dc.contributor.authorSaseendran, Amrutha-
dc.date.accessioned2024-02-28T12:56:41Z-
dc.date.available2024-02-28T12:56:41Z-
dc.date.issued2023de
dc.description.abstractDeep generative models are powerful machine learning models used to model high-dimensional complex data distributions. The rich and semantically expressive latent representations learned by these models are used for various downstream applications in computer vision and natural language processing. It is evident that the effectiveness of the generative techniques highly depends on the quality of the learned representations. Hence in this dissertation, we focus on improving the desirable properties of the learned latent space of two popular deep generative models, Generative Adversarial Networks (GANs) and Variational Autoencoders (VAEs). Specifically, we focus on properties such as generalizability, ontrollability, smoothness, and adversarial robustness. In the first technical contribution we present in this work, we focus on improving the controllability of latent representations in GANs to generate high-quality images. To be precise, we propose a method to control the content of the generated images solely based on the defined number of objects from multiple classes and introduce a state-of-the-art conditioned adversarial network. We also introduce a real-world count-based dataset called CityCount to validate our results in challenging scenarios. Next, we explore the learned representations of VAEs and some of the practical limitations associated with them. To this end, we propose a simple, novel, and end-to-end trainable deterministic autoencoding method that efficiently structures the latent space of the model during training and leverages the capacity of expressive multimodal latent distributions. We demonstrate the potential of the proposed method for modeling both continuous and discrete data structures. Finally, we investigate the adversarial robustness of the learned representations in VAEs. One of the major limitations in existing robust VAE models is the trade-off between the quality of image generation and the robustness achieved. We show that the learned representations in the proposed regularized deterministic autoencoders with a comparatively cheap adversarial learning scheme exhibit superior robustness to adversarial attacks without compromising the quality of image generation.en
dc.description.abstractTiefe generative Modelle sind leistungsstarke maschinelle Lernmodelle, die zur Modellierung hochdimensionaler komplexer Datenverteilungen verwendet werden. Die reichhaltigen und semantisch aussagekräftigen latenten Repräsentationen, die von diesen Modellen erlernt werden, werden für verschiedene Anwendungen in der Computer Vision und der Verarbeitung natürlicher Sprache verwendet. Es ist offensichtlich, dass die Effektivität der generativen Techniken in hohem Maße von der Qualität der erlernten Repräsentationen abhängt. Daher konzentrieren wir uns in dieser Dissertation auf die Verbesserung der Eigenschaften des erlernten latenten Raums von zwei weit verbreiteten tiefen generativen Modellen, Generative Adversarial Networks (GANs) und Variational Autoencoders (VAEs). Insbesondere konzentrieren wir uns auf Eigenschaften wie Generalisierungsfähigkeit, Kontrollierbarkeit, Glattheit und Widerstandsfähigkeit gegenüber widrigen Umständen. Im ersten technischen Beitrag, den wir in dieser Arbeit vorstellen, konzentrieren wir uns auf die Verbesserung der Kontrollierbarkeit latenter Darstellungen in GANs, um qualitativ hochwertige Bilder zu erzeugen. Um genau zu sein, schlagen wir eine Methode vor, um den Inhalt der generierten Bilder allein auf der Grundlage der definierten Anzahl von Objekten aus mehreren Klassen zu kontrollieren, und führen ein modernes konditioniertes adversarisches Netzwerk ein. Außerdem stellen wir einen realen zählbasierten Datensatz namens CityCount vor, um unsere Ergebnisse in anspruchsvollen Szenarien zu validieren. Als nächstes untersuchen wir die erlernten Darstellungen von VAEs und einige der damit verbundenen praktischen Einschränkungen. Zu diesem Zweck schlagen wir eine einfache, neuartige und durchgängig trainierbare deterministische Autocodierungsmethode vor, die den latenten Raum des Modells während des Trainings effizient strukturiert und die Kapazität ausdrucksstarker multimodaler latenter Verteilungen nutzt. Wir demonstrieren das Potenzial der vorgeschlagenen Methode für die Modellierung sowohl kontinuierlicher als auch diskreter Datenstrukturen. Schließlich untersuchen wir die Robustheit der erlernten Repräsentationen in VAEs gegenüber nachteiligen Einflüssen. Eine der größten Einschränkungen bei bestehenden robusten VAE-Modellen ist der Kompromiss zwischen der Qualität der Bilderzeugung und der erreichten Robustheit. Wir zeigen, dass die gelernten Repräsentationen in den vorgeschlagenen regularisierten deterministischen Autoencodern mit einem vergleichsweise billigen adversarischen Lernschema eine überlegene Robustheit gegenüber adversarischen Angriffen aufweisen, ohne die Qualität der Bilderzeugung zu beeinträchtigen.de
dc.identifier.doihttp://dx.doi.org/10.25819/ubsi/10472-
dc.identifier.urihttps://dspace.ub.uni-siegen.de/handle/ubsi/2684-
dc.identifier.urnurn:nbn:de:hbz:467-26841-
dc.language.isoende
dc.subject.ddc004 Informatikde
dc.subject.otherGenerative modelsen
dc.subject.otherRepresentation learningen
dc.subject.otherGenerative Adversarial Networken
dc.subject.otherVariational Autoencoderen
dc.subject.otherAdversarial robustnessen
dc.subject.otherGenerative Modellede
dc.subject.otherRepräsentatives Lernende
dc.subject.otherGeneratives Adversariales Netzwerkde
dc.subject.otherVariierender Autoencoderde
dc.subject.otherAdversarielle Robustheitde
dc.titleOptimizing the latent space of deep generative modelsen
dc.title.alternativeOptimierung des latenten Raums von tiefen generativen Modellende
dc.typeDoctoral Thesisde
item.fulltextWith Fulltext-
ubsi.contributor.refereeKeuper, Margret-
ubsi.date.accepted2023-12-06-
ubsi.fodasi.datatrue*
ubsi.organisation.grantingUniversität Siegen-
ubsi.origin.dspace51-
ubsi.publication.affiliationDepartment Elektrotechnik - Informatikde
ubsi.subject.ghbsTVUCde
ubsi.subject.ghbsTVVCde
ubsi.subject.ghbsTUHde
Appears in Collections:Hochschulschriften
Files in This Item:
File Description SizeFormat
Dissertation_Saseendran_Amrutha.pdf13.42 MBAdobe PDFThumbnail
View/Open

This item is protected by original copyright

Show simple item record

Page view(s)

355
checked on Dec 26, 2024

Download(s)

116
checked on Dec 26, 2024

Google ScholarTM

Check

Altmetric


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.