Causal inference, dealing with the questions of when and how we can make causal statements based on observational data, has been a topic of growing interest in the deep learning community recently. On the one hand, causal inference promises to provide traditional machine learning and AI with methods for explainability, domain adaptation, and causal reasoning capabilities in general. On the other hand, many deep learning methods for improving causal inference have been proposed. One active line of research has studied the use of deep latent variable models (DLVM) to address the important problem of unobserved confounding in causal models. While they have yielded promising results and theory exists on the identifiability of some simple model formulations, we also know that causal effects cannot be identified in general with latent variables. The aim of this thesis was to investigate this gap between theory and empirical results, using the causal effect variational autoencoder (CEVAE) as a case study. To gain understanding on the identifiability of causal effects with CEVAE, we run extensive experiments under multiple synthetic and real-world data sets and provide some theoretical results. While CEVAE seems to work reliably under some simple scenarios, it does not identify the correct causal effect with a misspecified latent variable or a complex data distribution, as opposed to the original goals of the model. Our results show that the question of identifiability cannot be disregarded, and we argue that more attention should be paid to it in future work., Kausaalinen inferenssi aihepiirinä on herättänyt kasvavaa kiinnostusta syväoppimisyhteisössä viime vuosina. Kausaalisen inferenssin tavoitteena on yleisesti ottaen käsitellä syy-seuraussuhteiden analysointia observationaalisesta datasta, ja on esitetty arvioita, että sillä voisi myös edistää perinteistä koneoppimista ja tekoälyä mahdollistamalla mallien tulkittavuutta, yleistyvyyttä ja kausaalisten päätelmien tekemistä. Toisaalta on esitetty monia syväoppimismenetelmiä, joiden tavoitteena on kausaalisen inferenssin tehostaminen. Yksi tutkimussuuntaus on tutkinut syvien latenttimuuttujamallien käyttöä tilanteissa, jotka sisältävät havaitsemattomia, mutta kausaalisen mallin kannalta merkittäviä muuttujia. Vaikka tulokset ovat olleet usein lupaavia ja joidenkin yksinkertaisten mallien toimivuus on teoreettisesti perusteltua, on myös tiedossa, että yleisesti ottaen kausaalisia efektejä ei voi identifioida latenttimuuttujamalleilla. Tämän diplomityön tarkoituksena oli tutkia kyseistä eroa empiirisen havaintojen ja teoreettisen tietämyksen välillä, käyttämällä tapaustutkimuksena erästä kausaalisten efektien tunnistamiseen tarkoitettua variationaalista autoenkooderimallia (causal effect variational autoencoder, CEVAE). Ajoimme useita kokeita monilla synteettisillä sekä todellisesta maailmasta saaduilla dataseteillä, tavoitteena ymmärtää mallin identifioituvuuteen liittyviä haasteita. Esitämme myös joitain teoreettisia tuloksia intuitiivisen käsittämisen helpottamiseksi. CEVAE toimii luotettavasti joissain tilanteissa, mutta ei identifioi oikeaa kausaalista efektiä väärin määritellyllä latentilla muuttujalla tai tilanteessa, jossa datan jakauma on monimutkainen. Tuloksemme osoittavat, että identifioituvuuskysymystä ei voi sivuuttaa, ja mielestämme jatkotutkimuksen tulisi kiinnittää enemmän huomiota asiaan.