text | |
". . . . . 316 16.5 applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 16.6 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 17 variational autoencoders 326 17.1 latent variable models . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326 17.2 nonlinear latent variable model . . . . . . . . . . . . . . . . . . . . . . . 327 17.3 training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 17.4 elbo properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 17.5 variational approximation . . . . . . . . . . . . . . . . . . . . . . . . . . 335 17.6 the variational autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . 335 17.7 the reparameterization trick . . . . . . . . . . . . . . . . . . . . . . . . . 338 17.8 applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 17.9 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 18 diffusion models 348 18.1 overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 18.2 encoder (forward process) . . . . . . . . . . . . . . . . . . . . . . . . . . 349 18.3 decoder model (reverse process) . . . . . . . . . . . . . . . . . . . . . . . 355 18.4 training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 18.5 reparameterization of loss function . . . . . . . . . . . . . . . . . . . . . 360 18.6 implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 18.7 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 19 reinforcement learning 373 19.1 markov decision processes, returns, and policies . . . . . . . . . . . . . . 373 19.2 expected return . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 19.3 tabular reinforcement learning. . . . . . . . . . . . . . . . . . . . . . . . 381 19.4 fitted q-learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 19.5 policy gradient methods . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 19.6 actor-critic methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 19.7 offline reinforcement learning . . . . . . . . . . . . . . . . . . . . . . . . 394 19.8 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 this work is subject to a creative commons cc-by-" | |