text 6 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 draft: please send errata to udlbookmail@gmail.com.iv contents 5 loss functions 56 5.1 maximum likelihood . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.2 recipe for constructing loss functions . . . . . . . . . . . . . . . . . . . . 60 5.3 example 1: univariate regression . . . . . . . . . . . . . . . . . . . . . . 61 5.4 example 2: binary classification . . . . . . . . . . . . . . . . . . . . . . . 64 5.5 example 3: multiclass classification . . . . . . . . . . . . . . . . . . . . . 67 5.6 multiple outputs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.7 cross-entropy loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.8 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 6 fitting models 77 6.1 gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 6.2 stochastic gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . 83 6.3 momentum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 6.4 adam. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6.5 training algorithm hyperparameters . . . . . . . . . . . . . . . . . . . . 91 6.6 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 7 gradients and initialization 96 7.1 problem definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.2 computing derivatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 7.3 toy example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 7.4 backpropagation algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . 103 7.5 parameter initialization . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 7.6 example training code . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.7 summary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 8 measuring performance 118 8.1 training a simple model . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 8.2 sources of error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 8.3 reducing error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 8.4 double descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 8.5 choosing