100% tevredenheidsgarantie Direct beschikbaar na je betaling Lees online óf als PDF Geen vaste maandelijkse kosten
logo-home
Solutions for Data Science and Machine Learning, 1st Edition by Kroese (All Chapters included) €28,96
In winkelwagen

Tentamen (uitwerkingen)

Solutions for Data Science and Machine Learning, 1st Edition by Kroese (All Chapters included)

 0 keer verkocht
  • Vak
  • Data Science and Machine Learning 1e Kroese
  • Instelling
  • Data Science And Machine Learning 1e Kroese

Complete Solutions Manual for Data Science and Machine Learning, 1st Edition by Dirk P. Kroese; Zdravko Botev; Thomas Taimre; Radislav Vaisman ; ISBN13: 9781138492530....(Full Chapters are included and organized in reverse order from Chapter 9 to 1)...1 Importing, Summarizing, and Visualizing Data ...

[Meer zien]

Voorbeeld 4 van de 170  pagina's

  • 15 november 2024
  • 170
  • 2020/2021
  • Tentamen (uitwerkingen)
  • Vragen en antwoorden
  • Data Science and Machine Learning 1e Kroese
  • Data Science and Machine Learning 1e Kroese
avatar-seller
Solutions Manual

to Accompany
Data Science and Machine Learning:
Mathematical and Statistical Methods




Dirk P. Kroese Zdravko I. Botev Thomas Taimre
Slava Vaisman Robert Salomone


** Immediate Download
** Swift Response
** All Chapters included

,CONTENTS



Preface 3

1 Importing, Summarizing, and Visualizing Data 5

2 Statistical Learning 17

3 Monte Carlo Methods 35

4 Unsupervised Learning 65

5 Regression 79

6 Kernel Methods 99

7 Classification 115

8 Tree Methods 139

9 Deep Learning 149




2

,Solutions Manual organized in reverse order, with the last chapter displayed first, to ensure that all
chapters are included in this document. (Complete Chapters included Ch9-1)



CHAPTER 9

D EEP L EARNING


1. Show that the softmax function
exp(z)
Softmax : z 7→ P .
k exp(zk )

satisfies the invariance property:

Softmax(z) = Softmax(z + c × 1), for any constant c.

Solution: Let w := Softmax(z + c × 1) and u := Softmax(z). For every i, we have
from the definition of the softmax function:
exp(zi + c)
wi = P
k exp(zk + c)
exp(c) exp(zi )
=P
k exp(c) exp(zk )
exp(zi )
=P
k exp(zk )
= ui .

This implies the identity.

2. Projection Pursuit is a network with one hidden layer that can be written as:

g(x) = S (ω> x),

where S is a univariate smoothing cubic spline. If we use squared-error loss with
τn = {yi , xi }ni=1 , we need to minimize the training loss:
n
1X 2
yi − S (ω> xi )
n i=1

with respect to ω and all cubic smoothing splines. This training of the network is
typically tackled iteratively in a manner similar to the EM algorithm. In particular,
we iterate (t = 1, 2, . . .) the following steps until convergence.

149

, 150


(a) Given the missing data ωt , compute the spline S t by training a cubic smoothing
spline on {yi , ω>t xi }. The smoothing coefficient of the spline may be determined
as part of this step.

(b) Given the spline function S t , compute the next projection vector ωt+1 via iter-
ative reweighted least squares:


ωt+1 = argmin (et − Xβ)> Σt (et − Xβ), (9.11)
β




where

yi − S t (ω>t xi )
et,i := ω>t xi + , i = 1, . . . , n
S t0 (ω>t xi )


is the adjusted response, and Σ1/2
t = diag(S t0 (ω>t x1 ), . . . , S t0 (ω>t xn )) is a diagonal
matrix.



Apply Taylor’s Theorem B.1 to the function S t and derive the iterative reweighted
least squares optimization program (9.11).


Solution: Using a linear approximation of S t around ω>t xi , we have:


n
X n
2 X 2
yi − S t (ω> xi ) ≈ yi − S t (ω>t xi ) − S t0 (ω>t xi )[ω − ωt ]> xi
i=1 i=1
n #2
yi − S t (ω>t xi )
X "
= [S t0 (ω>t xi )]2 ω>t xi + − xi ω .
>

i=1
S t0 (ω>t xi )


Hence, we obtain the iterative reweighted least squares.



3. Suppose that in the stochastic gradient descent method we wish to repeatedly draw
minibatches of size N from τn , where we assume that N × m = n for some large
integer m. Instead of repeatedly resampling from τn , an alternative is to reshuffle τn
via a random permutation Π and then advance sequentially through the reshuffled
training set to construct m non-overlapping minibatches. A single traversal of such
a reshuffled training set is called an epoch. The following pseudo-code describes the
procedure.

Dit zijn jouw voordelen als je samenvattingen koopt bij Stuvia:

Bewezen kwaliteit door reviews

Bewezen kwaliteit door reviews

Studenten hebben al meer dan 850.000 samenvattingen beoordeeld. Zo weet jij zeker dat je de beste keuze maakt!

In een paar klikken geregeld

In een paar klikken geregeld

Geen gedoe — betaal gewoon eenmalig met iDeal, creditcard of je Stuvia-tegoed en je bent klaar. Geen abonnement nodig.

Direct to-the-point

Direct to-the-point

Studenten maken samenvattingen voor studenten. Dat betekent: actuele inhoud waar jij écht wat aan hebt. Geen overbodige details!

Veelgestelde vragen

Wat krijg ik als ik dit document koop?

Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.

Tevredenheidsgarantie: hoe werkt dat?

Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.

Van wie koop ik deze samenvatting?

Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper mizhouubcca. Stuvia faciliteert de betaling aan de verkoper.

Zit ik meteen vast aan een abonnement?

Nee, je koopt alleen deze samenvatting voor €28,96. Je zit daarna nergens aan vast.

Is Stuvia te vertrouwen?

4,6 sterren op Google & Trustpilot (+1000 reviews)

Afgelopen 30 dagen zijn er 69052 samenvattingen verkocht

Opgericht in 2010, al 15 jaar dé plek om samenvattingen te kopen

Begin nu gratis
€28,96
  • (0)
In winkelwagen
Toegevoegd