Skip to content

Commit

Permalink
sync to laptop
Browse files Browse the repository at this point in the history
  • Loading branch information
Toniolo-Marco committed Sep 5, 2024
1 parent 5f1c0ee commit 268ad49
Show file tree
Hide file tree
Showing 4 changed files with 15 additions and 28 deletions.
8 changes: 7 additions & 1 deletion src/decision-tree.typ
Original file line number Diff line number Diff line change
@@ -1,3 +1,9 @@
= Decision Tree

Il *Decision Tree* è un modello di apprendimento supervisionato che può essere utilizzato sia per problemi di classificazione
Il *Decision Tree* è un modello di apprendimento supervisionato, che come suggerisce il nome ha una struttura ad albero. Ogni nodo dell'albero può essere:
- Non Terminale: dunque avere 2 o più figli ed implementare una _routing function_.
- Foglia: dunque non avere alcun figlio (_leaf node_) ed implementare una _prediction function_.

Il Decision Tree è un modello molto semplice e interpretabile (_explainability_); questa caratteristica è uno dei suoi più grandi vantaggi. Inoltre, è un modello molto versatile, in quanto può essere utilizzato sia per problemi di classificazione che di regressione.

prende in input un vettore di features $x$ e questo viene passato attraverso l'albero fino ad arrivare ad una foglia, che restituirà una predizione.
33 changes: 7 additions & 26 deletions src/gradient-descent.typ
Original file line number Diff line number Diff line change
Expand Up @@ -84,8 +84,8 @@ Ci sono decine di surrogate loss function, già implementate, ognuna con le prop
rowspan: 1,
par(justify: true)[
*Descrizione:* è la funzione di loss ideale per la classificazione, poiché misura semplicemente se la predizione $y'$ ha lo stesso segno del valore reale $y$. Restituisce $1$ se la predizione è errata (cioè se $y dot y' ≤ 0$) e $0$ se la predizione è corretta (cioè se $y dot y'>0$).

La funzione di loss 0/1 non è differenziabile.
*Vantaggi:* Facile da interpretare e implementare.
*Svantaggi:* La funzione di loss 0/1 non è differenziabile. Non fornisce informazioni sulla distanza tra la predizione e il valore reale.
],
),
)
Expand All @@ -109,7 +109,8 @@ Ci sono decine di surrogate loss function, già implementate, ognuna con le prop
colspan: 2,
rowspan: 1,
par(justify: true)[
*Descrizione:* #lorem(50)],
*Descrizione:* La hinge loss è utilizzata principalmente nelle Support Vector Machines (SVM) per classificazione binaria. Penalizza le predizioni che si trovano all'interno del margine o sono classificate erroneamente.
],
),
)
)
Expand All @@ -133,7 +134,7 @@ Ci sono decine di surrogate loss function, già implementate, ognuna con le prop
colspan: 2,
rowspan: 1,
par(justify: true)[
*Descrizione:* #lorem(50)],
*Descrizione:* La squared loss misura la differenza quadrata tra la previsione del modello e il valore reale. È comunemente usata nei problemi di regressione.],
),
)
)
Expand All @@ -156,33 +157,13 @@ Ci sono decine di surrogate loss function, già implementate, ognuna con le prop
colspan: 2,
rowspan: 1,
par(justify: true)[
*Descrizione:* #lorem(50)],
*Descrizione:* L'exponential loss è utilizzata principalmente con l'algoritmo di boosting come AdaBoost. La funzione di perdita aumenta esponenzialmente con l'aumento dell'errore.
],
),
)
)

#align(center,
grid(
columns: (1fr, 1fr, 3fr),
align: (center+horizon),
rows: (3em, 220pt),

[Log Loss],[ $l(y, y') = log(1+exp(-y y'))$],

grid.cell(
colspan: 1,
rowspan: 2,
image("../code/surrogate-loss-functions/log_loss.png", width: 100%),
),

grid.cell(
colspan: 2,
rowspan: 1,
par(justify: true)[
*Descrizione:* #lorem(50)],
),
)
)

#align(center,
image("../code/surrogate-loss-functions/all_losses_comparison.png", width: 100%)
Expand Down
Binary file modified src/main.pdf
Binary file not shown.
2 changes: 1 addition & 1 deletion src/main.typ
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@

#set document(
title: [Appunti del corso "Introduction to Machine Learning"],
author: ("Toniolo Marco","Federico Frigerio"),
author: ("Toniolo Marco"),
keywords: ("Introduction", "Machine Learning", "ML", "Appunti", "Riassunto"),
date: (auto)
)
Expand Down

0 comments on commit 268ad49

Please sign in to comment.