- Activation
- Derivative
- Loss
- LossGradient
- RegressionMetric
- ConfusionMatrix
- ConfusionMatrixMultilabel
- ClassificationMetric
- ClassificationScore
- PrecisionRecall
- ReceiverOperatingCharacteristic
LossGradient
Calcola un vettore o una matrice di gradienti della funzione di perdita.
vector vector::LossGradient(
|
Parametri
vect_true/matrix_true
[in] Vettore o matrice di valori reali.
loss
[in] Funzione di perdita dall'enumerazione ENUM_LOSS_FUNCTION.
axis
[in] Valore dall'enumerazione ENUM_MATRIX_AXIS (AXIS_HORZ — asse orizzontale, AXIS_VERT — asse verticale).
...
[in] Parametro addizionale 'delta' può essere utilizzato solo dalla funzione di perdita Hubert (LOSS_HUBER)
Valore Restituito
Vettore o matrice dei valori del gradiente della funzione di perdita. Il gradiente è la derivata parziale rispetto a dx (x è il valore previsto) della funzione di perdita in un dato punto.
Nota
I gradienti sono utilizzati nelle reti neurali per regolare i pesi della matrice di peso durante la retropropagazione, durante l'allenamento del modello.
Una rete neurale mira a trovare gli algoritmi che minimizzano l'errore sul campione di addestramento, per cui la funzione di perdita è utilizzata.
Differenti funzioni di perdita vengono utilizzate a seconda del problema. Per esempio, Mean Squared Error (MSE) è utilizzata per problemi di regressione, e Binary Cross-Entropy (BCE) è utilizzata per scopi di classificazione binaria.
Esempio di calcolo dei gradienti della funzione di perdita
matrixf y_true={{ 1, 2, 3, 4 },
|