Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Lezione 14. Cambiamenti di basso rango in A e il suo inverso
14. Variazioni di basso rango in A e suo inverso
Il video discute il concetto di matrici di basso rango e la loro importanza nelle matrici di funzioni, in particolare la formula di inversione di matrice che trova l'inverso di una matrice N per n in termini di una matrice 1 per 1 più semplice. La formula è utile per trovare l'inverso di matrici che hanno perturbazioni di basso rango e può semplificare il processo di ricerca degli inversi. Il relatore mostra come funziona la formula presentando la formula per la seconda matrice e mostra come è stata applicata la stessa logica per arrivare alla risposta. Il video discute anche le applicazioni pratiche di questa formula, in particolare nei problemi dei minimi quadrati e nel filtro di Kalman.
Lezione 15. Matrici A(t) Dipendenti da t, Derivata = dA/dt
15. Matrici A(t) Dipendente da t, Derivata = dA/dt
Questo video copre vari argomenti relativi alle matrici, inclusi i cambiamenti nelle matrici e il loro inverso, nonché i cambiamenti negli autovalori e nei valori singolari nel tempo. Il relatore spiega le formule chiave per calcolare questi cambiamenti e sottolinea l'importanza della comprensione del calcolo nell'algebra lineare. Inoltre, la conferenza discute l'importanza della normalizzazione ed esplora i teoremi di interlacciamento per gli autovalori sia in matrici simmetriche che di rango 1. Infine, il video si conclude con una rassegna degli argomenti trattati e la promessa di approfondirli nelle lezioni future.
possibile, possono ancora ricavare disuguaglianze per capire quanto potrebbe essere grande il cambiamento. La lezione copre anche l'impostazione della matrice A, che dipende dal tempo (T) e dall'inversa A inversa.
Lezione 16. Derivate di valori inversi e singolari
16. Derivate di valori inversi e singolari
Questo video copre una varietà di argomenti tra cui la derivata dei valori inverso e singolare di una matrice, l'interlacciamento e la norma nucleare di una matrice. Il relatore presenta una formula per la derivata di valori singolari, utilizzando l'SVD, per comprendere come una matrice cambia nel tempo, stabilendo limiti per le variazioni di autovalori in matrici simmetriche. La disuguaglianza di Vial viene introdotta come un modo per stimare i valori lambda di una matrice e l'inseguimento della base viene utilizzato nei problemi di completamento della matrice. Il relatore discute anche l'idea che la norma nucleare di una matrice derivi da una norma che non è proprio una norma e introduce il concetto di lazo e di sensing compresso che sarà discusso nella prossima lezione.
Lezione 17: Valori singolari rapidamente decrescenti
Lezione 17: Valori singolari rapidamente decrescenti
La lezione si concentra sulle matrici e sui loro ranghi e sulla rapidità con cui i valori singolari decrescenti sono prevalenti nella matematica computazionale. Il docente esamina le matrici di basso rango e dimostra come abbiano molti zeri nella loro sequenza di valori singolari, rendendo più efficiente l'invio della matrice a un amico in forma di basso rango piuttosto che in forma di rango completo. Introducono anche il rango numerico di una matrice, che viene definito consentendo un certo margine di manovra per definire la tolleranza dei valori singolari di una matrice. Campionando funzioni regolari, che possono essere ben approssimate dai polinomi, il rango numerico può essere basso, risultando in un'approssimazione di basso rango della matrice X. La lezione include anche esempi di matrici gaussiane e di Vandermonde per spiegare come possono portare a matrici di basso rango e discute l'utilità dei numeri di Zolotarev nel delimitare valori singolari.
Lezione 18: Conteggio dei parametri in SVD, LU, QR, Saddle Points
Lezione 18: Conteggio dei parametri in SVD, LU, QR, Saddle Points
In questa lezione, il relatore esamina varie fattorizzazioni di matrici come L&U, Q&R e matrici di autovettori e conta il numero di parametri liberi in ciascuna di queste matrici. Discutono anche del calcolo di Qs rispetto a SVD e contano il numero di parametri nell'SVD per una matrice di rango-R. Il docente spiega inoltre il concetto di punti di sella nelle matrici e come trovarli utilizzando tecniche di ottimizzazione e moltiplicatori di Lagrange. Infine, il docente discute il segno degli autovalori di una matrice simmetrica e come il quoziente di Rayleigh può aiutare a determinare il valore massimo e il corrispondente autovettore della matrice.
Lezione 19. Punti di sella continuati, Principio di Maxmin
19. Punti di sella continuati, principio di Maxmin
In questo video, l'oratore continua a discutere dei punti di sella e di come trovare i valori minimo e massimo utilizzando il quoziente di Rayleigh nello spazio bidimensionale. Viene spiegato il teorema dell'interlacciamento, che prevede la scrittura dei punti di sella come massimo di un minimo per trovare rapidamente massimi e minimi. Il relatore mette anche in guardia contro l'overfitting quando si adattano i dati con un polinomio di alto grado e discute due laboratori a tempo indeterminato per la classe, che coinvolgono i punti di sella e una semplice rete neurale. Vengono spiegati i concetti di media e varianza nelle statistiche e di varianza e covarianza campionaria, con il relatore che osserva che la matrice di covarianza per output totalmente dipendenti non sarebbe invertibile e per scenari di polling con più persone che vivono in una casa, è prevista una certa covarianza ma non del tutto indipendente.
Lezione 20. Definizioni e Disuguaglianze
20. Definizioni e disuguaglianze
In questa sezione del video, il relatore discute vari concetti della teoria della probabilità, tra cui il valore atteso, la varianza e le matrici di covarianza. Anche la disuguaglianza di Markov e la disuguaglianza di Chebyshev furono introdotte come strumenti fondamentali per la stima delle probabilità. L'oratore procede quindi a spiegare la relazione tra la disuguaglianza di Markov e la disuguaglianza di Chebychev, illustrando come esse conducano allo stesso risultato. È stato inoltre introdotto il concetto di covarianza e matrice di covarianza, uno strumento fondamentale nella teoria della probabilità. Il video esplora anche l'idea di probabilità e tensori congiunti, spiegando come l'incollaggio di monete insieme aggiunga dipendenza e alteri le probabilità. Infine, il relatore discute le proprietà della matrice di covarianza, sottolineando che è sempre semidefinita positiva ed è una combinazione di matrici semidefinite positive di rango 1.
Lezione 21: Minimizzare una funzione passo dopo passo
Lezione 21: Minimizzare una funzione passo dopo passo
Questa lezione video discute gli algoritmi di base utilizzati per minimizzare una funzione e i loro tassi di convergenza, in particolare il metodo di Newton e la discesa più ripida. Sottolinea inoltre l'importanza della convessità, che assicura che la funzione abbia un minimo, e introduce il concetto di insiemi convessi e funzioni convesse. Il docente spiega come testare la convessità in una funzione, che determina se ha punti di sella o minimi locali, invece di un minimo globale. Il video si conclude con una discussione su Levenberg Marquardt, una versione più economica del metodo di Newton che non è del tutto di secondo ordine.
Lezione 22. Discesa in pendenza: in discesa al minimo
22. Discesa in pendenza: in discesa al minimo
Nel video "Gradient Descent: Downhill to a Minimum", il relatore discute l'importanza della discesa del gradiente nell'ottimizzazione e nel deep learning, dove l'obiettivo è minimizzare una funzione. L'oratore introduce il gradiente e l'Assia e illustra i gradini di discesa più ripidi utilizzando una funzione quadratica. Il relatore discute anche su come interpretare il gradiente e l'Assia, così come il loro ruolo nella misurazione della convessità. Il relatore approfondisce la scelta del tasso di apprendimento appropriato, sottolineando l'importanza del numero di condizione nel controllare la velocità di convergenza. Il video fornisce anche esempi pratici e formule per aiutare a comprendere il concetto di discesa del gradiente, incluso il metodo della palla pesante.
Lezione 23. Accelerare la discesa del gradiente (usare lo slancio)
23. Accelerazione della discesa del gradiente (usa lo slancio)
Questo video discute il concetto di quantità di moto nell'accelerazione della discesa del gradiente. Il presentatore spiega la formula di base per la discesa del gradiente e mostra come l'aggiunta di quantità di moto può comportare una discesa più rapida rispetto al metodo ordinario, ottenendo in definitiva miglioramenti significativi. Discutono anche di un modello continuo di discesa più ripida e spiegano come può essere analizzato come un'equazione differenziale di secondo ordine con un termine di quantità di moto. Il relatore sottolinea l'importanza di minimizzare entrambi gli autovalori quando si utilizza la quantità di moto per minimizzare l'autovalore più grande scegliendo i valori per s e beta per rendere gli autovalori della matrice il più piccoli possibile. Discutono anche del metodo di Nesterov e suggeriscono che potrebbe essere possibile ottenere ulteriori miglioramenti tornando indietro di due o tre passaggi o più.