L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1747

 
Mihail Marchukajtes:
Che diavolo è questo?

Di cosa si trattava?). Sono contento che l'abbiano riportato))))

 
Non ho modo di capire il principio matematico di NS.

Quello che ho capito:

1. un campione di formazione - blocchi isolati di dati contenenti rappresentazioni modificate di un invariante semantico.

2. Struttura di NS - assemblaggio di strati successivi di "neuroni", dove il primo strato accetta i dati (e ha il numero necessario di neuroni per questo), e altri strati sono destinati alla generalizzazione dei dati elaborati nel primo strato e a portarli all'invariante, operati da una chiara logica di programma.

3. "Neurone" - una funzione che prende sequenzialmente un frammento di dati campione di allenamento, trasforma questo frammento in "peso" e lo passa allo strato successivo.

Non mi è chiaro come l'invariante non ovvia nei dati sia matematicamente ripulita dalla "pula" attraverso diversi strati di filtraggio, correggendo non i dati stessi, ma il loro "peso".
 
Reg Konow:
Ho difficoltà a capire il principio matematico di NS.

Quello che ho capito:

1. Campionamento di apprendimento - blocchi isolati di dati contenenti rappresentazioni modificate di un invariante semantico.

2. La struttura di NS è un assemblaggio di strati successivi di "neuroni", dove il primo strato accetta i dati (e ha il numero necessario di neuroni per questo), e gli altri strati sono destinati a generalizzare i dati elaborati nel primo strato e portarli all'invariante, operati da una chiara logica di programma.

3. "Neurone" è una funzione che riceve sequenzialmente un frammento di dati campione di allenamento, trasforma questo frammento in "peso" e lo passa allo strato successivo.

Non mi è chiaro come l'invariante non ovvia nei dati sia matematicamente ripulita dal "husk" attraverso diversi strati di filtraggio, correggendo non i dati stessi, ma i loro "pesi".

Cercando la collina più alta tra le nuvole, l'altitudine non è visibile dietro le nuvole. Bassa frequenza: trovare l'inizio delle quote e rilevare vicino ad esse, dove non ci sono quote non rilevare. È possibile rilevare l'inizio delle alture e non rilevare piccole aree. Una specie di campionamento intelligente. Ma in ogni caso è un algoritmo. In ogni caso, la forza bruta completa con una probabilità molto piccola non perderà a diverse varianti, con qualsiasi logica di ricerca, attraverso e attraverso, ad entrambe le estremità per iniziare, la probabilità di trovare una ricerca più veloce con la logica della ricerca è più alta che nel sequenziale completo.

 
Reg Konow:
Non riesco a capire il principio matematico di NS.

Non state cercando di capirlo - state cercando di inventarlo.

Per capire le basi matematiche di NS si dovrebbe leggere la teoria di Kolmogorov - Arnold - Hecht-Nielson.

 
Aleksey Nikolayev:

Non state cercando di capirlo - state cercando di inventarlo.

Per capire le basi matematiche di NS si dovrebbe leggere la teoria Kolmogorov - Arnold - Hecht-Nielson.

Raramente è spiegato chiaramente. E poche persone sono in grado di capirlo dalle formule)))))

 
Aleksey Nikolayev:

Non stai cercando di capirlo - stai cercando di inventarlo...

In una certa misura questo è necessario. Puoi capire veramente solo qualcosa che è stato creato da te stesso. Sto cercando di riprodurre l'idea originale del concetto di NS.
 

attraverso la retropropagazione dell'errore di definizione invariante e la ricerca di un estremo locale o globale della funzione del neurone con metodi di ottimizzazione newtoniana o quasi newtoniana, regolando diversi gradienti

Questo è più comprensibile per Peter

 
Valeriy Yastremskiy:

Cerca la collina più alta tra le nuvole, nessuna elevazione visibile dietro le nuvole. Bassa frequenza trovare l'inizio di elevazione e sondare vicino a loro, dove non ci sono elevazioni non sondare. Puoi sorvegliare l'inizio delle altezze elevate e tralasciare le zone piccole. Una specie di campionamento intelligente. Ma in ogni caso è un algoritmo. In ogni caso, la ricerca completa con una probabilità molto piccola non perderà a diverse varianti, con qualsiasi logica di ricerca, attraverso e attraverso, ad entrambe le estremità per iniziare, la probabilità di trovare una ricerca più veloce nella ricerca con la logica del desiderato è maggiore che in pieno sequenziale.

ahahah)))

 
Valeriy Yastremskiy:

Cerca la collina più alta tra le nuvole, nessuna elevazione visibile dietro le nuvole. Bassa frequenza trovare l'inizio di elevazione e sondare vicino a loro, dove non ci sono elevazioni non sondare. È possibile rilevare l'inizio delle alture e non rilevare piccole aree. Una specie di campionamento intelligente. Ma in ogni caso è un algoritmo. In ogni caso la ricerca completa con una probabilità molto piccola non perderà diverse opzioni, con qualsiasi logica di ricerca, attraverso e attraverso, ad entrambe le estremità per iniziare, la probabilità di trovare una ricerca più veloce nella ricerca con la logica del desiderato più alto che in un sequenziale completo.

Questa spiegazione è più adatta a GA, penso)).
 
Maxim Dmitrievsky:

attraverso la retropropagazione dell'errore di definizione invariante e la ricerca di un estremo locale o globale della funzione del neurone con metodi di ottimizzazione newtoniana o quasi newtoniana, regolando diversi gradienti

Questo sarà più chiaro per Piotr

Quindi, il lavoro di NS è legato a Optimization in un modo o nell'altro?
Motivazione: