Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 38
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Per favore, chiarisci nel contesto di un normale ottimizzatore MT5 e di un normale EA. Come sarebbe? Prendere due set dall'elenco di ottimizzazione (non correlati), combinarli ed eseguirli? Oppure c'è qualcos'altro in mente
In base ai risultati si ottengono alcuni coefficienti, che vengono inseriti nel codice dell'EA prima del codice che lavora con le variabili ottimizzate.
In questo modo, si ottiene un filtro dal primo passaggio e la seconda rete apprende non da tutti gli esempi, ma solo da quelli filtrati dal primo NS.
L'obiettivo è aumentare la matrice di aspettativa riducendo i falsi ingressi: a giudicare dal grafico, è molto bassa.
Oppure, come ho già suggerito in precedenza, provare ad allenarsi sui risultati filtrati utilizzando altri metodi - lo stesso CatBoost.
Gli specialisti del settore MoD dicono
Non è questo il punto - si può cercare tutto e come si vuole, è solo che la variante ottimale sui dati della ricerca non garantisce lo stesso risultato sui dati al di fuori di questa ricerca (in relazione al mercato).
Se esiste un algoritmo che non solo cerca i parametri ottimali dal punto di vista matematico sul FF, ma tiene anche conto della struttura dei dati, permettendo di vedere una certa dipendenza stabile su due campioni dopo l'addestramento, allora è davvero prezioso per l'applicazione al mercato. Inoltre, è sempre possibile trovare qualcosa per caso, come ho dimostrato nell'argomento MO - nella mia recente ricerca.
In base ai risultati ottenuti si ottengono alcuni coefficienti, che vanno scritti nel codice del vostro NS prima del codice che lavora con le variabili ottimizzate.
In questo modo, si ottiene un filtro dal primo passaggio e la seconda rete apprende non da tutti gli esempi, ma solo da quelli filtrati dal primo NS.
L'obiettivo è aumentare la matrice di aspettativa riducendo i falsi ingressi: a giudicare dal grafico, è molto bassa.
Oppure, come ho già suggerito in precedenza, provare ad allenarsi sui risultati filtrati utilizzando altri metodi - lo stesso CatBoost.
Ah, capito Grazie per l'idea
Ah, capito Grazie per l'idea
Non c'è di che! Condividi i tuoi risultati.
Sì, per favore! Condividete i vostri risultati.
e i bot.
Viene dall'articolo sui bot di Perseptron? Allora non farlo.1. Non è questo il punto: si può cercare tutto e come si vuole,
2. la semplice variante ottimale sui dati della ricerca non garantisce lo stesso risultato sui dati al di fuori di questa ricerca (come applicato al mercato).
3. Se esiste un algoritmo che non solo cerca i parametri ottimali dal punto di vista matematico sulla FF, ma tiene anche conto della struttura dei dati, permettendo di vedere una certa dipendenza stabile su due campioni dopo l'addestramento, allora è davvero prezioso per l'applicazione al mercato.
4. ed è sempre possibile trovare qualcosa per caso, come ho dimostrato nel tema del MO - nella mia recente ricerca.
1. Qual è il punto? - Non che si possa cercare qualsiasi cosa, ma qual è esattamente lo scopo della ricerca?
2. e cosa la garantisce?
3. Non ho visto uno specifico algoritmo unico che possa trovare "la dipendenza stabile su due campioni dopo l'addestramento", ma ci sono considerazioni logiche, un insieme di tecniche e considerazioni su come questo può essere ottenuto (o almeno per capire quale strada percorrere).
4. Perché cercare qualcosa di casuale quando si può cercare qualcosa di non casuale?
1. Qual è lo scopo? - Non che si possa cercare qualsiasi cosa, ma qual è lo scopo della ricerca?
2. Cosa la garantisce?
3. Non ho visto uno specifico algoritmo unico che possa trovare "la dipendenza stabile su due campioni dopo l'addestramento", ma ci sono considerazioni logiche, un insieme di tecniche e considerazioni su come raggiungere questo obiettivo (o almeno capire quale strada percorrere).
4. Perché cercare qualcosa di casuale quando si può cercare qualcosa di non casuale?
1. Il punto è che non è solo l'algoritmo che conta, ma anche la natura/origine dei dati - stiamo parlando sia della (non) stazionarietà dei processi sia della non rappresentatività del campione se parliamo di consentire diversi metodi di ottimizzazione.
2. Non ho una risposta - la sto cercando.
3. Sarei interessato a conoscerla.
4. Qui ho scritto che se non c'è un algoritmo dal punto 2, allora tutti gli approcci mostrano essenzialmente efficienza in modo casuale su nuovi dati - migliore o peggiore non è una questione di logica dell'algoritmo (anche se ammetto che ci sono euristiche che migliorano il risultato), ma la casualità dei dati ottenuti determina il risultato.
Quando si esamina una funzione nota, essa (le sue costanti) non cambia rispetto alle variabili in entrata, più esempi si hanno, più possibilità si hanno di scegliere correttamente i suoi coefficienti. Nei dati di mercato ci sono limiti al numero di esempi che si possono ottenere, e c'è un problema nel fatto che ci sono molti generatori di numeri che lavorano contemporaneamente con la propria funzione (anche se si tratta di grandi partecipanti le cui regole di comportamento sono approvate e stampate, come nel caso della nostra Banca Centrale). Quindi si scopre che idealmente è possibile adattarsi a regole di comportamento simili di diversi partecipanti, ci sarà una funzione così rumorosa che descrive solo una parte del mercato, ed è così che vedo la situazione. Allo stesso tempo, i partecipanti possono passare da una funzione di comportamento a un'altra....
Gli algoritmi di ottimizzazione riportati negli articoli stessi sono molto interessanti. Provate a considerare di petto l'ammissibilità della loro applicazione, magari prendendo anche un centinaio di funzioni diverse mescolate insieme e cercando di descriverne almeno una? In generale, rendete l'esperimento più complicato.
1. Il punto è che non è solo l'algoritmo che conta, ma anche la natura/provenienza dei dati - stiamo parlando sia della (non) stazionarietà dei processi che della non rappresentatività del campione, se parliamo dell'ammissibilità di diversi metodi di ottimizzazione.
2. Non ho una risposta - sono alla ricerca di una risposta.
3. Sarei interessato a conoscerla.
4. Ho scritto qui che se non esiste un algoritmo dal punto 2, allora tutti gli approcci mostrano essenzialmente prestazioni casuali su nuovi dati - migliori o peggiori non è una questione di logica dell'algoritmo (anche se ammetto che ci sono euristiche che migliorano il risultato), ma la casualità dei dati ottenuti determina il risultato.
Quando si esamina una funzione nota, essa (le sue costanti) non cambia rispetto alle variabili in entrata, più esempi si hanno, più possibilità si hanno di scegliere correttamente i suoi coefficienti. Nei dati di mercato ci sono limiti al numero di esempi che si possono ottenere, e c'è un problema nel fatto che ci sono molti generatori di numeri che lavorano contemporaneamente con la propria funzione (anche se si tratta di grandi partecipanti le cui regole di comportamento sono approvate e stampate, come nel caso della nostra Banca Centrale). Quindi si scopre che idealmente è possibile adattarsi a regole di comportamento simili di diversi partecipanti, ci sarà una funzione rumorosa che descrive solo una parte del mercato, ed è così che vedo la situazione. Allo stesso tempo, i partecipanti possono passare da una funzione di comportamento a un'altra....
Gli algoritmi di ottimizzazione riportati negli articoli stessi sono molto interessanti. Provate a considerare di petto la questione dell'ammissibilità della loro applicazione, magari prendendo anche un centinaio di funzioni diverse mescolate insieme e cercando di descriverne almeno una? In generale, rendete l'esperimento più complicato.
Più avanti nel testo: due citazioni, dopo di che - il mio testo
1.
Non è questo il punto: si può cercare tutto e come si vuole,
Il punto è che non solo l'algoritmo è importante, ma anche la natura/origine dei dati - stiamo parlando sia della (non) stazionarietà dei processi che della non rappresentatività del campione, se parliamo dell'ammissibilità di diversi metodi di ottimizzazione.
Sul primo punto non ho parlato di algoritmi di ottimizzazione. L'essenza di ogni ricerca è l'ottimo descritto dall'utente. Indipendentemente dall'algoritmo di ottimizzazione utilizzato, AO consente solo di evitare la necessità di effettuare una ricerca completa. Se è possibile effettuare una ricerca completa, allora AO non è necessario, ma la questione di "cosa è necessario esattamente" rimane, e non importa se il processo è stazionario o meno.
2.
un semplice ottimo sui dati della ricerca non garantisce lo stesso risultato sui dati esterni alla ricerca (rispetto al mercato).
Non ho una risposta - sto cercando.
Nessuno ha una risposta chiara a questa domanda. Se non si sa cosa cercare, allora nessuno e niente lo farà per colui che sta cercando, perché non si sa esattamente cosa cercare, e poiché questo è il caso, è impossibile classificare qualsiasi risultato come "ciò che è stato cercato".
3.
Non ho visto uno specifico algoritmo unico che possa trovare "la dipendenza stabile su due campioni dopo l'addestramento", ma ci sono considerazioni logiche, un insieme di tecniche e considerazioni su come questo possa essere ottenuto (o almeno per capire quale strada seguire).
Sarei interessato a sentirne parlare.
E io, in circostanze favorevoli, sarei felice di parlarne (se capite cosa intendo).
4.
E trovare qualcosa per caso è sempre possibile, come ho mostrato nel topic sul MO - nella mia recente ricerca.
Qui ho scritto che se non c'è un algoritmo dal punto 2, allora tutti gli approcci mostrano essenzialmente efficienza in modo casuale su nuovi dati - meglio o peggio non è una questione di logica dell'algoritmo (anche se ammetto che ci sono euristiche che migliorano il risultato), ma la casualità dei dati ottenuti determina il risultato.
Esattamente, se non si sa cosa cercare, è impossibile trovarlo.
Quando si esamina una funzione nota, questa (le sue costanti) non cambia con le variabili di input, più esempi si hanno, più possibilità si hanno di trovare correttamente i suoi coefficienti. Nei dati di mercato ci sono limiti al numero di esempi che si possono ottenere, e c'è il problema che ci sono molti generatori di numeri che lavorano contemporaneamente con la loro funzione (anche se si tratta di grandi partecipanti le cui regole di comportamento sono approvate e stampate, come nel caso della nostra Banca Centrale). Quindi si scopre che idealmente è possibile adattarsi a regole di comportamento simili di diversi partecipanti, ci sarà una funzione rumorosa che descrive solo una parte del mercato, ed è così che vedo la situazione. Allo stesso tempo, i partecipanti possono passare da una funzione comportamentale all'altra....
Questo è l'argomento della discussione.
Gli algoritmi di ottimizzazione degli articoli stessi sono molto interessanti. Provate a considerare di petto la questione dell'ammissibilità della loro applicazione, magari prendendo anche un centinaio di funzioni diverse, mescolandole e cercando di descriverne almeno una? In generale, è più complicato impostare un esperimento.
Mettiamola così: gli algoritmi di ottimizzazione (comprendendo la loro logica interna e i metodi di ricerca) aprono gli occhi su molte cose e aprono strade e visioni dei percorsi di ricerca (che si tratti di ottimizzazione in forma generale o di apprendimento in forma privata). Sto progettando un articolo con un esperimento di questo tipo, con un mix di caratteristiche.
Cosa intende per"ammissibilità dell'applicazione frontale"? - Non capisco questa formulazione della domanda.
Proprio l'altro giorno ho iniziato il progetto di un cliente, un consulente con una rete neurale (c'è la possibilità di scegliere un algoritmo di ottimizzazione interno, SGD e molti altri), addestramento, validazione e tutto come dovrebbe essere, il progetto è di diverse decine di righe fitte di codice..... Quindi cosa sto dicendo...? è che neuronka mostra ogni volta nuovi risultati sugli stessi dati di addestramento.))))) Neuronics non funziona bene su nuovi dati? Beh, mostra risultati diversi sugli stessi dati, quindi di quali nuovi dati possiamo parlare? Ma non si tratta di neuronka, perché neuronka è solo una formula statica, i pesi e gli offset vengono modificati, ma neuronka non cambia. Allora qual è il problema, perché si ottengono risultati diversi? E il punto è elementare - SGD (e altri) si blocca, attenzione, sulla funzione di perdita)) Cioè, non solo la rete neurale è addestrata in modo incomprensibile, ma anche l'algoritmo di ottimizzazione interno non è in grado di tirare fuori.
Vorrei fare un esperimento per confrontare la stessa rete neurale con i risultati ottenuti con algoritmi di ottimizzazione a gradiente e classici. Ho ventilato questa domanda, non ho trovato alcuna ricerca su questo argomento, vedo e sento solo come dogma "dovresti usare la discesa a gradiente e così via", non c'è una risposta chiara alla domanda "perché dovresti". Ho chiesto a diversi gpt, uno di loro ha fornito articoli a caso da una risorsa scientifica conosciuta, un altro non ha fornito link ma si è ostinato a dire che "è necessario", e il terzo ha ammesso che gli è stato insegnato a dire così e non ha prove delle sue parole, ma sarebbe felice di conoscerle (prove).
Per quanto riguarda il primo punto, non ho parlato di algoritmi di ottimizzazione. L'essenza di qualsiasi ricerca è l'optimum descritto dall'utente. Indipendentemente dall'algoritmo di ottimizzazione utilizzato, AO evita solo la necessità di effettuare una ricerca completa. Se è possibile effettuare una ricerca completa, allora AO non è necessario, ma la questione di "cosa è necessario esattamente" rimane, e non importa se il processo è stazionario o meno.
1. Pensavo che lei avesse fatto riferimento al thread sul MO, perché l'opinione di alcuni partecipanti sugli algoritmi esaminati nei suoi articoli era critica. Ho solo deciso di chiarire, come ho capito, qual è il motivo del disaccordo nella sostanza, secondo me. Non voglio tirare fuori l'argomento delle personalità.
A ndrey Dik #: Nessuno ha una risposta chiara a questa domanda. Se non si sa cosa cercare, allora nessuno e niente lo farà per colui che sta cercando, perché non si sa cosa cercare esattamente, e se è così, allora qualsiasi risultato non può essere classificato come "ciò che si stava cercando".
2. So cosa cercare - dipendenze statisticamente stabili su segmenti quantistici di predittori, ma quali segni raccontare - non lo so ancora. Quando si costruisce un modello, è necessario avere un'alta probabilità di fare il passo giusto ad una nuova iterazione - questo è tutto :)
A ndrey Dik #:
E io, in circostanze favorevoli, sarò lieto di dirtelo (se capisci cosa intendo).
3. Non capisco affatto, ad essere onesti.
A ndrey Dik #:
Esattamente, se non si sa cosa cercare esattamente, è impossibile trovarlo.
4. Ancora non si capisce cosa intendo. Per semplificare, immaginate di poter controllare forzatamente, in un approccio iterativo, secondo l'algoritmo di ottimizzazione, tutti i risultati delle varianti tra cui dovete fare una scelta, e che tale scelta avvicini il modello a un determinato obiettivo su tutti i campioni disponibili. E qui in tasca c'è un modello (o coefficienti - come volete chiamarlo) che è buono sui dati disponibili, ma non è necessariamente l'opzione migliore. In altre parole, l'algoritmo dà un'occhiata a quello che sarà il FF sui dati finali quando sceglie un passo da risolvere in un'iterazione. Ecco cosa intendo: quando non si sbircia, si può accidentalmente ottenere un buon risultato che dipende da passi casuali. Stiamo parlando di dati di mercato. E il risultato può diventare negativo quando vengono forniti nuovi dati. In ogni caso, il punto è che non è così facile capire se si è ottenuto un buon modello per caso o grazie a un algoritmo su un sottocampione non rappresentativo.
A ndrey Dik #:
Questo è l'argomento della discussione.
A ndrey Dik #:
Mettiamola così: gli algoritmi di ottimizzazione (comprendendo la loro logica interna e i metodi di ricerca) aprono gli occhi su molte cose e aprono strade e visioni dei percorsi di ricerca (che si tratti di ottimizzazione in generale o di apprendimento in particolare). Sto progettando un articolo con un esperimento di questo tipo, con un mix di caratteristiche.
Sarei interessato a leggere di un tale esperimento e di quanto rifletta il modello di formazione del mercato.
A ndrey Dik #:
Cosa significa"ammissibilità della domanda frontale"? - Non capisco questa formulazione della domanda.
Significa utilizzarlo allo stesso modo dell'ottimizzatore standard con la sua genetica e i suoi FF standard. L'accettabilità qui si riferisce alla probabilità di ottenere un modello stabile (impostazioni) su nuovi dati. Quindi è chiaro cosa verrà cercato e trovato....
A proposito, avete valutato come gli algoritmi affrontano le caratteristiche categoriali?
A ndrey Dik #: Allora qual è il punto, perché si ottengono risultati diversi?
Molti algoritmi usano la randomizzazione per la variabilità, non ne hai incontrati di simili al di fuori del MOE? Se vuoi risultati ripetibili, fissa il seme.
A ndrey Dik #: Voglio fare un esperimento, per confrontare lo stesso neurone con i risultati ottenuti con algoritmi di ottimizzazione a gradiente e classici.
È necessario confrontare non un solo modello, ma almeno un centinaio - con alcuni criteri statistici descrittivi. Solo la probabilità di scegliere le impostazioni giuste (modello) può essere stimata su nuovi dati...
A ndrey Dik #: Ho cercato di rispondere a questa domanda, ma non ho trovato alcuna ricerca sull'argomento.
La discesa del gradiente viene utilizzata come metodo efficiente per utilizzare le risorse computazionali. Ci sono metodi più complicati e pesanti, come ha detto il docente in un video, ma non ricordo, solo la logica è chiara.