L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2495

 
mytarmailS #:

..

Sì, è vero, è vero, calmati)))

Ripeto zio grunt :-)
 
Pazzesco. Sembra che le reti neurali regnino davvero qui. Almeno un paio dei miei sono a quel livello...
 
eccocom #:
Thrash. Sembra che le reti neurali regnino davvero qui. Almeno un paio dei miei sono a quel livello...

ridevano tutti i turni collettivi di fattoria e di fabbrica (sì, tutti assemblati) :-)

mostratemi un segnale più vecchio di un anno che funzioni effettivamente sulle reti neurali

Di solito parlano solo di "reti neurali, apprendimento profondo" e altre sciocchezze. E quando considerato - martingala, serrature, griglie e semplici MA. La dura realtà - semplici algoritmi e semplici truffe dominano.

---

Per quanto guardo questo thread vedo il risultato: solo articoli belli (davvero molto buoni) e autosviluppo personale degli autori

 
Maxim Kuznetsov #:

ridendo tutta la fattoria collettiva e il turno di fabbrica (sì, tutti assemblati) :-)

mostratemi un segnale più vecchio di un anno che funzioni effettivamente sulle reti neurali

Di solito parlano solo di "reti neurali, apprendimento profondo" e altre sciocchezze. E quando considerato - martingala, serrature, griglie e semplici MA. La dura realtà - semplici algoritmi e semplici truffe dominano.

---

Ogni volta che guardo questo thread vedo il risultato: solo articoli belli (davvero molto buoni) e l'autosviluppo personale degli autori

Non è quello che intendevo...

E sulle reti neurali ho scritto sopra che lo standard è 55-56, in generale circa niente.

 
eccocom #:
Per quanto riguarda i modelli, non si tratta di loro, si tratta del fatto che l'IA è essenzialmente un approssimatore...

è questo il punto, si tratta di modelli, che sono creati sulla base di dipendenze trovate con l'IA, -- e non si deve andare dal modello al NS, ma dal NS al modello -- lavorando in specifiche condizioni attuali... Naturalmente, le condizioni possono cambiare...

quando ho pensato che l'equilibrio sul segmento classico dell'AS e lo squilibrio sul segmento keynesiano -- secondo Keyns -- ho già capito che il NS per determinare questo fatto globalmente non è più importante per me...

(e l'approssimazione è solo 1 delle abilità di AI, + l'ottimizzazione, ecc,)

Evgeniy Ilin # :

Tutto ciò di cui avete bisogno è in OHLC, il resto dei dati è derivato da esso. La cosa principale è un algoritmo flessibile che troverà un modo per convertire OHLC in quei dati che hanno più peso, di nuovo è un compito della macchina. Inoltre solo l'OHLC è lo stesso quasi ovunque, se si guardano i volumi in tick o altro questi dati sono diversi, così come gli spreads e così via. Tutto ciò di cui hai bisogno è sul grafico del terminale.

Ma se avete la capacità di apprendimento profondo, è probabilmente possibile... (Ho anche ricordato come trovare la curvatura della "linea retta", come in una nebbia, usando 1a e 2a derivata, grazie all'autore della citazione))

E se è più modesto, si può anche eseguire un campione per il momento attuale... per poi riqualificarsi quando la curva dei rendimenti comincia a diventare orizzontale...

ma se inizialmente si usano segni che contano davvero (logicamente ed economicamente), allora la macchina stessa capirà cosa guida il mercato al momento (cioè, ciò da cui il guidatore dipende maggiormente al momento)...

Mihail Marchukajtes ha un approccio molto interessante/logico e grazie a lui per aver spiegato il polinomio(cercherò di ricordarlo anche io)... solo un uomo che sa... ma se l'altra persona non sa e non vuole sapere come funziona la statistica passata (NON ancora un modello!!!), in modo che possa essere ragionevolmente elaborata per essere trasferita al futuro (con 50/50 di probabilità, ovviamente) -- allora darà la colpa al modello, al neurone, al mercato e alle condizioni... e a proposito, il cambiamento di quest'ultimo è esattamente dove si possono mettere buoni input! - Lo schema di funzionamento di qualsiasi ecosistema, indipendentemente dalla sua struttura, è sempre lo stesso: Condizioni -> Reazioni -> Conseguenze (e anche conseguenze ambientali).

La principale abilità di un trader è sapere quando NON entrare nel mercato... imho!

P.S.

E se le dipendenze attuali trovate e le loro interazioni si sviluppano o meno in un modello è una questione globale... E non riguarda il NS, ma piuttosto le capacità di approccio del cervello dell'autore dello studio campione, che usa il NS come strumento, ma non come motivo per entrare, e senza delegare a lui/lei la responsabilità di analisi e conclusioni

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.25
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Questo è il problema dei modelli, che sono creati sulla base delle dipendenze trovate con l'IA - e non si deve andare da un modello al NS, ma dal NS a un modello - lavorando in specifiche condizioni attuali... Naturalmente, le condizioni possono cambiare...

quando ho pensato che l'equilibrio sul segmento classico dell'AS e lo squilibrio sul segmento keynesiano -- secondo Keyns -- ho già capito che il NS per determinare questo fatto globalmente non è più importante per me...

(e l'approssimazione è solo 1 delle abilità dell'IA, + l'ottimizzazione, ecc,)

ma se c'è capacità di apprendimento profondo, credo che sia possibile... (Mi sono anche ricordato come trovare la curvatura di una "linea retta", come nella nebbia, usando il 1a e 2a derivata, grazie all'autore della citazione))

E se è più modesto, si può anche eseguire un campione per il momento attuale... per poi riqualificarsi quando la curva dei rendimenti comincia a diventare orizzontale...

ma se inizialmente si usano attributi realmente rilevanti (logicamente ed economicamente), allora la macchina stessa capirà cosa sta muovendo il mercato al momento (cioè, ciò da cui il pilota dipende maggiormente)...

Mihail Marchukajtes ha un approccio molto interessante/logico e grazie a lui per aver spiegato il polinomio (cercherò di ricordarlo anche io)... solo un uomo che sa... ma se l'altra persona non sa e non vuole sapere come funziona la statistica passata (NON ancora un modello!!!), in modo che possa essere ragionevolmente elaborata per essere trasferita al futuro (con 50/50 di probabilità, ovviamente) -- allora darà la colpa al modello, al neurone, al mercato e alle condizioni... e a proposito, il cambiamento di quest'ultimo è esattamente dove si possono mettere buoni input! - Lo schema di funzionamento di qualsiasi ecosistema, indipendentemente dalla sua struttura, è esattamente il seguente: Condizioni -> Reazioni -> Conseguenze (e anche conseguenze ambientali)

La principale abilità di un trader è sapere quando NON entrare nel mercato... imho!

P.S.

Se un commerciante ha trovato le dipendenze attuali e le loro interazioni in un modello o no - è una questione globale... e non riguarda il NS, ma piuttosto la capacità di approccio del cervello dell'autore della ricerca, che usa il NS come strumento, ma non gli delega tutta la responsabilità dell'analisi e delle conclusioni

Capisco, dove andrà l'euro oggi?
 
eccocom #:
Leggi la documentazione di TensorFlow, tutto è in forma di costruttore... praticamente. In realtà si tratta di scatole nere. Se è interessante posso darvi il codice del perceptron scritto manualmente, e comunque sono tutti calcoli di matrici, è tutto costruito su di esse

A proposito tensorflow.keras (come quello di Evgeny Dyuka)

Al momento Keras non fornisce alcuna funzionalità per estrarre l'importanza della caratteristica

SKLearn sembra più interessante - Interpretazione dei risultati di apprendimento automatico(forse la libreria non è molto buona, ma la logica di valutazione è data)

p.s.

non hai attaccato...

Feature Importance Chart in neural network using Keras in Python
Feature Importance Chart in neural network using Keras in Python
  • 2017.07.27
  • andre andre 481 1 1 gold badge 5 5 silver badges 8 8 bronze badges
  • stackoverflow.com
I am using python(3.6) anaconda (64 bit) spyder (3.1.2). I already set a neural network model using keras (2.0.6) for a regression problem(one response, 10 variables). I was wondering how can I generate feature importance chart like so:
 
JeeyCi #:

a proposito di tensorflow.keras (come Evgeny Dyuka ha) - poi

SKLearn sembra più interessante - Interpretazione dei risultati dell'apprendimento automatico (forse la libreria non è molto buona, ma la logica di valutazione è data)

p.s.

non hai attaccato...

Stai entrando in una specie di giungla. I problemi di previsione (o piuttosto di non previsione) della NS sono a un livello molto più semplice e non hanno nulla a che fare con la NS stessa

https://neurohive.io/ru/tutorial/prostaja-nejronnaja-set-python/

È un semplice perceptron))).

Il mio esempio di tutorial è in Jupiter, non voglio copiare a pezzi e non uso githab.

Простая нейронная сеть в 9 строк кода на Python
Простая нейронная сеть в 9 строк кода на Python
  • 2019.02.14
  • neurohive.io
Из статьи вы узнаете, как написать свою простую нейросеть на python с нуля, не используя никаких библиотек для нейросетей. Если у вас еще нет своей нейронной сети, вот всего лишь 9 строчек кода: Перед вами перевод поста How to build a simple neural network in 9 lines of Python code , автор — Мило Спенсер-Харпер . Ссылка на оригинал — в подвале...
 
eccocom # :

Stai entrando in una sorta di routine.

La logica... che NS si usa quando si vuole aggirare la mancanza di una formula che descriva la dipendenza di un tratto da un fattore... la ponderazione è usata... ma prima e dopo NS, l'elaborazione statistica standard/classica è in vigore... per esempio avendo solo PDF=F'(X)=dF(x)/dx (anche se non abbiamo bisogno di CDF, poiché tutte le conclusioni dell'analisi della popolazione sono tratte da PDF) e avendo dati volatili - prima di tutto devo portare le distribuzioni all'uniformità per la possibilità della loro analisi congiunta - e qui la ponderazione aiuta (qui non aspiro alla matematica)... ma l'analisi stessa non ha nulla a che fare con NS, né le sue conclusioni ad essa (ns)... anche se tale stima può essere rozza, ma la statica classica è anche imperfetta (per esempio l'uso dei logaritmi degli incrementi introduce già di per sé la tendenza nelle conclusioni - un difetto puramente matematico)... infatti ogni modello ha i suoi presupposti...

I partecipanti al mercato NON aspettano le previsioni, ma valutano il rischio e la volatilità e prendono le loro decisioni di trading (e di copertura) in base a questo... è solo che ci sono 2 fattori variabili in questa analisi - volatilità e finestra temporale - e NS aiuta a portare i campioni in uniformità (ma si può anche usare GARCH) in modo che possano essere analizzati insieme in un unico modello statistico e aiuta a determinare l'orizzonte... In quei momenti, quando non c'è una formula matematica, che non serve (tutto cambia in questo mondo)... ma ponderando, ponderando e ponderando ancora (per il gusto di comprimere qualche regressione) - per fare un'analisi congiunta in un modello statistico, e preferibilmente senza rumore o almeno con la sua minimizzazione...

La logica di inferenza bayesiana per la gaussiana vale la pena di essere tenuta a mente...

La cosa principale, suppongo, è costruire una tale architettura NS, che quando gli strati neuronali passano sulla via dell'uscita, la dispersione non aumenta... imho (perché accumularla, se è disponibile così com'è, è una domanda retorica)... e poi la logica classica della statistica... e anche nella storia molto profonda non ci sono abbastanza campioni per analizzare qualitativamente i momenti robusti (tutto accade nella vita)... Immagino che anche nel modello di classificazione di Mihail Marchukajtes i valori anomali possano accadere... (dobbiamo pensare, come dovrebbe comportarsi il sequenziatore con loro?)

finora il mio imho è ... Guarderò anche import scipy.stats come stats

p.s.

grazie per il link

 
JeeyCi #:

alla logica ... che NS è usato quando è necessario aggirare la mancanza di una formula che descriva la dipendenza di un tratto da un fattore... la ponderazione è usata... ma prima e dopo NS l'elaborazione statistica standard/classica... per esempio avendo solo PDF=F'(X)=dF(x)/dx (anche se non abbiamo bisogno di CDF, poiché tutte le conclusioni dell'analisi della popolazione sono tratte da PDF) e avendo dati volatili - prima di tutto devo portare le distribuzioni all'uniformità per la possibilità della loro analisi congiunta - e qui la ponderazione aiuta (qui non aspiro alla matematica)... ma l'analisi stessa non ha nulla a che fare con NS, né le sue conclusioni ad essa (ns)... anche se tale stima può essere rozza, ma la statica classica è anche imperfetta (per esempio l'uso dei logaritmi degli incrementi introduce già di per sé una tendenza nelle conclusioni - difetti puramente matematici)... infatti ogni modello ha i suoi presupposti...

I partecipanti al mercato NON aspettano le previsioni, ma valutano il rischio e la volatilità e prendono le loro decisioni di trading (e di copertura) in base a questo... è solo che ci sono 2 fattori variabili in questa analisi - volatilità e finestra temporale - e NS aiuta a portare i campioni in uniformità (ma si può anche usare GARCH) in modo che possano essere analizzati insieme in un unico modello statistico e aiuta a determinare l'orizzonte... In quei momenti, quando non c'è una formula matematica, che non serve (tutto cambia in questo mondo)... ma ponderando, ponderando e ponderando ancora - per fare un'analisi congiunta in un modello statistico, e preferibilmente senza rumore o almeno con la sua minimizzazione...

La cosa principale, suppongo, è costruire un'architettura NS tale che la dispersione non aumenti quando gli strati neuronali passano sulla via dell'uscita... imho (perché accumularlo, se è disponibile così com'è - una domanda retorica)... e poi la logica classica della statistica... e anche nella storia molto profonda non ci sono abbastanza campioni per analizzare qualitativamente i momenti robusti (tutto accade nella vita)

finora il mio imho è ... Darò un'altra occhiata a import scipy.stats as stats

p.s.

grazie per il link

Quando inizierà l'applicazione pratica?