L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2121

 
Elibrarius:

L'ho fatto, ma non ha funzionato.

Questo è strano... OK, darò un'altra occhiata a questo argomento - vi farò sapere più tardi.

 
A proposito, il codice CatBoost ha un metodo di quantizzazione
GreedyMinEntropy

che non è elencato nella documentazione ufficiale.

 
Maxim, puoi confrontare dove la velocità di apprendimento è più veloce, in python o nella versione console di CatBoost?
 
Aleksey Vyazmikin:
Maxim, puoi confrontare dove la velocità di apprendimento è più veloce, in python o nella versione console di CatBoost?
Lo stesso, è lo stesso programma
 
Alexander_K:

Strano... OK, darò un'altra occhiata a questo thread - riferirò più tardi.

Prima ha parlato per ricordo e si è rivelato sbagliato.

Ho appena controllato poco fa con la convalida incrociata. Il tempo dà ancora l'1-2% di aumento sui nuovi dati. Mentre la prevalenza totale delle previsioni di successo su quelle senza successo è di circa il 5% a TP=SL. Cioè dal 10 al 30% di contributo al successo viene dal tempo.

Tuttavia, questo è un test su un pezzo di storia di 2 mesi. Su un altro pezzo di storia, le cose possono cambiare.
 

Alimento il tempo come coseno e seno. Questo è stato discusso qui https://www.mql5.com/ru/forum/212376#comment_5983502

Così come 0...5(giorno della settimana) o 0...23 (ora) o 0...59 (minuto) può anche essere alimentato, ma come variabile categorica.
Seno e coseno sono già numerici, qualsiasi algoritmo accetterà.

Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
Обсуждение статьи "Глубокие нейросети (Часть II). Разработка и выбор предикторов"
  • 2017.07.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть II). Разработка и выбор предикторов: Автор: Vladimir Perervenko...
 

c'è una tendenza relativamente nuova chiamata apprendimento attivo. Può auto-campionare i dati nel miglior modo possibile. Sembra essere adatto al mio approccio (campionamento casuale). Non ci sono ancora entrato.

https://libact.readthedocs.io/en/latest/overview.html

https://medium.com/towards-artificial-intelligence/how-to-use-active-learning-to-iteratively-improve-your-machine-learning-models-1c6164bdab99

Overview — libact 0.1.3 documentation
  • libact.readthedocs.io
libact is a Python package designed to make active learning easier for real-world users. The package not only implements several popular active learning strategies, but also features the active-learning-by-learning meta-algorithm that assists the users to automatically select the best strategy on the fly. Furthermore, the package provides a...
 
mytarmailS:

Man mano che andiamo avanti, le frequenze ed eventualmente le fasi fluttuano... Le ampiezze tengono...

Ecco la previsione per 500 punti del modello montato sulla storia di 10k di 4 armoniche

Possiamo vedere che la previsione è accurata per tutti i 500 punti ma le frequenze sono fluttuanti e utilizzano un algoritmo incomprensibile

E questo è solo un esempio illustrativo, a volte è anche peggio.

Avete provato con gli incrementi?

"Una delle proprietà utili di una serie di incrementi è la maggiore stabilità dello spettro rispetto al processo originale. "Questa è la scrittura di Goodman.

 
elibrarius:

Alimento il tempo come coseno e seno. Questo è stato discusso qui https://www.mql5.com/ru/forum/212376#comment_5983502

Così come 0...5(giorno della settimana) o 0...23 (ora) o 0...59 (minuto) può anche essere alimentato, ma come variabile categorica.
Seno e coseno sono già numerici, qualsiasi algoritmo accetterà.

Puoi postare la funzione che converte il tempo in seno/coseno? Proverei anche questo metodo. Nell'articolo che ho pubblicato, il numero dell'ora è risultato essere un predittore significativo. Mi chiedo se questo metodo è adatto ai modelli di legno o più alle reti neurali.

 

no

Motivazione: