Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 626

 
Maxim Dmitrievsky:

Porquê, não, há demasiadas árvores... estava bem mesmo com 10 (não me lembro de quantas eu montei)

500 é muito, o suficiente para qualquer conjunto de dados.

Por que havia tantos erros com números fracionários? ... estranho, esperava que uma máquina aprendesse exatamente... Então, no caso de padrões (em forex) o visual deles está longe de ser claro (como a tabela de multiplicação), é bom, se você conseguir previsões verdadeiras em 60% dos casos.
 
Anatolii Zainchkovskii:
Porque é que tais erros ocorreram com números fracionários? ... estranho, eu esperava que a máquina pudesse aprender exactamente... Assim, no caso de padrões (em forex) sua forma está longe de ser clara (como tabela de multiplicação) é bom se você obtiver previsões corretas em 60% dos casos.

Os erros ocorreram porque o parâmetro r era baixo, o que significa que apenas metade dos exemplos foram utilizados para treinamento, e esta metade foi treinada em metade das árvores :) e há poucos exemplos

você tem que definir r~1 para ser exato. Utilizado para pseudoregularização e para testes em amostras fora de saco

é que este mecanismo precisa de ser ajustado, no caso da floresta, existem apenas 2 configurações

Você também deve entender que NS (RF) não é uma calculadora, mas se aproxima de uma função, e precisão muito alta é mais ruim do que boa para muitas tarefas.

 
elibrarius:

Receio que a regressão/previsão na rede produza mais ou menos a mesma coisa que a procura de sites/padrões similares na história (o que fiz há 3 meses atrás):

e a classificação não é melhor :) o princípio é o mesmo, ele apenas o divide em classes
 
Maxim Dmitrievsky:

Os erros ocorreram porque o parâmetro r era baixo, o que significa que apenas metade dos exemplos foram utilizados para treinamento, e esta metade foi treinada em metade das árvores :) e há poucos exemplos

você tem que definir r~1 para ser exato. Utilizado para pseudoregularização e para testes em amostras fora de saco

Você só precisa saber afinar este mecanismo, no caso da floresta, existem apenas 2 configurações

Se você definir r como 1, então ele aprenderá em todos os exemplos. isto é basicamente o que é necessário, caso contrário, por que coletar exemplos e mostrá-los?
 
Anatoly Zainchkovskii:
Isto é, se você definir r para 1, então ele será treinado em todas as amostras.

A floresta não utilizará todos os atributos de qualquer forma, portanto há uma modificação do modelo onde você pode configurá-lo para utilizar todos os atributos. Mas isso não é recomendado porque a floresta vai se lembrar de todas as opções

e a seleção de configurações é muitas vezes uma coisa tão subjetiva, você tem que experimentar

se for inferior a 1, o modelo é validado nas amostras restantes (o modelo é estimado nos dados que não foram levados para a amostra de treino). r clássico é 0,67, no modelo 33% restante é validado. Claro que isto é verdade para as amostras grandes, para as pequenas é como com a tabela de multiplicação - é melhor definir 1.

 
Maxim Dmitrievsky:

A floresta não utilizará todos os atributos de qualquer maneira, portanto há uma modificação do modelo onde você pode configurá-lo para utilizar todos os atributos. Mas isso não é recomendado porque a floresta vai se lembrar de todas as opções

e a seleção de configurações é muitas vezes uma coisa tão subjetiva, você tem que experimentar

Se for inferior a 1, o modelo é validado nas amostras restantes (o modelo é estimado em dados que não foram levados para a amostra de treinamento). De acordo com o r clássico é definido como 0,67, no modelo 33% restante é validado

Obrigado pelas dicas. Vou acrescentá-las)
 
Encontrei acidentalmente um velho desenvolvimento de API Python-MT4. Alguém parece ter estado a trabalhar neste tópico recentemente. Veja isso, talvez ajude https://github.com/zonquan/PyMT4
 

Seleção de características

Um pouco de datamining. Eu estava fazendo a seleção de características via Chi^2 + KBest, RFE (Recursive feature elimination) + (SGDClassifier, RidgeClassifier), L2 (Ridge, RidgeClassifier), L1 (Lasso). A regularização da crista dá resultados mais sãos.
Alguns gráficos:
rfe

RFE + Ridge & SGD

cumeeira l2

Regressor de cumeeira (L2).

cume l2 cl

Classificador de cumeeira (L2)

O arquivo contém uma tabela de valores de parâmetros, e sua amostragem por seleção de características.

Os coeficientes mais significativos acabaram por ser os mais significativos:

  • 10, 11 - Fechar, Delta (Abrir-Fechar)
  • 18-20 - Derivados Alto, Baixo, Fechado
  • 24 - Derivado de log Fechar
  • 29, 30 - Lowess
  • 33 - Detranding Close - Lowess
  • 35 - EMA 26 (13 como opção)
  • 40 - EMA Derivado 13
PS. A linha Ridge Classifier na tabela é baseada em uma classe, ela não reflete dependências de parâmetros em outras classes.
Referência ao guião.
Arquivos anexados:
 

esboçou um novo diagrama de rede, esta é a primeira descrição. Haverá mais tarde (esperemos)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Идеальная нейронная сеть для финансовых рынков
Идеальная нейронная сеть для финансовых рынков
  • 2018.01.29
  • rationatrix.blogspot.com.cy
В данной статье, обсудим начало экспериментов с созданием нейронной сети, которая оптимальным образом подходила бы для работы на валютном рынке. Основной недостаток классических НС заключается в их статической/статистической природе, когда модель обучается на исторических данных и, впоследствии, рыночные закономерности меняются, а нейросеть...
 
Maxim Dmitrievsky:

esboçou um novo diagrama de rede, esta é a primeira descrição. Haverá mais tarde (esperemos)

https://rationatrix.blogspot.ru/2018/01/blog-post.html

Porque será que o primeiro post foi apagado? Ele blogou o esquema. =)

Razão: