Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 487

 
Ivan Negreshniy:

As florestas aleatórias devem ter pequenos erros, porque todas as variáveis são usadas em árvores de decisão e não há restrição de uso de memória como nas redes neurais - o número de neurônios. Lá você só pode usar operações separadas para "desfocar" o resultado, tais como restrição de nível, corte de árvores ou gamão. Não sei se a implementação da MQ de algibeira tem poda, ensacamento

Se esta variável for menor que 1, o erro deve subir.


é, mas o erro ainda estava mostrando média, como descrito acima... agora é normal

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

A propósito, mesmo diminuindo r por o.1, o erro aumenta muito. Acima de r 0,9 abaixo de 0,8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

Em r = 0,66 (como na versão clássica de RF)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

E os resultados mostram que a tabela de multiplicação já resolve mal.

 
Ivan Negreshniy:

As florestas aleatórias devem ter pequenos erros, porque todas as variáveis são usadas em árvores de decisão e não há restrição de uso de memória como nas redes neurais - o número de neurônios. Lá você só pode usar operações separadas para "desfocar" o resultado, tais como restrição de nível, corte de árvores ou gamão. Não sei se há poda na implementação da MQ de algibeira, há etiquetagem

Se esta variável for definida menor que 1, o erro deve subir.

para que o erro seja tão pequeno como o de @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
você tem que fazer 1 negócio errado por 5000000000000000000.é impossível em qualquer instrumento.

o meu respeito.
 
Andrey Kisselyov:
para que o erro seja tão pequeno como o de @Maxim Dmitrievsky
preciso de 1 negócio errado por 5000000000000000000. pode não ser possível fazê-lo em qualquer instrumento.

Sinceramente.

O que é que as trocas têm a ver com isso? Estou a dizer-vos que cada árvore de decisão se lembra praticamente de todos os padrões e pode não haver qualquer erro num conjunto de treino com 100% de amostragem, ou seja, R=1.

Sim, é um excesso de equipamento, mas é assim que o algoritmo funciona, é por isso que eles usam todo o tipo de truques em florestas aleatórias.

 
Ivan Negreshniy:

E quanto a negócios, estou dizendo que toda árvore de decisão praticamente se lembra de todos os padrões e pode não haver erro algum na amostragem de 100%, ou seja, R=1.


para isso você precisa olhar para fora do saco, para estimar o modelo, mas então você deve definir r=0,66 máximo.

 
Ivan Negreshniy:

E quanto a negócios, estou dizendo que toda árvore de decisão praticamente se lembra de todos os padrões e não pode haver nenhum erro a 100% de amostragem, ou seja, R=1.

Mas pelas suas palavras entendo que cada árvore se lembrará de algum padrão, que pode não se repetir mais tarde. Mas como não há repetição, não podemos dizer como funcionará e tomar a sua probabilidade 1 como um axioma, em vez de tomá-lo 0,5 como não é conhecido.

com todo o respeito.
 
Maxim Dmitrievsky:

para isso você precisa olhar fora do saco, para avaliar o modelo, mas depois r=0,66 max colocar sim

Provavelmente precisa pegar, mas um ensacamento não é uma técnica muito forte para predição - IMHO
 
Ivan Negreshniy:
Provavelmente precisa pegar, mas etiquetar sozinho não é uma tecnologia muito forte para predição - IMHO

Bem, por agora é só isso... Se eu conseguir uma libra normal com diplinking, eu vou assistir.

mas a velocidade!

 
Maxim Dmitrievsky:

é, mas o erro ainda estava mostrando média, como descrito acima... agora é normal

A propósito, mesmo quando r é reduzido em o.1, o erro aumenta muito. Acima de r 0,9 abaixo de 0,8

Em r = 0,66 (como na versão clássica de RF)

E posso ver pelos resultados que a tabela de multiplicação já resolve muito mal.

Quando aumentei o limiar do sinal NS compensou-o através do aumento da quantidade de dados de entrada necessários, como consequência o erro diminuiu, mas também as variantes de entrada se tornaram menores.






Sinceramente.
 
Andrey Kisselyov:
Eu não entrei na forma como a floresta funciona. mas por suas palavras eu entendo que cada árvore memoriza um padrão, que depois pode não se repetir. neste caso (já que não há repetição), não podemos dizer o quanto ela funcionou no mais e tomar como um axioma sua probabilidade de 1, em vez de levá-la a 0,5, porque é essencialmente desconhecida. daí nós entendemos que a floresta quase nunca está errada (por suas palavras).

com todo o respeito.
R=1 significa que cada árvore pode memorizar todo o conjunto de padrões de treinamento e 0,66 significa apenas 66% e cada árvore seleciona padrões com retorno, ou seja, os mesmos padrões podem ser repetidos por muitas árvores na floresta.
 
Andrey Kisselyov:
Quando aumentei o limiar para o sinal NS compensou-o aumentando o número de entradas necessárias, como consequência, o erro diminuiu, mas também havia menos opções para as entradas.




Sinceramente.

Bem, é uma questão de acertar as fichas e o alvo, embora pareça o que poderia ser mais simples do que uma tabela de multiplicação, mas também não há ali um pequeno erro

Razão: