Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2786

 
Valeriy Yastremskiy #:

Em um processo de Markov, não há dependência do valor no momento.

O que você quer dizer com: onde você está na matriz de transição, você parte daí.

 
Valeriy Yastremskiy #:

Ou seja, se os fatores forem poucos, o processo é controlado, mas após um certo número de fatores, começam a ocorrer colisões e resultados probabilísticos da soma dos fatores. Além disso, os fatores podem ter e têm conexões, e há feedbacks. Mas o processo de Markov não tem essas ligações.

Ele descreve variáveis aleatórias - como pode ter conexões (logicamente, elas estão ausentes).... mas se houver uma matriz, isso significa que podemos encontrar/descrever/perder/formar conexões nela... imho sobre a descrição do estado sob a influência de eventos... todas as mesmas estatísticas, mas também um passo à frente dependendo do estado (e apenas esse passo define a dinâmica da série estatística de cada momento)... só que também estou confuso com a "aleatoriedade" na formulação de todo o Markoviano (mas é para isso que servem as estatísticas e a dim_reduction).

 
JeeyCi #:

ela descreve variáveis aleatórias - onde ela tem conexões (logicamente, não há nenhuma)... mas como existe uma matriz, isso significa que é possível encontrar/descrever/perder-se/formar conexões nela... Em relação à descrição do estado sob a influência de eventos... todas as mesmas estatísticas, mas também um passo à frente dependendo do estado (e apenas esse passo define a dinâmica da série estatística de cada momento)... só que também estou confuso com a "aleatoriedade" na formulação de todo o Markoviano (mas é para isso que servem as estatísticas e a dim_reduction).

Dei meu entendimento da física dos processos aleatórios, para mim são 2 variantes, no mercado a primeira é quando o número de fatores dá um resultado probabilístico, e a segunda é o resultado de um processo de baixa frequência em relação a um de alta frequência, em que os processos não estão interconectados.

E, filosoficamente, entendo que, se não houver conexão com valores anteriores de uma função ou de um processo, o processo será aleatório. Mas, no mundo real, esse geralmente não é o caso.

No mercado, se presumirmos que os estados estacionários prolongados são o efeito de algumas forças inerciais de fatores fortes, ou fatores prolongados fortes, então é possível distingui-los no ruído, e não se trata de um estado de Markov. A abordagem de distinguir o modelo do modelo SB é bastante lógica. Mas o que fazer com isso, logicamente, se houver um estado não-Markov, então é possível investigar, e se não houver diferenças, então não faz sentido investigar.))))))

 
Maxim Dmitrievsky #:

Como assim? Onde você está na matriz de transição, é para lá que você vai.

Está claro, mas é um processo aleatório, porque não há conexão entre o valor atual e o anterior.)))))) E assim, sim, na matriz há valores)))))

Os GSCs são criados com base no princípio de minimizar essa relação para quase zero).

 

Os métodos de normalização de Vladimir Perervenko são simplesmente estranhos - log2(x + 1) ainda é compreensível,

mas o aparecimento de tal monstro - para se livrar da assimetria via sin(2*pi*x)- não está muito claro o que ele faz - logicamente, ele adiciona algum componente cíclico, e a pergunta é: por que tal componente? ou o remove? (se removermos os ciclos, ficaremos com o ruído)...

e tanh(x) em geral parece uma imitação do processamento da rede neural para comprimir uma série... ou apenas outra simples distorção da linha? - É improvável que ele se livre da ciclicidade, e não está claro qual....

De qualquer forma, é claro que séries temporais = tendência + ciclo + ruído...

... mas ele pode estar tentando se livrar da ciclicidade com essas transformações (e não se sabe como sin(2*pi*x) é uma forma universal??) ... De certa forma, pensei inicialmente que isso era uma espécie de tentativa de colocar um elemento d/df na série - para remover a ciclicidade (incorporando esse comprimento nos próprios fatores de sinal? comprimento de onda nos próprios fatores de sinal), para obter uma distribuição normal, ou seja, velocidade e aceleração para colocar na composição dos sinais... ?? mas ainda assim a manipulação com sin parece ser uma distorção injustificada da série sob a amplitude dimensionada de acordo com o valor do sinal - não encontrei tal coisa no processamento estatístico .... por que não cos? por que não tanh? Por que não cos? Por que não tanh? -- apenas formas diferentes de curvar? Por quê?

... talvez o autor possa explicar a essência dessa trigonometria específica (o objetivo de remover a distribuição distorcida por meio do log já está claro), mas quais são as justificativas/pressupostos para usar sin... por que não cos... e por que essa curvatura?(isso acelerará a mudança de sinal?- emvez de apenas suavizá-la às vezes)


Renat Akhtyamov #:

você recebeu vetores, escreveu um artigo e foi tratado como uma bugiganga....

alguém poderia escrever o quão seriamente você deve/pode levar essas transformações e por quê? (além do desejo de se livrar da assimetria com log, acho que ln é a mais comum).

 
JeeyCi #:

Vladimir Perervenko tem apenas algumas maneiras estranhas de converter para a normalidade - log2(x + 1) ainda pode ser tentado para entender,

mas o aparecimento de tal monstro - para se livrar da assimetria via sin(2*pi*x)- não está muito claro o que ele faz - logicamente, ele adiciona algum componente cíclico, e a pergunta é: por que tal componente? ou o remove? (se removermos os ciclos, ficaremos com o ruído) ....

e tanh(x) em geral parece uma imitação do processamento da rede neural para comprimir uma série... ou apenas outra simples distorção da linha? - é improvável que se livre dos ciclos, e não está claro qual....

De qualquer forma, é claro que séries temporais = tendência + ciclo + ruído...

... mas ele pode estar tentando se livrar da ciclicidade com essas transformações (e não se sabe como sin(2*pi*x) é uma forma universal??) ... De certa forma, pensei inicialmente que isso era uma espécie de tentativa de colocar um elemento d/df na série - para remover a ciclicidade (incorporando esse comprimento nos próprios fatores de sinal? comprimento de onda nos próprios fatores de sinal), para obter uma distribuição normal, ou seja, velocidade e aceleração para colocar na composição dos sinais... ?? mas ainda assim a manipulação com sin parece ser uma distorção injustificada da série sob a amplitude dimensionada de acordo com o valor do sinal - não encontrei tal coisa no processamento estatístico .... por que não cos? por que não tanh? -- Apenas formas diferentes de distorção? Para quê?

... talvez o autor possa explicar a essência dessa trigonometria específica (o objetivo de remover a distribuição distorcida por meio do log já está claro), mas quais são as justificativas/pressupostos para usar sin... por que não cos... e por que essa curvatura?(isso acelerará a mudança de sinal?- emvez de apenas suavizá-la às vezes)


alguém poderia escrever o quão seriamente se deve/pode levar essas transformações e por quê? (além de tentar se livrar da assimetria com log, acho que ln é a mais comum).

Também nunca entendi essas transformações, mas é provável que seja apenas uma escolha da melhor transformação dentre as demais. E não há lógica na escolha, geralmente baseada em testes.

As formas de filtros e antenas em UHF não foram originalmente calculadas. Sim, e o cálculo, na vida real, foi finalizado com um arquivo)))))

 
Valeriy Yastremskiy #:

Eu também nunca entendi essas conversões, mas provavelmente é apenas uma escolha da opinião do selecionador sobre a melhor conversão dentre as demais. E geralmente não há lógica na escolha, geralmente baseada em testes.

As formas dos filtros e das antenas em UHF não foram calculadas originalmente. Sim, e o cálculo, na vida real, foi finalizado com um arquivo)))))

Você pode simplesmente comparar os histogramas da amostra antes e depois da conversão. Se o último estiver mais próximo da forma desejada (distribuição normal ou uniforme, por exemplo), então a transformação é bastante adequada.) Em vez de desenhar histogramas, você pode considerar testes de conformidade com o alvo (para normalidade ou uniformidade, respectivamente).

Eles não fazem placas com formato parabólico? De acordo com a fórmula)

 
JeeyCi #:

Vladimir Perervenko tem apenas algumas maneiras estranhas de converter para a normalidade - log2(x + 1) ainda pode ser tentado para entender,

mas o aparecimento de tal monstro - para se livrar da assimetria via sin(2*pi*x)- não está muito claro o que ele faz - logicamente, ele adiciona algum componente cíclico, e a pergunta é: por que tal componente? ou o remove? (se removermos os ciclos, ficaremos com o ruído) ....

e tanh(x) em geral parece uma imitação do processamento da rede neural para comprimir uma série... ou apenas outra simples distorção da linha? - é improvável que você se livre dos ciclos, e não está claro qual....

De qualquer forma, é claro que séries temporais = tendência + ciclo + ruído...

... mas ele pode estar tentando se livrar da ciclicidade com essas transformações (e não se sabe como sin(2*pi*x) é uma forma universal??) ... De certa forma, pensei inicialmente que isso era uma espécie de tentativa de colocar um elemento d/df na série - para remover a ciclicidade (incorporando esse comprimento nos próprios fatores de sinal? comprimento de onda nos próprios fatores de sinal), para obter uma distribuição normal, ou seja, velocidade e aceleração para colocar na composição dos sinais... ?? mas ainda assim a manipulação com sin parece ser uma distorção injustificada da série sob a amplitude dimensionada de acordo com o valor do sinal - não encontrei tal coisa no processamento estatístico .... por que não cos? por que não tanh? -- Apenas formas diferentes de distorção? Para quê?

... talvez o autor possa explicar a essência dessa trigonometria específica (o objetivo de remover a distribuição distorcida por meio do log já está claro), mas quais são as justificativas/pressupostos para usar sin... por que não cos... e por que essa curvatura?(isso acelerará a mudança de sinal?- emvez de apenas suavizá-la às vezes)


alguém poderia escrever o quão seriamente se deve/pode levar essas transformações e por quê? (além de tentar se livrar da assimetria com log, acho que geralmente é ln, afinal).

Enquanto estivermos no nível de raciocínio das funções trigonométricas ou qualquer outra coisa nesse nível, não há justificativa por uma razão - é impossível fazer uma justificativa, porque o objetivo de tais justificativas NÃO é declarado e o critério para atingir o objetivo é desconhecido.


E o objetivo do MO é o único: reduzir o erro de ajuste, ou melhor, reduzir o erro de previsão do modelo de aprendizado de máquina. E sob a restrição de que o erro de previsão NÃO deve mudar muito no futuro.


O principal obstáculo para atingir esse objetivo é a não estacionariedade das séries financeiras.

A fórmula dada de séries temporais = tendência + ciclo + ruído não é muito precisa. Ela é mais precisa e muito bem elaborada em modelos do tipo GARCH, dos quais existem mais de cem, mas nenhum deles resolve o problema em sua forma final, ou seja, como modelar a não estacionariedade da forma mais precisa possível.

Se especificarmos uma meta e um critério para atingi-la, então os métodos para lidar com a não estacionariedade não são importantes - o que importa é o resultado. De qualquer forma, está claro que quanto mais próxima da estacionariedade a série inicial não estacionária puder ser transformada, menor será o erro de previsão do modelo MO e, o que é mais importante, menores serão as flutuações desse erro.

Vladimir Perervenko entende isso perfeitamente bem, mas seus artigos são mais educativos do que práticos - ele apenas mostra problemas e fornece ferramentas para sua solução, de forma muito completa e sistemática, sem lacunas visíveis. E a seleção de problemas e ferramentas para sua solução está toda subordinada ao objetivo: reduzir o erro de previsão.

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

Lá, Aleksey Vyazmikin fez essa pergunta ao autor nos comentários - obteve um link para o tópico de discussão - o link foi DESTRUÍDO! o autor Vladimir Perervenko se escondeu? )

 

Veio-me à mente a ideia de uma árvore de decisão local. É algo como um análogo de KNN ou regressão local (também potencialmente adequado para não estacionariedade). A ideia é que dividimos em caixas apenas a caixa que contém o ponto de interesse (até pelo menos um determinado número de K pontos nela) e não nos importamos com o restante das caixas. Pode ser melhor que o KNN ou a regressão local se os limites entre as classes forem nítidos e o ponto estiver próximo a esse limite.

Gostaria de saber se a abordagem faz sentido.

Razão: