Diálogo do autor. Alexander Smirnov. - página 38

 
Prival:
Yurixx:
lna01:


Posso dar-lhe os cálculos analíticos relevantes.


com a chegada de novos dados os coeficientes A e B podem mudar, eu acho, embora eu possa estar errado :-). Para a LR parece estar resolvido, mas para a regressão parabólica como ?

sum=0.0;
for (i=0; i<p; i++)
{
    fx = A*i*i + B*i + C;
    dc = Close[i] - fx;
    sum += dc * dc;
}
sq = MathSqrt(sum / p);
 
Yurixx:


Quer muito saber o que poderia ser supérfluo nestas fórmulas? :-)

Quanto à "expressão real", de onde você acha que vêm todas essas fórmulas? Se você substituir as fórmulas finitas derivadas do MNA por A e B nesta "expressão real", então você obtém a expressão acima para o RMS. Eu posso dar os cálculos analíticos correspondentes.

OK, eu concordo, exatamente nisto - não :)
Por definição, a recorrência é o cálculo do próximo valor utilizando o valor anterior? Então, o cálculo de somas cumulativas é a repetição mais natural.
O ponto é que meu cálculo por "expressão real" dá alguma inconsistência com estas fórmulas. Aqui estão os resultados para N=5 e N=20. As linhas foram contadas como LR + 3*SCO, para a linha branca o RMS foi tomado como sqrt((RMS^2)*N/(N-2)). A linha vermelha está de acordo com minha fórmula, a linha branca está de acordo com sua fórmula. Para N=20 a linha vermelha é quase invisível, podemos assumir que os resultados coincidem com uma boa precisão. Mas para N=5 as diferenças são bastante perceptíveis.
 
ANG3110:
Sim, você pode contar a soma uma vez no início e simplesmente subtrair o último elemento e adicionar um novo primeiro elemento. Depois funciona sem um ciclo.

O problema é que na LRMA a e b são recalculadas em cada barra. Ou seja, a simples modificação da soma de erros não é uma opção.
 
ANG3110:
Prival:
Yurixx:
lna01:


Posso dar-lhe os cálculos analíticos relevantes.


com a chegada de novos dados, os coeficientes A e B podem mudar, eu acho, embora eu possa estar errado :-). Para a LR parece estar resolvido, mas para a regressão parabólica como ?

sum=0.0;
for (i=0; i<p; i++)
{
    fx = A*i*i + B*i + C;
    dc = Close[i] - fx;
    sum += dc * dc;
}
sq = MathSqrt(sum / p);


Não há cálculo do coeficiente B. Embora se você adicionar seu cálculo, parece que ele volta ao valor original. Não há recorrência, ou seja, adicionando ao valor anterior um novo valor, calculado no passo 0. ANG3110 desculpe não haver recorrência
 
lna01:
ANG3110:
Sim, você pode contar a soma uma vez no início e apenas subtrair o último elemento e adicionar o novo primeiro elemento. Depois funciona sem um ciclo.

O problema é que a LRMA recalcula a e b em todos os bares. Portanto, você não pode escapar apenas modificando a soma dos erros.
E esse caso com a expressão LRMA - é para ler os dados finais da LR de uma só vez e não se destina a calcular RMS.
Mas calcular LRMA, sem usar os coeficientes da linha a e b, não ganha nada nos recursos calculados, e empobrece em possibilidades, porque na fórmula de regressão linear b está a posição final, e a*i é o ângulo. E mais importante ainda, conhecendo a e b, você pode facilmente calcular o RMS. Ou podemos fazer o contrário e calcular o RMS a ser constante e o período a variar, então obtemos uma regressão, como um terno feito sob medida exatamente para o tamanho da tendência.
 
ANG3110:
e o período mudaria, então obteria uma regressão, como um terno costurado exatamente à medida, sob a tendência.

Se houver um indicador que possua esta propriedade. Seria possível compartilhar. Embora eu entenda que isso não é algo que é colocado no domínio público, mas se você de repente decidir, calças amarelas e duas coo em uma reunião + sua bebida favorita nesta hora do dia vão tentar obtê-lo :-)

Eu preciso de uma parábola, não estou interessado na LR.

 
Prival:
ANG3110:
Prival:
Yurixx:
lna01:


Posso dar-lhe os cálculos analíticos relevantes.


com a chegada de novos dados, os coeficientes A e B podem mudar, eu acho, embora eu possa estar errado :-). Para a LR parece ter sido resolvido, mas para a regressão parabólica como ?

sum=0.0;
for (i=0; i<p; i++)
{
    fx = A*i*i + B*i + C;
    dc = Close[i] - fx;
    sum += dc * dc;
}
sq = MathSqrt(sum / p);


Não há cálculo do coeficiente B. Embora se você adicionar seu cálculo, parece que ele volta ao valor original. Não há recorrência, ou seja, adicionando ao valor anterior um novo valor, calculado no passo 0. ANG3110 Desculpe, aqui não há recorrência.
Mas por que precisamos de recorrência neste caso? Bem, eu entendo quando nos cálculos foram utilizadas de 10 a 20 regressões de uma vez, bem, então os métodos de cálculo sem um ciclo, tornam-se relevantes e resolvidos com arrays é muito fácil. Mas para uma ou duas linhas, é como se não houvesse mais nada a fazer além de compensar a recorrência. Pessoalmente estou sentado na festa de aniversário de minha filha e realmente não tenho mais nada a fazer, por isso estou esperando que eles terminem.
 
ANG3110:
...
Por que precisamos desta recorrência neste caso? Bem, eu entendo quando nos cálculos 10 - 20 regressões são usadas de uma vez, bem, então métodos de cálculo sem ciclo, tornam-se reais, e são resolvidos com matrizes muito facilmente, mas para uma - duas linhas. É como se não houvesse mais nada a fazer além de compor a recorrência. Eu pessoalmente estou sentado na festa de aniversário de minha filha e realmente não tenho mais nada para fazer, por isso estou esperando que eles terminem.

análise multimoedas, com diferentes períodos de ciclo. Se você contar ciclos (período de amostra) de 1, 2, 8, 12, 24 e 120 horas + para 12 moedas, a velocidade de cálculo não é a última coisa. Embora (desculpe não haver rosto sorridente com uma caneca ou um tiro) minha filha faça 12 anos no dia 14 de fevereiro, então estou escrevendo entre tiros e entretendo os convidados (que se reuniram todos no sábado).
 
ANG3110:
Mas o cálculo da LRMA, sem utilizar os coeficientes de linha a e b, não ganha nada em recursos computacionais, e empobrece as possibilidades,
...
E, o mais importante, é possível calcular RMS. Ou podemos fazê-lo da maneira oposta, e calcular o RMS a ser constante e o período a variar, então obtemos a regressão, como um terno adaptado exatamente ao tamanho da tendência.
Apenas os algoritmos de LRMA deste ramo ganham muitos recursos. Adicionando ao algoritmo de cálculo a, e RMS(b na minha versão conta) recursos adicionais, naturalmente serão necessários, mas não muito. A propósito, a foto acima com "meios-canais" foi feita rapidamente a partir de minha versão da LRMA (que é da MovingLR). Na verdade, meu interesse neste ramo é o polimento do algoritmo forçado de regressão recalculado em cada barra, de modo que o RMS foi constante que tentei antes e não fiquei satisfeito com os resultados.
 
O que estamos fazendo com a e b? Há uma fórmula comprovada para LR - não há k-tipos de linha reta. Há mash-ups triviais. Prival, estou falando exatamente da LR, vamos lidar com isso primeiro.
Razão: