O Modelo de Regressão Sultonov (SRM) - alegando ser um modelo matemático do mercado. - página 40

 
HideYourRichess:
A questão sagrada é: foi feito muito dinheiro através desta regressão? Não está na hora de pensar sobre isso já?
Primeiro você tem que desenvolver uma crença em algum tipo de regressão, e depois vem a fase de fazer dinheiro.
 


Roman:

você descreve brevemente quais são as diferenças da regressão linear...

yosuf 12.07.2012 09:21
A regressão linear (LR) aplica-se quando se assume a existência de uma dependência linear de preço no tempo, o que claramente não é o caso em geral, embora em um intervalo de tempo limitado uma dependência linear possa às vezes aparecer, mas tentar aplicar esta suposição levará a desvios significativos no futuro. Portanto, somos forçados a aplicar a regressão não linear, à qual RMS pertence, e, como mostrado anteriormente, ela também cobre sem ambigüidade o caso da regressão linear.

Adição ao acima mencionado:

Aqui está um exemplo do tratamento LR e RMS dos resultados da simulação de séries discretas usando o algoritmo iterativo https://forum.mql4.com/ru/50108/page5:

 
yosuf:


Romano..:

Poderia descrever brevemente quais são as diferenças da regressão linear...

yosuf 12.07.2012 09:21
A regressão linear (LR) se aplica quando se assume a existência de uma relação linear entre preço e tempo, o que claramente não é observado no caso geral, embora em um intervalo de tempo limitado às vezes possa parecer dependência linear, mas tentar usar esta suposição levará a desvios significativos no futuro. Portanto, somos forçados a aplicar a regressão não linear, à qual RMS pertence, e, como mostrado anteriormente, ela cobre sem ambigüidade também o caso da regressão linear.

Adendo ao acima mencionado:

Aqui está um exemplo de LR e RMS processando os resultados de uma simulação em série discreta usando o algoritmo iterativo https://forum.mql4.com/ru/50108/page5, do qual podemos ver que LR leva o pesquisador além do possível domínio da aparência dos resultados:


Obrigado, Yusuf. Eu mesmo irei ler mais nas fontes.

 
avatara:

Os méritos do modelo Sultonov podem e devem incluir a otimização em um sentido amplo ao número de graus de liberdade. o número de parâmetros do modelo é fixado sem perda de precisão.

quem argumenta? os polinômios o têm?

;)

Na RMS, na derivação (18), um dos problemas de estatísticas aplicadas, relacionado à definição de parâmetros de distribuição gama, é resolvido também na forma de relações (12-14), a saber: http://www.aup.ru/books/m163/2_2_1.htm

"Na maioria dos casos não há soluções analíticas, é necessário aplicar métodos numéricos para encontrar o GMD". É o caso, por exemplo, de amostras de uma distribuição Gamma ou de uma distribuição Weibull-Gnedenko. Em muitos trabalhos, o sistema de equações de máxima verosimilhança é resolvido por algum método iterativo ([8], etc.) ou a função de verosimilhança do tipo (8) é diretamente maximizada (ver [9], etc.).

Entretanto, a aplicação de métodos numéricos gera inúmeros problemas. A convergência dos métodos iterativos requer justificação. Em vários exemplos, a função de probabilidade tem muitos máximos locais e, portanto, os procedimentos iterativos naturais não convergem [10]. Para os dados do teste de fadiga de aço ferroviário VNII a equação de máxima probabilidade tem 11 raízes [11]. Qual dos onze usar como estimativa de parâmetro?

Como conseqüência das dificuldades acima mencionadas, começaram a surgir trabalhos para provar a convergência de algoritmos para encontrar estimativas de máxima probabilidade para modelos de probabilidade específicos e algoritmos específicos. Um exemplo é o papel [12].

Entretanto, a prova teórica da convergência de um algoritmo iterativo não é tudo. Surge a pergunta sobre uma escolha razoável do momento de parar o cálculo devido à obtenção da precisão necessária. Na maioria dos casos, não é resolvido.

Mas isso não é tudo. A precisão do cálculo deve ser correlacionada com a quantidade de amostragem - quanto maior for, mais precisas devem ser as estimativas dos parâmetros - caso contrário, não podemos falar sobre a validade de um método de avaliação. Além disso, conforme o tamanho da amostra aumenta, é necessário aumentar o número de dígitos usados em um computador e mudar de cálculos de precisão simples para cálculos de precisão dupla e assim por diante, mais uma vez para se obter a consistência das estimativas.

Assim, na ausência de fórmulas explícitas para estimativas de máxima probabilidade, há vários problemas computacionais associados à estimativa do OLS. Os especialistas em estatísticas matemáticas se permitem ignorar todos esses problemas ao discutir o PMO em termos teóricos. As estatísticas aplicadas, no entanto, não podem ignorá-las. Os problemas observados põem em questão a viabilidade do uso prático das ADM.

Não há necessidade de absolutizar o WMD. Além deles, existem outros tipos de estimativas que têm boas propriedades estatísticas. Exemplos são os estimadores de etapa única (estimadores SSE).

Nas estatísticas aplicadas, muitos tipos de estimativas foram desenvolvidos. Mencionemos os estimadores de quantidade. Eles se baseiam em uma idéia semelhante ao método dos momentos, apenas em vez de amostra e momentos teóricos, a amostra e os quantil teóricos são equacionados. Outro grupo de estimadores se baseia na idéia de minimizar a distância (índice de diferença) entre os dados empíricos e o elemento da família paramétrica. No caso mais simples, a distância euclidiana entre histogramas empíricos e teóricos é minimizada, ou mais precisamente, os vetores compostos pelas alturas das barras de histograma" https://www.mql5.com/ru/articles/250 Agora estes problemas para os parâmetros da distribuição Gama são resolvidos analiticamente na forma de relações (12-14)

e não há necessidade de buscar métodos para sua avaliação numérica. Deve ser sugerido introduzi-los em GOST como no caso da distribuição binomial (a partir daí): "Por esta razão, em GOST 11.010-81 são usadas estimativas imparciais para a estimativa de parâmetros de distribuição binomial negativa, mas não OMR [7]. Segue-se do que foi dito que se pode - se é que se pode - a priori preferir OMPs a outros tipos de estimadores somente na fase de estudo do comportamento assimptótico dos estimadores".

 
yosuf:
Agora você mesmo me diz, colocando sua mão no coração, se a previsão que você fez e deu em 10.07.12. às 19.14. https://forum.mql4.com/ru/50108/page20 em uma situação completamente não óbvia está totalmente correta?

Neste momento, parte da previsão foi confirmada (se eu entendi corretamente o significado do indicador). Entretanto, esta é apenas uma previsão, e isso não é suficiente para tirar conclusões.
Além disso, não está claro como definir SL e TP, o que é extremamente importante.
 
yosuf:


....

Aqui está um exemplo de LR e RMS processando os resultados de uma simulação em série discreta usando o algoritmo iterativo https://forum.mql4.com/ru/50108/page5, do qual podemos ver que LR leva o pesquisador além do possível domínio da aparência dos resultados:

Onde se encontra esta série discreta? Os pontos amarelos? Se os pontos amarelos, como a regressão linear ficou tão lateral?
 
Integer:
Onde se encontra esta série discreta? Os pontos amarelos? Se os pontos amarelos, como a regressão linear ficou tão lateral?

Aqui estão os dados daqui https://forum.mql4.com/ru/50108/page4, derivados desta forma https://forum.mql4.com/ru/50108/page5, faça as contas e veja por si mesmo:

anônimo 10.07.2012 11:58 am.


Yusuf, tente usar seu modelo para continuar pelo menos dez passos para a próxima fileira:

101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100

p.s. Esta série não é aleatória. Vou revelar o algoritmo e outros valores da série depois de receber sua previsão.

xi Yi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294

 
yosuf:

Aqui estão os dados daqui https://forum.mql4.com/ru/50108/page4, obtidos desta forma https://forum.mql4.com/ru/50108/page5, faça as contas e veja por si mesmo:

xi Yi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294


Desculpe-me, mas você não parece ser capaz de responder à pergunta mais elementar? Leia minha pergunta novamente e responda-a.
 
A segunda coluna é Yi? Ele?
 
Integer:
Onde fica essa fila discreta? Os pontos amarelos? Se pontos amarelos, como é que uma regressão linear ficou tão lateral?
Sim, pontos amarelos.
Razão: