O mercado é um sistema dinâmico controlado. - página 59

 
Mathemat:

Alexei, eu faço a primeira pergunta: por que

1) Impacto constante, que é independente do preço da ação (impacto Alfa),
2) um impacto que é proporcional ao preço da Ação (impacto Beta),
3) Proporcional ao derivativo do preço da ação (impacto Gamma)
4) proporcional ao quadrado do preço da ação (introduzindo a não-linearidade) (impacto Delta).

Se

somente o "Externo" influencia o "Compartilhar" e não o contrário

? Entendo que você pode reduzir para o equivalente, mas não é mais lógico representar inicialmente a resposta por graus de impacto em vez de o contrário?

A propósito, a linearidade da diffura de segunda ordem facilita a introdução de conceitos de mecânica clássica - momentum Ação e função Lagrange (energia). Na área da invariância de influências externas, pode-se também falar de uma certa semblante da lei de conservação de energia.
Mas aqui discordo fundamentalmente: em essência, nosso sistema só recicla a energia recebida em energia de saída por "aniquilação", perdoe a terminologia cintilante. No momento em que o vendedor e o comprador concordam em um acordo, uma pequena parte da energia recebida se dissipa do sistema, deixando para trás apenas o aumento da entropia. E o fluxo de energia através do sistema, grosso modo volumes de transação, é uma quantidade longe de ser conservada, mas é o que permite que o sistema exista.
 
avtomat:
2) Seleção do critério de otimização. Este critério determina a faixa de freqüência de operação do modelo.

O critério, em minha opinião, deve ser composto e considerar os seguintes fatores simultaneamente (por exemplo, por meio de uma função de penalidade)

- tempo de correlação residual do modelo -> min

- a diferença de distribuição dos resíduos em relação ao normal -> min

- norma do vetor residual -> min

- número de parâmetros do modelo não convergindo para zero -> min

Isto é para a inoculação, sem considerar o modelo de entrada, que em breve quebrarei)

 
alsu:

... sem levar em conta o modelo do sinal de entrada, que em breve estarei presente)


Involuntariamente, vem à mente uma história tão famosa. Quando Laplace apresentou a Napoleão uma cópia de sua "Mecânica Celestial", o Imperador comentou: "Monsieur Laplace, eles dizem que você escreveu este grande livro sobre o sistema do mundo, sem mencionar uma vez o Criador". Ao que Laplace supostamente respondeu: "Eu não precisava desta hipótese". A natureza substituiu Deus.

;)

 
avtomat:

"Eu não precisava dessa hipótese. A natureza substituiu Deus.

Entretanto, apenas cento e cinqüenta anos mais tarde, a hipótese teve que ser revisitada, pois se descobriu que alguém estava "lançando os dados a cada medida", como disse Albertuschka (embora ele mesmo não acreditasse neste "disparate" até sua morte).
 
alsu:

O critério, creio, deve ser composto e levar em conta os seguintes fatores simultaneamente (por exemplo, por meio de uma função de penalidade):

- tempo de correlação residual do modelo -> min

- a diferença de distribuição dos resíduos em relação ao normal -> min

- norma do vetor residual -> min

- número de parâmetros do modelo não convergindo para zero -> min

Isto é para a inoculação, sem considerar o modelo de entrada, que estou prestes a quebrar)


Você pode inventar uma série de critérios diferentes, e muitos outros diferentes. Mas essa multiplicidade de critérios, como regra, não leva ao resultado desejado devido à sua inconsistência.
 
alsu:

Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):

- время корреляции остатков модели -> min

- отличие распределения остатков от нормального -> min

- норма вектора остатков -> min

- количество параметров модели, не обращающихся в нуль -> min

Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)


talvez mais simples - um erro é uma perda, uma previsão correta é um ganho. Estimamos a renda/perda. Isto é, por exemplo, PF. Isto é, critério de otimização PF->max
 
avtomat:

Há muitos critérios diferentes que podem ser elaborados. Mas esta multiplicidade de critérios geralmente não leva ao resultado desejado devido à sua inconsistência.
Aqui tudo é importante: os dois primeiros pontos exigem que os resíduos se aproximem do GSR - isso significa adequação do modelo; o terceiro ponto é claro por si só, o erro deve ser o menor possível; o quarto ponto - a complicação excessiva do modelo cheira a instabilidade e ajuste e muito provavelmente afetará a qualidade prevista. Não vejo nenhuma contradição, basta escolher corretamente os pesos de importância para cada componente.
 
alsu:
Tudo é importante aqui: os dois primeiros pontos exigem que os resíduos se aproximem mais do GSR - significa que o modelo é adequado; o terceiro ponto é claro por si só, o erro deve ser o menor possível; o quarto ponto - a complicação excessiva do modelo cheira a instabilidade e ajuste e muito provavelmente afetará a qualidade prevista. Não vejo nenhuma contradição, basta escolher corretamente os pesos de importância para cada componente.


Na minha opinião, nenhum dos critérios que você listou

- tempo de correlação residual do modelo -> min

- diferença de distribuição dos resíduos em relação à distribuição normal -> min

- norma do vetor residual -> min

- o número de parâmetros do modelo não convergindo para zero -> min

não é necessário nem útil do ponto de vista da adaptação do modelo.

E certamente não o item 2, que requer ajuste a uma distribuição normal. Isto já é, perdão, um disparate.

 
Avals:

talvez mais simples - um erro é uma perda, uma previsão correta é um ganho. Estimamos a renda/perda. Isto é, por exemplo, PF. Isto é, critério de otimização PF->max

Podemos fazê-lo desta forma, mas também devemos pensar em como afinar os parâmetros usando algum algoritmo.

Existem 9000 algoritmos diferentes, mas todos eles têm uma coisa em comum em termos puramente matemáticos: para alcançar o ótimo você precisa conhecer o gradiente da função sendo otimizada por parâmetros ajustados. Naturalmente, pode-se usar o PF como critério e até mesmo calcular todos os derivados em tempo real (usando diferenciação automática não é tão difícil). Mas há um problema: o valor do fator de perfil é extremamente dependente da própria série de preços, que é conhecida por ter o caráter de um processo ruidoso. A flutuação de apenas 1 vela por alguns pontos pode resultar em 1 negócio a mais ou 1 negócio em falta com resultado imprevisível, o que teria um efeito dramático no fator de lucro (não se esqueça que devemos otimizar a estrutura do modelo no menor intervalo de tempo possível, pois inicialmente assumimos que o modelo tem parâmetros variáveis). Assim, o critério é muito pouco suave e o algoritmo de otimização pode simplesmente ficar preso em algum ótimo local condicionado, repito, pela mera flutuação do preço.

A norma do vetor de erro (ponto 3), por outro lado, não tem tal desvantagem: uma mudança de 1 ponto no preço de 1 vela resultará em uma mudança igualmente insignificante na função de penalidade. O mesmo é válido para os itens 1 e 2, enquanto o item 4 é independente de preço.


Em resumo, o critério deve ser tão estável quanto possível às condições iniciais (que no nosso caso é a amostra de otimização), ou o algoritmo deve ter alguma verificação da globalidade do ótimo encontrado. Caso contrário, ao invés de otimizar, teremos o caos.

 
avtomat:


E certamente não o ponto 2, que requer ajuste a uma distribuição normal. Isto é, perdão, um disparate.

Aqui você já se contradiz: se o processo é representado como sinal+ruído, então o ideal é que o resíduo seja exatamente o ruído térmico, carregando exatamente 0 informação. Em geral, esta premissa tem sido geralmente aceita há cerca de cinqüenta anos: a produção do SBS (pp. 1 e 2) <=> o modelo descreve adequadamente o componente determinístico.

E me fale mais sobre o ponto 3, desde quando o erro mínimo se tornou inútil do ponto de vista da adaptação?

Razão: