Etiqueta de mercado ou boas maneiras em um campo minado - página 11

 
Neutron >> :

É isso mesmo.

Mas, a entrada de cada perseptron tem uma entrada adicional separada para uma constante +1 offset. Isto acelera a aprendizagem e aumenta o poder da Rede.

Ou, se você não contar a camada de entrada, então com tudo dito:



Se houver algum erro, por favor, corrija.

 
Neutron >> :

É isso mesmo.

Mas, a entrada de cada perseptron tem uma entrada adicional separada para uma constante +1 offset. Isto acelera o aprendizado e aumenta o poder da Rede.

É como um gadget que substitui o limiar do neurônio sem aumentar o número de parâmetros configuráveis? Legal, é a primeira vez que eu vejo, mas eu gosto :)

 

E onde está o constante viés na entrada de cada neurônio?

paralocus писал(а) >>

Até onde pude entender, a figura mostra a arquitetura NS ideal para o mercado.

Este é o meu entendimento. Talvez isso não seja verdade. Mas os resultados das experiências numéricas confirmam esta afirmação.

O número de entradas é 12 e o número de sinapses é 4, então pela fórmula Popt=k*w*w*w/d obtemos 144/4 = 36... Isto são 36 barras? Ou 36 situações próximas de compra/venda? Eu acertei?

Considere cuidadosamente: Número de todas as sinapses em sua arquitetura: w=12+4=16.

Número de entradas: d=3 (não 4*3, mas apenas 3).

A duração ideal da amostra de treinamento: Popt=k*w*w*w/d =4*16*16/3=340 amostras por série temporal (você tem 4 amostras em cada neurônio de entrada). Podem ser barras ou valores indicadores, ou podem ser amostras transacionais e cabe a você decidir qual é o melhor para aumentar a previsibilidade... Lembre-se de que a previsibilidade faz parte da taxa de retorno da MTS ao 4º grau! Uma correlação muito forte (ver este tópico no início).

 
paralocus писал(а) >>

Ou, se você não contar a camada de entrada, leve em conta tudo o que é dito:

Se houver erros, por favor, corrijam.

Eu não entendo!

Por que você não está contando a camada de entrada? Não participa do aprendizado e da previsão?

É melhor ter duas camadas - uma camada oculta (também conhecida como camada de entrada) e uma camada de saída. Com esta arquitetura, você tem w=4*4+5=21, d=4 e P=4*21*21/4=440 conta.

 
TheXpert писал(а) >>

É uma espécie de gadget que substitui o limiar neuronal sem aumentar o número de parâmetros que podem ser ajustados?

FION escreveu >>

Estou vendo. O deslocamento constante simplesmente desloca ligeiramente o ponto de ativação na curva hipertangente.

Geralmente correto, mas para ser preciso, quando outro lote de dados chega à entrada NS, implicamos que ele não está centralizado (MO!=0). É por isso que introduzimos uma entrada constante adicional em cada neurônio. No processo de treinamento, um determinado neurônio seleciona um valor de peso nessa entrada, de modo a compensar uma possível mudança de seus dados de entrada. Isto permite um aprendizado estatisticamente mais rápido (a partir do centro da nuvem imaginária).

 
Neutron >> :

E onde está o constante viés na entrada de cada neurônio?

Isso é o que eu penso. Isto pode não ser verdade. Mas os resultados das experiências numéricas confirmam esta afirmação.

Vamos contar cuidadosamente: Número de todas as sinapses em sua arquitetura: w=12+4=16

Número de entradas: d=3 (não 4*3, mas apenas 3).

A duração ideal da amostra de treinamento: Popt=k*w*w*w/d =4*16*16/3=340 amostras por série temporal (você tem 4 amostras em cada neurônio de entrada). Podem ser barras ou valores indicadores, ou podem ser amostras transacionais e cabe a você decidir o que é melhor para aumentar a previsibilidade... Lembre-se de que a previsibilidade faz parte da taxa de retorno da MTS ao 4º grau! Uma correlação muito forte (ver esta linha no início).

Popt=k*w*w*w/d, onde k é uma constante sem dimensão de ordem 1 e é responsável pelo fato de que o mercado é volátil.

Então nesta fórmula d está o número de entradas de um neurônio de camada oculta, e k está o número de neurônios de camada oculta? Desculpe, de alguma forma acho difícil de acreditar que a rede possa aprender em 340 bares. É muito pequeno... Eu devo ter entendido mal alguma coisa.

Até agora eu só conhecia o mais simples perceptron que é "treinado" no testador do terminal MT4 com um algoritmo genético. É preciso verificar pelo menos algum histórico significativo (2 ou 3 meses). É claro que entendo que o geneticista não ensina nada ao perceptron, ele apenas escolhe os coeficientes mais adequados e trabalha com eficácia muito baixa, já que está agindo cegamente. Bem, não importa. Isso foi uma digressão lírica.


Entendi corretamente que as entradas individuais também devem ter seus próprios fatores de ponderação? E como posso "fazer uma lista branca" das entradas? Ou seja, suponha que eu tenha o RSI normalizado por hipertangente com expectativa de até 0,21 na entrada. Se eu fizer o seguinte: f(t) = th(RSI(i)*kf), onde kf > 1 é um coeficiente especialmente selecionado nivelando a função de densidade de probabilidade ao preço de alguma distorção do sinal de entrada, estará tudo bem ou não?

O que são contas transacionais?

 
Neutron >> :


A propósito, para todos os interessados: a estratégia - "travar as perdas e deixar crescer os lucros" ou "travar os lucros e deixar crescer as perdas" (dependendo se o mercado está em tendência ou plano, no horizonte comercial escolhido) - não é ótima quando se reinveste capital. Neste caso, é mais rentável fixar em cada passo com reinvestimento! Ou seja, se temos 10 transações lucrativas contínuas, então é mais lucrativo pagar comissão às corretoras e reinvesti-las, do que manter uma posição o tempo todo e economizar no spread.

Tal paradoxo, que pode nos levar às transações bernulling e depois disso - ao uso efetivo da equação básica de negociação na forma analítica (ao contrário de Vince) sem nenhum problema de parametrização.

Isto não é tanto um paradoxo, mas uma propriedade da MM com reinvestimento. A eficiência deste MM depende do número de negócios, entre outras coisas. A rentabilidade deste MM é a média geométrica em grau do número de negócios. Com um pequeno número de negócios a rentabilidade perde para um simples MM, mas se conseguirmos sobreviver com um grande número de negócios (jogar muito tempo) então o retorno pode ser maior. Mas, como sempre, nada é dado de graça. O preço será pago por alavancagem assimétrica e sua conseqüência - longo período de baixos lucros em comparação com uma simples MM.

 
paralocus писал(а) >>

Popt=k*w*w*w/d, onde k é uma constante sem dimensão de ordem 1 e é responsável pelo fato da variabilidade do mercado.

Então nesta fórmula d está o número de entradas de um neurônio da camada oculta, e k é o número de neurônios da camada oculta? Desculpe, de alguma forma acho difícil de acreditar que a rede possa aprender em 340 barras. É muito pequeno... Eu devo ter entendido mal alguma coisa.

Até agora eu só conhecia o mais simples perceptron que é "treinado" no testador do terminal MT4 com um algoritmo genético. Você tem que verificar pelo menos algum histórico significativo (2 ou 3 meses). É claro que entendo que o geneticista não ensina nada ao perceptron, ele apenas escolhe os coeficientes mais adequados e trabalha com eficácia muito baixa, já que está agindo cegamente. Bem, não importa. Isso foi uma digressão lírica.

Será que acertei que as entradas únicas também deveriam ter seus próprios coeficientes de ponderação? E como podemos "fazer uma lista branca" das entradas? Suponha que eu tenha um RSI normalizado hipertangente com expectativa de até 0,21 na entrada. Se eu fizer o seguinte: f(t) = th(RSI(i)*kf), onde kf > 1 é um coeficiente especialmente selecionado nivelando a função de densidade de probabilidade ao preço de alguma distorção do sinal de entrada, estará tudo bem ou não?

O que são contas transitórias?

Paralocus, você está com medo de cometer um erro? Pare com isso! - Tente desta e daquela maneira, e veja o resultado - tudo se encaixará no lugar.

k não é o número de entradas de neurônios, mas uma característica empírica do Mercado - sua variabilidade e é escolhida na faixa de 2 a 4. Se o Mercado fosse estacionário, então k poderia ser tomado tanto 10 como 20, o que significaria ir para as assimptóticas no processo de aprendizagem da Rede. Infelizmente, o Mercado pode ser chamado de estacionário apenas em sua não-estacionariedade, portanto o coeficiente deve ser tomado o mínimo possível no processo de requalificação de NS. Assim, obtemos a faixa para k mencionada acima .

Seu geneticista é uma espécie de método estocástico de aprendizagem com elementos de descida gradiente (se não me engano). Não é uma coisa ruim, mas perde em termos de velocidade de aprendizagem para a ORO. Abandonar o geneticista a favor da propagação de erros de volta - o aprendizado será mais eficiente e não há limite para o número de entradas e sinapses da Rede.

Os insumos individuais têm seus coeficientes, que são treinados como de costume e não diferem em propriedades de outros insumos.

O branqueamento dos insumos é uma eliminação das dependências de correlação entre eles. Para utilizar este procedimento, primeiro convença-se desta mesma correlação.

Uma transação, é o ato de comprar ou vender um ativo no mercado, ou seja, uma transação, um suborno (não no sentido criminoso:-)

 
Neutron >> :

Abandonar a genética em favor da propagação de erros - o aprendizado será mais eficiente e não há limite para o número de entradas e sinapses da Rede.


É isso aí, eu desisti. Sentou-se para escrever a grade com ORO. Pode haver algumas perguntas sobre a própria ETA.

 
paralocus писал(а) >>

Pode haver algumas perguntas sobre a própria ETA.

Sem problemas!

A propósito, vamos dar uma olhada mais de perto na arquitetura de sua Rede.

Você tem um comitê de três redes de bilayer independentes conectadas por um neurônio de saída (portanto, comitê). Cada Grade em seu comitê contém apenas um neurônio em sua entrada, o que é errado, porque tal arquitetura não difere de um perseptron de camada única em seu poder computacional. É por isso que você tem três entradas (4 incluindo o viés) em vez de 12. Mais uma vez: você criou um conselho de administração análogo, onde o Presidente por voto geral (neurônio de saída) escolhe a resposta "correta", e cada um dos eleitores é representado por um único neurônio. Tal arquitetura não proporcionaria uma vantagem comercial. Certo, fornecer pelo menos dois neurônios de entrada para cada membro do comitê, permitirá explorar plenamente a propriedade de nulidade da FA e aumentará notavelmente o poder preditivo do comitê.

Você vê o quanto a IA e nós temos em comum... Na verdade, votar em uma reunião da Komsomol nada mais é do que o esquema ideal de comportamento coletivo em termos da realização mais rápida do objetivo ao menor custo!

Observe que a saída do comitê não tem função de ativação não linear, é simplesmente um viciante e sua função é tomar uma decisão com base nos resultados da votação. Portanto, esta arquitetura está mais próxima de sua idéia e é um comitê de redes bilayer não lineares com uma camada oculta. O número de neurônios na camada oculta pode estar aumentando a precisão da previsão, mas devemos lembrar que o comprimento da amostra de treinamento aumenta quadraticamente e muito em breve chega a um ponto em que a eficiência do escalonamento decresce e até leva à deterioração das capacidades de previsão da rede. A partir de minhas experiências numéricas, o ideal é não mais que 2-4 nerons na camada oculta.

Para uma determinada arquitetura, o comprimento ideal da amostra de treinamento P=1500 amostras.

P.S. Parece legal. Refiro-me à imagem. Eu tenho prazer estético!