O Piligrimus é um indicador de rede neural. - página 2

 
Piligrimm >> :

Em qualquer caso, há um grande potencial de melhoria, você pode aumentar significativamente a suavidade e introduzir sinais adicionais.

O alisamento é, em linguagem técnica, o corte de componentes de alta freqüência

Quantos decibéis de amortecimento foram alcançados entre a freqüência máxima do sinal e uma oitava de freqüência mais alta?

 
EvgeTrofi писал(а) >>

Você pode me dizer onde posso conseguir a VFD do Batteraut?

Sim, por favor!

K é a ordem do filtro. Melhor não colocar mais do que 2 - aumenta muito o FS.

Arquivos anexados:
baterlout.mq4  2 kb
 

zfs писал(а) >>
В чем смысл вашего индикатора, товарищ... он напоминает обычную среднюю.

Qual é o objetivo? Explique, por exemplo, .... porque seu indicador se parece com uma média simples, ...........

As redes neurais são sistemas de auto-aprendizagem construídos sobre elementos que simulam como um neurônio do cérebro humano funciona.

O modelo de neurônio McCulloch-Pitts é composto por um corpo (soma) e ramos (axônios), cujas extremidades atracam com os corpos de outros neurônios. A junção é chamada de sinapse. Uma sinapse é caracterizada pela força da conexão sináptica w. Se o neurônio i tem sinapses com forças de ligação wi1, ..., vencer, os impulsos de outros neurônios (Sj) são somados nele, e a saída:



Modelo neuronal.


Como uma função de ativação (função transitória) f() de uma rede neural uma função de passo simples, uma função S-função simétrica ou assimétrica ou uma função de passo linear são geralmente escolhidas (veja fig.).


Fig. simples passo, funções de ativação assimétrica e simétrica em forma de "S".


Se denotarmos wij, a força de ligação do neurônio j-ésimo no i-ésimo neurônio, uma rede neural composta de n neurônios será totalmente caracterizada pela matriz de conexões sinápticas:



Normalmente são utilizadas as redes neurais mais simples, as chamadas redes neurais em camadas. As entradas de cada camada são conectadas somente com as saídas de neurônios anteriores. A primeira camada é chamada camada de entrada, a última camada é chamada camada de saída, e as demais são chamadas camadas ocultas (internas). Um exemplo de uma rede neural deste tipo: 4 - 8 - 5 - 3. Isto significa que a rede neural consiste em 4 camadas: a camada de entrada tem 4 neurônios, a camada de saída tem 8, e as duas camadas ocultas têm 8 e 5.
A rede neural é controlada (treinada) pela mudança da força das conexões sinápticas na matriz W. Uma rede neural pode ser usada como um sistema de auto-treinamento, ou pode ser pré-ajustada com amostras especialmente selecionadas (treinamento com um professor). Quando uma rede neural é sintonizada para um determinado conjunto de sinais de entrada, a rede gera sinais de saída que são comparados a amostras, cujos desvios são avaliados usando uma função de perda especialmente selecionada (por exemplo, igual ao desvio padrão). A matriz de conexões sinápticas é então modificada para minimizar a função de perda (geralmente por gradiente de descida). Uma rede neural pode assim ser classificada como modelo de regressão aditivo, não-linear e não paramétrico.


Fig. Funções de ativação em forma de S simples, assimétrica e simétrica.



O desempenho de uma rede neural é uma estimativa ponderada de suas três propriedades:
grau de convergência - a precisão com que o modelo se adaptou a determinados valores de entrada;
O grau de generalização (generalização) - a precisão com que o modelo opera em conjuntos de entrada que vão além daqueles que lhe foram dados;
estabilidade - a medida da dispersão (desvio) na exatidão de suas previsões.
As propriedades acima mencionadas de uma rede neural podem ser influenciadas pelos seguintes procedimentos:
seleção de uma função de ativação adequada
seleção de uma função de perda adequada
seleção da arquitetura (estrutura) da rede
seleção dos parâmetros para a descida por gradiente
Escolha do tempo de treinamento Exemplo de aplicação de uma rede neural na análise técnica O principal objetivo do treinamento da rede neural é construir conexões (associações) entre as formações observadas. As redes neurais são úteis para tomar uma decisão sobre os sinais provenientes de vários indicadores técnicos. Diferentes indicadores técnicos são eficazes em diferentes condições de mercado. Como dissemos anteriormente, os indicadores de tendência são eficazes quando há uma tendência enquanto os osciladores são úteis quando o mercado está flutuando em uma faixa.

Vamos mostrar por um exemplo simples (A.-P. Refenes, A. Zaidi ) como uma rede neural pode ser usada neste caso. Suponha que a próxima tarefa seja encontrar uma estratégia mista baseada em uma combinação de duas estratégias, cada uma baseada em sinais de dois indicadores simples: a média móvel (MA) e o desvio da média (MV).

MA é um indicador simples, que compara duas médias móveis com diferentes períodos de médias e dá um sinal de compra quando o MA rápido atravessa lento de baixo para cima, e um sinal de venda quando o atravessa de cima para baixo.

MV é um indicador simples, que dá um sinal de venda quando o preço está acima de sua média, e um sinal de compra caso contrário.

A estrutura do sistema é mostrada na Figura 91.

O sistema recebe sinais indicadores (0 - posição curta, 1 - posição longa) e informações sobre o desempenho dos indicadores nos últimos 2 dias (lucro ou perda), bem como as informações atuais do mercado.
Há três sinais na saída:

MA: siga a recomendação do indicador MA

MV: siga a recomendação do indicador de MV

NP: não fazer nada

Cada saída assume um valor entre 0 e 1.


Fig. Esquema de uma rede neural para a análise de dois indicadores.


Se ambos os sinais de MA e MT estiverem no estado ON (tomar valores maiores que 0,5), então a recomendação do sinal com o maior valor é selecionada, mas se o NP estiver no estado ON, então nada é feito.

Este exemplo de aplicação de uma rede neural tem um exemplo de seu uso,..... e o que você tem a supor?

 
Neutron писал(а) >> Butterworth 2ª ordem LPF (

Isso não é Butterworth?

 
Neutron писал(а) >>

De fato, o LPF (linha vermelha) de segunda ordem de Butterworth não mostra resultados muito piores em comparação com seu filtro de rede neural. A propósito, onde está o NS no código, e por que seu filho está redesenhando? Esta é uma questão retórica. Uma vez que, ao redesenhar, o que vemos na história não corresponde à realidade, surge a verdadeira questão: por que você está nos mostrando algo que realmente não existe?

A fórmula completa é uma amálgama de várias redes treinadas com parâmetros diferentes, e reduzidas a um único polinômio com seus coeficientes de peso em relação umas às outras.

Todo o polinômio é recalculado a cada tick, já que a história não muda e apenas as citações da barra zero mudam, enquanto os resultados do recálculo na barra zero permanecem inalterados. Não há redesenho.

 
sab1uk писал(а) >>

amortecimento - em linguagem técnica, corte de componentes de alta freqüência

na versão atual, quantos decibéis de atenuação foram alcançados desde a freqüência máxima do sinal útil até uma freqüência, digamos, uma oitava mais alta?

Ainda não verifiquei isso.

 
Infinity писал(а) >>

Há um exemplo de uso de uma rede neural neste exemplo,..... e o que você tem em mente?

Eu uso uma rede neural como filtro, é uma tarefa ligeiramente diferente daquela que você descreve.

 
Piligrimm >> :

Eu não verifiquei isso.

>> é assim que é... é tudo a olho nu.

 
Piligrimm писал(а) >>

Eu uso uma rede neural como filtro, o que é uma tarefa ligeiramente diferente daquela que você descreve.

Você tem alguns coeficientes para seu filtro digital. Basicamente, é um MA com coeficientes ridículos, assim como qualquer filtro digital. O que você realmente quer que ele faça? O que você quer filtrar e a que velocidade você quer que ele responda às mudanças?
E como otimizá-lo?

Infinity, Obrigado pela explicação. Muito simples, claro e lógico.

 

Entendo o que é uma rede neural, e vejo mais sentido no exemplo do que neste indicador.

A entrada é um monte de coeficientes incompreensíveis. A produção é uma média. Não faz nem mesmo sentido como expa.

Razão: