Etiqueta de mercado ou boas maneiras em um campo minado - página 87

 
Neutron писал(а) >>
Coloco esta tarefa nas mãos da NS, ela decide, com base na análise, a história mais "curta" possível (ainda história, o que mais pode ser usado em TA?), abrir na direção (H+) ou contra (H-).

Então não sobra muito da dissertação, não é mesmo?

E o perceptron, de acordo com você, e. prever SOMENTE a direção.

 
M1kha1l >> :

Então não sobra muito da dissertação, não é mesmo?

E o perceptron, de acordo com você, e. prever SOMENTE a direção.

Portanto, não estamos interessados na tese, mas sim no lucro... Pela mesma razão, não precisamos saber nada, exceto a direção (o sinal do próximo ponto de referência).

 

Os padrões de pastores não são a mesma coisa?

Que diferença faz se você as analisa com estatísticas ou redes...

 
gpwr писал(а) >>

Minha rede recebeu 300 exemplos de treinamento e o número de pesos foi de 45. Na literatura há uma opinião de que com 5 vezes mais exemplos de treinamento do que pesos, a rede com 95% de probabilidade será generalizada. Ou seja, minha rede deve ter uma boa generalização de acordo com a teoria, mas na verdade não é assim. Foi por isso que dei exemplos para confirmar. Acho que a questão aqui não é tomar mais exemplos de treinamento. É sobre a natureza do problema que estou forçando a rede a resolver. Se você tentar fazer a rede prever o tamanho da próxima etapa do preço, então no treinamento ela tenderá a tais pesos com os quais os neurônios operam na área linear da função de ativação a fim de preservar a proporcionalidade entre a etapa prevista e as etapas anteriores de entrada. Ou seja, a tarefa em si é linear. Dado este estado de coisas, acrescentar neurônios ocultos não melhorará nada. E a própria camada oculta torna-se desnecessária. Ao experimentar minha rede, cheguei à conclusão de que uma única camada funciona bem como uma camada dupla. Eu acho que, lendo seus posts anteriores neste tópico, você chegou à mesma conclusão também para o EURUSD.

Penso que a rede deve ser usada para problemas altamente não lineares (como XOR ou problemas de classificação) onde a função de ativação do neurônio pode ser escolhida para ser escalonada.

Se não for difícil, envie-me (.rar) amostra na qual você treinou NS, amostra cerca de 10000 exemplos. Ou código que o formará...

Nas primeiras impressões na amostra que você arquivou na rede há uma forte relação linear entre entrada e saída - portanto, a rede funciona como o solucionador linear...

//----

sobre amostragem: há uma maneira de determinar uma amostra suficiente para treinar, mas uma rede (10-21-8-1) pode ser requalificada com uma amostra de 50 000 ou 100 000 amostras...

por isso é melhor treinar com validação cruzada.

 
paralocus писал(а) >>

Não é a tese que nos interessa, é o lucro... Pela mesma razão, não precisamos saber nada, exceto a direção (o sinal da próxima contagem).

E que prazo você acha que a previsão da direção do candelabro faz sentido? Estou cavando nesta mesma direção (não estou usando um neurônio), os resultados (probabilidade de previsões corretas) são os seguintes m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. O assessor baseado neste método drena à taxa de spread. :/

 
lea >> :

E em que prazo você acha que a previsão da direção do candelabro faz sentido? Estou cavando nesta direção agora (não utilizando um neurônio); os resultados (probabilidades de previsões corretas) são os seguintes: m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. O assessor baseado neste método drena à taxa de spread. :/

Nenhum deles, na minha opinião. >> Os prazos estão fora!

 
paralocus >> :

Acho que não. Cronogramas, o tanas!

Afinal de contas, você herdou o temperamento de seu Herói! Leve seu tempo, o tempo virá e você escreverá algo assim:

Tiques para fora!

É que, tudo a seu tempo...

>> Boa sorte! :о)

 
grasn писал(а) >>

É que, tudo a seu tempo...

Enquanto minha rede neural está coletando estatísticas (ela caiu algumas vezes devido à convergência instável em grande número de neurônios na camada oculta, então tive que reintroduzir a normalização da taxa de contagem para o comprimento do vetor de peso), vou dar meu feedback sobre a aplicabilidade do NS.

Acima sugeri a capacidade da rede treinada de preencher as lacunas estatísticas no vetor de treinamento. Isto, em minha opinião, permite utilizar NS efetivamente quando há falta de dados de treinamento. No entanto, a natureza acabou se revelando ainda mais interessante. Parece que a principal especialização da NS se encontra em uma área ligeiramente diferente. Seu trabalho é "produzir" um valor (previsão) baseado naqueles valores dos dados de entrada que não participaram do treinamento. É compreensível, mas pense sobre isso ... É suficiente ter alguns pontos de referência na faixa de entradas NEEDED (a faixa de valores que as entradas tomam) para prever o valor esperado nos dados de entrada "ligeiramente" errados da forma mais confiável possível. Esta é a principal propriedade da NS, e o ponto-chave aqui é o fato da continuidade da faixa de valores dos dados de entrada. É aqui que o poder da NS entra em pleno jogo.

O que acontecerá se os dados de entrada forem discretos? Nada em particular, NS também irá funcionar. Mas agora temos uma oportunidade de reunir estatísticas sobre todas as combinações de valores discretos e fazer a mesma previsão como no caso da NS, mas sem ela. Mas não devemos esquecer, que NS o fará muito mais rápido e elegantemente (se houver muitos valores discretos, mas se não houver...). E, se a discrição dos valores de entrada for baixa, ou se seus únicos dois (+/-1), então, como acontece, NS não é necessário! É suficiente reunir estatísticas para cada valor, e nada na natureza dará uma previsão mais precisa do que esta.

Para a previsão de entradas binárias, há métodos muito mais eficientes do que a NS. Isto não diminui os méritos da NS, mas é fascinante a forma como a previsão da BP é reduzida a uma previsão binária!

A figura mostra a gama de estados que um NS binário de duas entradas aceita. O número de combinações que os valores de entrada podem tomar é de apenas 4. E em cada um deles, precisamos tomar uma decisão de compra/venda. NS não é necessário aqui! Precisamos das estatísticas triviais. Para 3 NS de entrada, obtemos um cubo tridimensional com 8 vértices, em cada um dos quais a mesma compra/venda, etc.

Mais uma vez, não estou menosprezando os méritos da NS. Por exemplo, se prevemos a população de dáfnias na lagoa, que depende de uma centena ou dois fatores (acidez da água, temperatura, etc.), não podemos fazer previsões confiáveis sem usar NS se pelo menos um ou dois parâmetros mudarem em 1% - provavelmente entraremos na área onde não há nenhuma estatística ou onde não é adequado para interpolação.

 
Neutron >> :
...

Soa como um veredicto.... como um "veredicto", por exemplo, para Minsky, que provou sérias limitações de percepções e sobre as quais em busca de dinheiro eles simplesmente esquecem. E eles também esquecem que mesmo uma rede multicamadas com inicialização não linear não dá absolutamente nenhuma garantia de classificação correta, e também esquecem ... (mas isto é como uma brincadeira, não como o início de outro argumento). Confesso que ainda não entendo qual é o poder de NS de seu posto, mas minha experiência na construção tanto própria quanto no uso de meios especializados de NS me dá uma resposta simples e clara - o uso de perceptron não me dá nenhuma vantagem, especialmente - em filas "ruins" (seus kags são filas muito ruins para predição).


Mas boa sorte, de qualquer forma. Até mais tarde, (eu desaparecerei por algumas semanas).

 
Se alguém estiver interessado, há um histórico completo para futuros disponíveis em FORTS. É de vários anos de profundidade.
Razão: