Rede neural - página 5

 
gpwr писал(а) >> não nos entendemos um ao outro.

Na verdade, você escreveu tudo corretamente. Apenas discordamos sobre as definições.

gpwr escreveu(a) >> Todos os livros didáticos dizem que o treinamento de uma rede com um professor é feito dividindo os dados em uma amostra de treinamento e uma amostra de teste. A rede é treinada minimizando o erro na amostra de treinamento enquanto se observa o erro na amostra de teste (teste ou verificação fora da amostra). O aprendizado pára quando o erro na amostra de teste pára de diminuir (mostrado com uma linha pontilhada abaixo). E o erro na amostra de treinamento pode continuar a diminuir, como mostra esta figura

Com toda essa pesquisa muitas pessoas se esquecem do mais importante - o lucro. É por isso que existe um "mas" que não está escrito nos livros didáticos. É que alcançar o mínimo erro no OOS não garante lucro. Por quê? Porque erro e lucro mínimos são duas coisas diferentes. Eles podem não estar de forma alguma conectados. Por quê? Porque a rede não necessariamente repete o mercado no OOS e real - é suficiente em certos momentos dar os sinais corretos de compra ou venda - ou seja, exceder um certo limiar de disparo. Entre estes momentos (sinais) a rede pode se comportar como bem entender - o principal é não ultrapassar este limite. É por isso que em um grande erro no OOS, o lucro pode ser grande.

muallch escreveu >>

No início, há uma amostra fora da amostra - para montar a rede. E então ele desaparecerá - o verdadeiro futuro está à frente, deve ser previsto. Qual é o critério para parar o treinamento - um certo erro ou o número de treinamentos realizados? Ou algo mais?

E é claro que a questão do futuro está definitivamente aberta, porque mesmo o OOS é um futuro conhecido onde podemos controlar o lucro, enquanto estamos negociando em um futuro que é desconhecido para nós e o principal não é obter o erro mínimo, mas obter o lucro máximo. E que tipo de erro haverá - não importa.
 
muallch писал(а) >>

Em primeiro lugar, há o out-of-sample - para montar a grade. E então não há nenhum out-of-sample - o verdadeiro futuro está por vir e deve ser previsto. Qual é o critério para parar o treinamento - um certo erro ou o número de treinamentos realizados? Ou algo mais?

Por exemplo, 100 épocas sem atualizar o erro mínimo na amostra de controle.

 
LeoV писал(а) >>

E é claro que a questão do futuro está definitivamente aberta, porque mesmo o OOS é um futuro conhecido onde podemos controlar o lucro, enquanto estamos negociando em um futuro que é desconhecido para nós e o principal não é obter o erro mínimo, mas obter o lucro máximo. Que tipo de erro será - não importa.

Talvez você esteja pensando de tal maneira, pois nunca teve resultados realmente estáveis. Erro e Lucro estão inter-relacionados, em princípio para cada tarefa é possível determinar que erro deve ser alcançado para obter TC aceitável...
 
StatBars писал(а) >>
Você provavelmente está pensando desta maneira porque nunca teve resultados realmente estáveis. Erro e Lucro estão inter-relacionados, em princípio para cada tarefa você pode definir que erro você precisa alcançar para obter um desempenho aceitável da TC...

O que significa para você "resultados realmente estáveis"?

 
StatBars писал(а) >> Erro e lucro estão inter-relacionados

Eles podem ou não estar relacionados - essa é a grande questão. Mas é certo que o erro mínimo no OOS não significa e não leva ao lucro máximo na conta real. Assim como o lucro máximo na conta real não significa o erro mínimo sobre ela.

 
gpwr >> :

Vocês entenderam mal a essência do meu raciocínio. Não falei sobre a relação entre uma rede "destreinada" e os resultados comerciais. Está escrito em toda parte que a rede deve ser treinada até que o erro na amostra em teste cesse de diminuir. Eu concordo com isso e não quero discutir sobre isso. A essência do meu raciocínio foi mostrar como uma estrutura de rede paralela leva a dificuldades em sua otimização e como um modelo não linear baseado em uma série de potências é capaz de atingir o mesmo objetivo que uma rede neural, mas com um aparato matemático muito mais simples e um processo de aprendizado rápido que leva a um resultado único.

Eh, quantas opiniões foram expressas aqui ;-). Acrescentarei meus 5 kopeck.

Você também me entendeu mal. Eu não quis dizer que a rede é "sem formação". Eu queria dizer que você não deve esperar milagres da rede. Não é uma panacéia e, se for dar uma porcentagem vencedora, é muito pequena, e é por isso que precisamos de comitês. A configuração da rede para o comitê e a estrutura de dados de entrada/saída podem ser pesquisadas longa e duramente. Imho, você foi muito rápido para descontar grades, sem realmente tentar até 10% do que teria valido a pena (apenas a julgar pelo momento em que você começou a trabalhar diretamente em seu projeto). Em virtude de sua formação matemática, você tem opções para o que tentar substituir a grade ;-). Você é bem-vindo a tentar. Mas me parece que, ao criticar a grade, você está focalizando sua atenção nos pontos errados. Em particular, que diferença faz qual sinapse aprende com qual fator de entrada em uma determinada malha? Você precisa conhecê-lo? Realmente não. Esta incerteza intrínseca da rede de distribuição de sinal através dos neurônios é suposta ser "por projeto". Mas se você treinar uma dúzia de malhas e as tornar finas, você verá que o padrão de conexões - a própria série não linear que você mencionou - se formou, e é próximo ou igual a uma e a mesma. Se você está fazendo um manual analógico, como matemático você sabe quais métodos usar e o quanto são trabalhosos, a fim de revelar as dependências reveladas pela rede no fluxo de dados e somente depois de ter revelado essas dependências você pode criar suas séries de potência.

O que eu gostaria de dizer sobre os comitês é que eles não são escolhidos pelo simples princípio de N redes, mas apenas, digamos, as 10 principais redes dentre as cem recebidas. Se continuarmos com o exemplo das reuniões de pessoas, só serão ouvidos aqueles que são mais ou menos capazes de se ouvirem uns aos outros. Além disso, você aparentemente esqueceu que temos mais de 2 resultados. Na verdade, são: sucesso, fracasso, perda, fracasso. Portanto, a probabilidade deve ser calculada (eu simplifico intencionalmente): no-loss(1)*no-loss(2)=0,4*0,4=0,02. Ou seja, a melhor configuração não é aquela com probabilidade máxima de lucro, mas aquela com probabilidade mínima de perda. Por analogia, olhamos para a relação de drawdown. Não faz sentido tomar uma configuração super lucrativa, se o drawdown para ela já é de 50%, porque quase garante uma perda.

 

Novamente.

joo писал(а) >>

Com um professor, só é possível treinar uma grade sobre uma função que já conhecemos, como uma onda sinusoidal. Aqui, podemos, em boa consciência, alimentar a rede até o próximo ponto a ser treinado como um professor.

do ponto treinado como professor. Isto não vai funcionar no mercado.


Porque sempre sabemos com antecedência qual ponto será o próximo na onda sinusoidal. Nós conhecemos o futuro da onda sinusoidal!

Portanto, é válido ensinar sobre dados históricos (sinusoidais), ou seja, ensinar com um professor.

Mas não conhecemos o futuro do mercado, portanto, ensinar com um professor se torna um processo inútil.

 
LeoV писал(а) >>

O que significa para você "resultados realmente estáveis"?

Por exemplo, um Expert Advisor é otimizado em 2 meses de história com apenas 3 parâmetros, 80% dos resultados positivos são rentáveis em toda a história.

É o mesmo com as redes...

 
LeoV писал(а) >>

Eles podem ou não estar relacionados - essa é a grande questão. Mas é certo que o erro mínimo no OOS não significa e não leva ao lucro máximo na conta real. O mesmo que o lucro máximo sobre a conta real não significa o erro mínimo sobre ela.

Geralmente você está falando de estabilidade de resultados, não de erro, se a rede reconhece ou prevê algo de forma estável e esta previsão é suficiente para o lucro, teremos lucro tanto em forex quanto em real.

Se o erro for satisfatoriamente pequeno, então ele conduzirá. O que isso significa de forma satisfatória? Para cada problema esta condição é definida separadamente, eu só conheço o caminho empírico.

 
joo писал(а) >>

Vou dizer novamente.

Porque, sempre sabemos de antemão qual será o próximo ponto na onda sinusoidal. Nós conhecemos o futuro da onda sinusoidal!

É por isso que é legítimo treinar sobre dados históricos (sinusoidais), ou seja, ensinar com um professor.

Mas não conhecemos o futuro do mercado, e é por isso que aprender com um professor é um processo inútil.

Se conhecemos a onda sinusoidal e, portanto, podemos prevê-la com redes, então criamos uma fórmula mais complexa, a notação analítica será conhecida por você, para que possamos prevê-la também. O mercado é a mesma fórmula, só que ainda mais complicado e não é conhecido por NÓS...

Razão: