Encontrar um conjunto de indicadores para alimentar as entradas da rede neural. Discussão. Uma ferramenta para avaliar os resultados. - página 4

 
rip >> :
Kgm ... Você esquece que para a máxima eficiência do aprendizado as entradas da rede devem ser estatisticamente independentes, não deve haver correlação entre os dados alimentados a cada entrada. Todas as máquinas são corrigidas umas com as outras, você pode verificá-las. Há um software bastante útil e simples - AtteStat, é um complemento do Exel, mas muito útil.

Tudo é brilhantemente simples... Eu mesmo poderia ter descoberto... Obrigado!!!

Pegue os indicadores disponíveis e veja a correlação entre eles... analisar, pensar, talvez você tenha algumas idéias úteis :)

 
IlyaA >> :


O público precisa ver uma relação gráfica entre erro de aprendizagem e tempo (número de épocas).

devemos estar falando de coisas diferentes... Não ensino com um professor (há um erro de aprendizagem nesta forma de ensinar)... Eu ensino ao máximo a função alvo e não sei qual é o valor máximo possível da função alvo.

 
Urain >>

até aqui onde cada indicador tem uma descrição detalhada e fórmulas de cálculo.

em dois dias você terá sua própria opinião.

Já há muito tempo que estou olhando para ela.

Já olhei para ele, li, talvez não tenha gasto tempo suficiente ou prestado atenção suficiente, talvez algo mais... se nada mais, provavelmente voltarei lá... :))) tomando o longo caminho, eh?

 
iliarr >> :

Não. Eu só passo o valor da função alvo para o algoritmo genético e o algoritmo genético produz um vetor de valores para cada gene, que converto em uma matriz de pesos da rede neural.

Certo, o algoritmo genético não usa a função de erro para ajustar pesos.

Tanto quanto eu entendi, você poderia marcar o m5 pelo lucro máximo que pode estar no histórico e usar esta marcação como uma função de aptidão.

Estou apenas me perguntando qual é a função que você está usando para estimar um indivíduo.

 
iliarr >> :

De que erro estamos falando? A função alvo é maior - por isso o gene é mais apropriado...

É uma questão de erro de amostragem de teste. Ou seja, você tira no próximo mês após a amostra de treinamento. Você o marca de acordo com seu algoritmo. Você alimenta as saídas para a rede treinada. Você compara os resultados. Esse é o gráfico desses erros que me interessa.


Você também pode obter o gráfico de erro da amostra de treinamento e assim estimar como sua rede aprende (ou há desenvolvimento geracional no algoritmo do gene)

 
iliarr >> :

É tudo brilhantemente simples... Eu mesmo poderia ter pensado nisso... Obrigado!

Pegue os indicadores disponíveis e veja a correlação entre eles... analisar, pensar, talvez você tenha algumas idéias úteis :)

Mostrar o resultado quando você compara todos os conjuntos que você alimenta com as entradas :) Penso que tudo estará altamente correlacionado. Todos os indicadores apresentados utilizam os mesmos dados de entrada para o cálculo.

 
iliarr >> :

devemos estar falando de coisas diferentes... Não ensino com um professor (há um erro de aprendizagem nesta forma de ensinar)... Eu ensino ao máximo a função alvo e não sei qual é o valor máximo possível da função alvo.

Como você estima a eficiência da rede treinada? Este é o gráfico que eu quero ver.

 
Pergunta estúpida, quase sei a resposta. encontrei um conjunto de indicadores, encontrei os coeficientes de ponderação e comecei a fazer lucro. Se o mercado mudar, o consultor será capaz de se adaptar às novas condições .
 
joo писал(а) >>

GA é apenas uma ferramenta de otimização (chave de fenda para a máquina). Com diferenças mínimas você pode usá-lo ou qualquer outro algoritmo de otimização (chave de fenda).

Sim uma chave de fenda, mas há algumas chaves de fenda que podem desfazer um pequeno parafuso e outras que não podem...

Não, com diferenças mínimas você não pode usá-lo para NS, você parece não conseguir ver essas diferenças.

ORO, quando um neurônio fica saturado, praticamente pára de "treiná-lo", enquanto GA pode facilmente saturar demais um neurônio e continuar a aumentar ainda mais o peso do neurônio.

 
joo >> :

... pelo menos esta função: (2/(1-2^(-x))-1

Meu erro. Deve ser: (2/(1+2^(-x))-1

StatBars >> :

Não, com diferenças mínimas você não pode usá-lo para NS, parece que você não consegue ver essas diferenças.

ORO quando um neurônio fica saturado praticamente pára de "treiná-lo", enquanto a GA pode facilmente saturar um neurônio e continuar a aumentar o peso do neurônio.

Por que eles não podem ser vistos? As diferenças são visíveis. Não há supersaturação de neurônios com a faixa de busca correta. "Você simplesmente não sabe como cozinhá-los"(c) :)

Para tarefas diferentes e complexas, haverá diferentes ferramentas ideais, como você observou corretamente (chaves de fenda).