rede neural e entradas - página 40

 
nikelodeon:

Então estou pensando... como interpretar o resultado... para torná-lo mais rápido e certamente não à mão........

Escolha: c, c++, java, javascript, mql4, mql5
 
Reshetov:
Para escolher: c, c++, Java, JavaScript, mql4, mql5

Yuri plz.

Você pode me dizer como ligar o MT4.5 ao JAVA? Eu realmente quero tentar, pelo menos ler algo.

 
Fiz uma interpolação em Matlab. É claro que é incômodo, mas tem fórmulas longas, ao contrário do Excel :-)
 
ivandurak:

Yuri plz.

Se você sabe como conectar o MT4.5 com o JAVA, eu realmente gostaria de tentar, pelo menos para ler.

Há muitos métodos, mas todos eles são incômodos. Java não foi projetado para aplicações de baixo nível, com o propósito de ser independente da plataforma. E a MT carece de canais de comunicação de alto nível que não estejam ligados à forma de placa - Windows.

É por isso que não os amarro e escrevo geradores de código em Java, cujos resultados posso colar facilmente em MQL, C ou Java.

 
Eu ainda não tenho uma compreensão clara da positividade desta coisa. Mas durante a otimização, o número total de erros nem sempre é contado corretamente. E por alguma razão a mensagem Bad Data é exibida no final do processo de otimização! O que poderia ser?
 
nikelodeon:
Ainda não consigo entender realmente a positividade desta coisa. Mas durante a otimização, o número total de erros nem sempre é contado corretamente. E neste caso, por alguma razão, ao final da otimização, ele exibe uma mensagem Bad Data!!! O que poderia ser?

Bad Data significa que o modelo está errado em suas "previsões" com mais freqüência do que se não tivéssemos usado o modelo. Ou seja, o modelo não é adequado para aplicação. A razão: lixo nos insumos. Ou seja, os insumos são insignificantes.


Vamos pegar os resultados dos testes em uma amostra de controle e compilar uma tabela de contingência:


Previsão de Modelo \ Resultado Real (Valor da Variável Dependente)
Resultado positivo
Resultado negativo
Resultado positivo
Verdadeiro Positivo (TP)
Falsos Positivos (PF)
Resultado negativo
Falso Negativo (FN)
Verdadeiro Negativo (TN)


Neste caso, a freqüência de resultados positivos na amostra, ou seja, se retirarmos aleatoriamente qualquer amostra da amostra, será igual a (TP + FN) / (TP + FN + FP + FN)

Se utilizarmos as previsões do modelo, a freqüência de resultados positivos previstos corretamente pelo modelo será igual a: TP / (TP + FP)

Para que o modelo erre menos frequentemente na previsão de resultados positivos para as amostras do que se retirarmos amostras arbitrárias da amostra ao acaso e tratarmos seus resultados como positivos por padrão, é necessário e suficiente que a condição

TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)

Se a condição não for atendida, então o modelo não é adequado para prever resultados positivos na prática, porque se tomarmos qualquer exemplo arbitrário da amostra e tratarmos seu resultado como positivo por padrão, estaremos errados não menos frequentemente do que se tratarmos os resultados positivos previstos pelo modelo.

 
Vejo e entendo que você precisa procurar um conjunto de dados de entrada que reduza substancialmente os erros e aumente a capacidade de generalizar..... E isso com registros de dados suficientes ....
 
nikelodeon:
Eu vejo e entendo que é necessário procurar esse conjunto de dados de entrada que reduziria significativamente os erros e aumentaria a capacidade de generalização..... E isso com registros de dados suficientes ....

Exatamente certo. Isto é, até 1023 preditores (dados de entrada) podem ser agrupados de uma só vez. Depois disso, se não aparecer nenhuma mensagem BadData, então excluir da amostra (excluir colunas da planilha) os preditores que estão marcados como estando sob redução na descrição do modelo.

Uma amostra dos preditores restantes já pode ser executada novamente e estará sujeita a transformações do núcleo. E a transformação do miolo, por sua vez, dará maior generalização.

As transformações de kernel são ativadas automaticamente se o número de entradas (ou seja, colunas com variáveis explicativas) não exceder 44. Se o número de entradas não exceder 10, então MSUA é incluído, o que dá o máximo de generalização.

 
Ótimo, exceto quando você aumenta a coluna mais de 7, o tempo de otimização aumenta significativamente..... Eu nem sei como aumentar a energia.... Não quero nem falar de 10 colunas. Uma doação irrealisticamente longa.... Existe alguma maneira de consertá-la?
 
Preparei uma amostra de dados de 11 colunas + 1 coluna de saída. Pergunta: Ao executar o Preditor, que número de colunas deve ser especificado. Somente a quantidade de dados (11) ou junto com a saída (12) ????
Razão: