O "New Neural" é um projecto de motor de rede neural Open Source para a plataforma MetaTrader 5. - página 70
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Se alguém estiver à altura, digam-me do que se trata.
Combinando controle adaptativo e caos determinístico para construir sistemas de controle autônomo eficientes
Método de controlo adaptativo autónomo.
Autómatos lógicos de controlo adaptativo com um número finito de entradas
Em resumo, você pode pesquisar aqui http://www.aac-lab.com/rus/
Como eu escapei a tempo :)) ...
Obrigada pela liberdade :)
Como eu escapei a tempo :)) ...
Que bom timing :)) ...
Obrigada pela liberdade :)
Não por uma questão de publicidade, mas por uma boa causa:https://www.mql5.com/ru/code/712 é um Xml-parser nativo.
Já o uso há muito tempo. Arranjei todos os meus insectos.
Não por uma questão de publicidade, mas por uma boa causa:https://www.mql5.com/ru/code/712 - nativo Xml-parser
Já o uso há algum tempo e corrigi todos os meus bugs.
Sim, eu já fiz o download, mas execute-o, mas sem reacção, deixei-o para mais tarde resolver.
Vou acabar de analisar a literatura sobre sistemas de controlo adaptativos e depois vou lá chegar.
Amanhã irei copiar do meu computador de trabalho o meu trabalho de armazenamento de protótipos de rede, criação de tarefas de formação, armazenamento de soluções encontradas aqui
???
Bem, na verdade a GPU no meu modelo apareceu na fase de cálculo NS, se ler cuidadosamente o que escrevi anteriormente, você notou que no meu modelo de rede universal o processamento em si é dividido em camadas, assim os neurônios são combinados em camadas não formalmente (por propriedade), mas na verdade (camada tem uma memória e neurônio não tem, neurônio precisa ser apenas uma entidade informativa que informa a camada sobre onde e por quê). Portanto, o paralelismo é definido pela própria estrutura do motor (a informação no interior da camada é processada em paralelo). Eu já fiz NS treinados pela GA e a maior perda de produtividade foi exatamente no cálculo de NS (especialmente em grandes redes). E como anúncio, posso dizer que para a UGA proposta pela Joo , aprender NS é canja.
Mas se é possível fazer também cálculos paralelos de FF (e NS para GA é uma parte de FF), eu só sou a favor disso. Embora eu não ache que será uma tarefa simples, nas camadas são feitas ações simples, e o cálculo do FF pode envolver uma seqüência bastante complexa.
Podemos parar aí por agora, imho.
A AG padrão e a nuvem ajudariam a paralisar o cálculo do FF. Especialmente a Renat prometeu:
Admin
2516
Paralelamente ao desenvolvimento de uma rede neural, vamos expandir a funcionalidade dos agentes para suportar cálculos matemáticos e troca de grandes volumes (arquivos) de dados.
Mas, como diz o ditado, não se pode cumprir as promessas durante três anos.
Assim, por enquanto, você pode otimizar o algoritmo joo especificamente para redes neurais, ele vai funcionar ainda mais rápido. Espero que o Andrey não se importe.
???
a) Desmontagem do XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Seguiremos em frente à medida que tivermos mais perguntas.
a) Desmontagem do XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Seguiremos em frente à medida que tivermos mais perguntas.
Posso ter um pequeno exemplo de como utilizá-lo para o MT5?
Se considerarmos o treinamento de neurônios como nível micro (ciclos de processamento de matriz independente em AG, cálculo de neurônios individuais de uma rede, etc.) e nível macro (o PF inteiro), então não há dúvidas e problemas com o primeiro - tudo se encaixa perfeitamente e funcionará bem na GPU.
Mas há um problema com o nível macro. Em primeiro lugar, suspeito que isso não seja possível devido a limitações da quantidade de informações tratadas na GPU. Poderíamos trabalhar em torno disso, usando o testador regular e a nuvem (cada nível macro será transferido para agentes separados, e lá será processado em nível micro - se o host permitir, é claro). Mas não temos as ferramentas para controlar o testador externamente para usar a AG externa.
Portanto, teremos de nos limitar à aceleração no nível micro. A aceleração também será muito decente, uma vez que as malhas e os próprios GAs abundam em cálculos independentes um do outro.
Quanto à própria UGA, se você não tocar no refinamento para OpenCL, você não tem praticamente nada para melhorar (a menos que você tenha alguns fragmentos de código, mas isso não vai fazer a diferença graças aos envolvidos no tópico de discussão do algoritmo no artigo). Você só pode tentar selecionar configurações da UGA especificamente para redes de treinamento.