Discussão do artigo "Redes neurais de maneira fácil (Parte 67): Aprendendo com experiências passadas para resolver novos problemas"
ESSE É UM TRABALHO GENIAL, Dmitriy! Eu adoro isso! 🥰🥰🥰
Se você conhece o assunto, escreva um artigo sobre o uso do Google Colab + Tensor Flow. Posso fornecer uma tarefa de negociação real e calcular os dados de entrada.
Antes de mais nada, parabéns por seus esforços nesta maravilhosa série sobre IA e ML.
Analisei todos os artigos, do 1 ao 30, em um único dia. A maioria dos arquivos que você forneceu funcionou sem nenhum problema.
No entanto, pulei para o artigo 67 e tentei executar o "ResearchRealORL". Estou recebendo os seguintes erros.
2024.04.21 17:59:59.935 Tester "NNME\Part67\RealORL\ResearchRealORL.ex5" 64 bit 2024.04.21 18:00:00.133 Experts optimization frame expert ResearchRealORL (EURUSD,H1) processing started 2024.04.21 18:00:00.156 Tester Experts\NNME\Part67\RealORL\ResearchRealORL.ex5 on EURUSD,H1 from 2023.01.01 00:00 to 2023.07.31 00:00 2024.04.21 18:00:00.157 Tester EURUSD: history data begins from 2002.09.03 00:00 2024.04.21 18:00:00.157 Tester EURUSD: history data begins from 2002.09.03 00:00 2024.04.21 18:00:00.157 Tester complete optimization started 2024.04.21 18:00:00.168 Core 1 agent process started on 127.0.0.1:3000 2024.04.21 18:00:00.178 Core 2 agent process started on 127.0.0.1:3001 2024.04.21 18:00:00.188 Core 3 agent process started on 127.0.0.1:3002 2024.04.21 18:00:00.200 Core 4 agent process started on 127.0.0.1:3003 2024.04.21 18:00:00.213 Core 5 agent process started on 127.0.0.1:3004 2024.04.21 18:00:00.225 Core 6 agent process started on 127.0.0.1:3005 2024.04.21 18:00:00.237 Core 7 agent process started on 127.0.0.1:3006 2024.04.21 18:00:00.271 Core 8 agent process started on 127.0.0.1:3007 2024.04.21 18:00:00.886 Core 4 connecting to 127.0.0.1:3003 2024.04.21 18:00:00.897 Core 4 connected 2024.04.21 18:00:00.911 Core 4 authorized (agent build 4260) 2024.04.21 18:00:00.928 Core 4 common synchronization completed 2024.04.21 18:00:01.062 Core 2 connecting to 127.0.0.1:3001 2024.04.21 18:00:01.070 Core 2 connected 2024.04.21 18:00:01.081 Core 2 authorized (agent build 4260) 2024.04.21 18:00:01.096 Core 2 common synchronization completed 2024.04.21 18:00:01.110 Core 1 connecting to 127.0.0.1:3000 2024.04.21 18:00:01.118 Core 1 connected 2024.04.21 18:00:01.131 Core 1 authorized (agent build 4260) 2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152 2024.04.21 18:00:01.131 Core 4 pass 1 tested with error "OnInit returned non-zero code 1" in 0:00:00.006 2024.04.21 18:00:01.146 Core 1 common synchronization completed 2024.04.21 18:00:01.146 Core 4 pass 6 tested with error "OnInit returned non-zero code 1" in 0:00:00.004 2024.04.21 18:00:01.146 Core 4 pass 7 tested with error "OnInit returned non-zero code 1" in 0:00:00.003 2024.04.21 18:00:01.162 Core 4 pass 8 tested with error "OnInit returned non-zero code 1" in 0:00:00.004 ... 2024.04.21 18:00:01.454 Statistics optimization done in 0 minutes 01 seconds 2024.04.21 18:00:01.454 Statistics shortest pass 0:00:00.000, longest pass 0:00:00.000, average pass 0:00:00.000 2024.04.21 18:00:01.454 Statistics local 20 tasks (100%), remote 0 tasks (0%), cloud 0 tasks (0%) 2024.04.21 18:00:01.454 Core 1 connection closed 2024.04.21 18:00:01.455 Core 2 connection closed
Você poderia me ajudar a identificar onde estou errando?
Muito obrigado por todos os seus esforços para nos ensinar ML em MQL5.
Olá a todos
Estou executando o código em Neural networks made easy (Parte 67): Using past experience to solve new tasks
Estoucom o mesmo problema em relação ao seguinte.
2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152
Parece que está relacionado ao comando 'FileIsExist'.
Mas não consigo resolver esse problema.
Você sabe como resolvê-lo?
Estou executando o código em Neural networks made easy (Parte 67): Using past experience to solve new tasks
Estoucom o mesmo problema em relação ao seguinte.
2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152
Parece que está relacionado ao comando 'FileIsExist'.
Mas não consigo resolver esse problema.
Você sabe como resolvê-lo?

Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Novo artigo Redes neurais de maneira fácil (Parte 67): Aprendendo com experiências passadas para resolver novos problemas foi publicado:
Neste artigo, continuaremos a falar sobre métodos de coleta de dados em uma amostra de treinamento. É claro que o processo de aprendizado requer constante interação com o ambiente. Mas as situações podem variar.
O aprendizado por reforço é baseado na maximização da recompensa obtida do ambiente durante a interação com ele. É claro que o processo de aprendizado requer constante interação com o ambiente. Mas as situações podem variar. Ao resolver algumas tarefas podem surgir certas restrições durante essa interação com o ambiente. Nessas situações, os algoritmos de aprendizado por reforço off-line vêm em nosso auxílio. Eles permitem treinar modelos em um arquivo limitado de trajetórias coletadas durante interações prévias com o ambiente quando ele estava acessível.
Naturalmente, o aprendizado por reforço off-line tem suas desvantagens. Especificamente, o problema de estudar o ambiente se torna ainda mais complicado devido à limitação da amostra de treinamento, que simplesmente não pode abranger toda a complexidade do ambiente. Isso é especialmente problemático em ambientes estocásticos complexos. Um dos métodos de resolver esse problema (ExORL) foi introduzido no artigo anterior.
No entanto, às vezes as restrições na interação com o ambiente podem ser bastante críticas. O processo de pesquisa do ambiente pode ser acompanhado por recompensas positivas e negativas. As recompensas negativas podem ser altamente indesejáveis e estar associadas a perdas financeiras ou outros tipos de perdas que você não pode aceitar. Mas os problemas raramente surgem do nada. Na maioria das vezes, otimizamos um processo existente. E na nossa "era da tecnologia da informação", quase sempre é possível encontrar experiências de interação com o ambiente estudado durante a resolução de problemas semelhantes ao que enfrentamos. É possível usar dados de interações reais com o ambiente, que podem cobrir de alguma forma o espaço necessário de ações e estados. Os experimentos com o uso dessa experiência para resolver novos problemas ao controlar robôs reais são discutidos no artigo "Real World Offline Reinforcement Learning with Realistic Data Source". Os autores do artigo propõem um novo framework de treinamento de modelos chamado Real-ORL.
Autor: Dmitriy Gizlyk