Discussão do artigo "Importância da qualidade do gerador de números aleatórios no desempenho dos algoritmos de otimização" - página 11

 
Maxim Dmitrievsky #:
Aqui você responde à sua própria pergunta: quantas reinicializações mínimas devem ser feitas aproximadamente para comparar diferentes DSTs. Foi exatamente sobre isso que escrevi e você ignorou o assunto depois.

Você está demonstrando ignorância sobre o assunto; primeiro, entenda a diferença entre execuções e reinícios. Minha postagem é sobre uma regra geral para escolher o número de execuções de FF para algoritmos de otimização, ou seja, quantas execuções de uma função de adequação devem ser executadas para garantir a convergência aceitável dos algoritmos de otimização. Em meus testes, utilizo 10.000 mil execuções da função de adequação, o que corresponde a 10^4. Neste artigo, consideramos a influência da qualidade do GSC nos resultados da otimização nessas 10.000 execuções da função de adequação como parte dos algoritmos de otimização; a influência da qualidade do GSC não foi revelada, conforme declarado nas conclusões do artigo.

E para a comparação de DSTs entre si, um teste sobre a uniformidade da distribuição de números aleatórios, com um número muito maior de execuções de DSTs do que 10^4.

2024.03.18 20:54:33.459 Padrão, 100000000 lançamentos, 10000 caixas

Ou seja, 100000000 = 10^8!

Por favor, não publique mais nos comentários de meus artigos.

[Excluído]  
Andrey Dik #:

Você está demonstrando ignorância sobre o assunto; primeiro, entenda a diferença entre execuções e reinicializações. Minha postagem é sobre uma regra geral para escolher o número de execuções de FF para algoritmos de otimização, ou seja, quantas execuções de uma função de adequação são necessárias para garantir a convergência aceitável dos algoritmos de otimização. Em meus testes, utilizo 10.000 mil execuções da função de adequação, o que corresponde a 10^4. Neste artigo, consideramos a influência da qualidade do HSC sobre os resultados da otimização nessas 10.000 execuções da função de adequação como parte dos algoritmos de otimização; a influência da qualidade do HSC não foi revelada, conforme declarado nas conclusões do artigo.

E para comparar os DSTs entre si, o teste de uniformidade da distribuição de números aleatórios foi realizado com um número muito maior de execuções de DST do que 10^4.

2024.03.18 20:54:33.459 Padrão, 100000000 lançamentos, 10000 caixas

Ou seja, 100000000 = 10^8!

Por favor, não publique mais nos comentários de meus artigos.

Para comparar o mesmo algoritmo de otimização com diferentes DSTs, você precisa fazer o mesmo número de reinicializações, não 5. Quanto mais, melhor. Assim, ficará claro qual DST é melhor/pior/como ele afeta a média.
 
Maxim Dmitrievsky #:
Para comparar o mesmo algoritmo de otimização com DSTs diferentes, você precisa fazer aproximadamente o mesmo número de reinicializações, não 5. Quanto mais, melhor. Assim, ficará claro qual DST é melhor/pior/como ele afeta a média.

5 é o número de testes. Os algoritmos de otimização fornecem uma dispersão de resultados maior do que a diferença aparente do uso de DSTs diferentes.

Primeiro você afirmou, em publicações excluídas anteriormente, que não deveria haver um efeito do DST, e agora afirma que há um efeito, mas que ele não é revelado nos testes? Você está confundindo suas afirmações.

Mais uma vez, repito, faça seus próprios testes e refute minhas conclusões ou as confirme. Eu forneci todas as ferramentas para os testes. Declarações verbais não interessam a ninguém aqui, meus artigos são para aplicação prática, não para teoria em um vácuo.

Por favor, não escreva mais nos comentários de meus artigos.

[Excluído]  
Andrey Dik #:

5 é o número de testes. Os algoritmos de otimização fornecem uma variação nos resultados maior do que a diferença visível da aplicação de diferentes DSTs.

Primeiro você afirmou, em publicações excluídas anteriormente, que não deveria haver nenhuma influência do DGS, e agora afirma que há uma influência, mas que ela não é revelada nos testes? Você está confundindo suas declarações.

Mais uma vez, repito, realize seus próprios testes e refute minhas conclusões ou confirme-as. Eu forneci todas as ferramentas para os testes.

Por favor, não escreva mais nos comentários de meus artigos.

Não há diferença para o usuário porque a variação em cada execução substitui a variação na aplicação de um DST específico. Ninguém vai executar 10^n vezes em suas tarefas. Se você ainda comparar o impacto do gcp, precisará fazer um milhão de execuções, não 5.
 
fxsaber #:

Até mesmo uma opção frontal funcionaria para mim. Mas eu não entendo como definir a área de cutucada em um espaço multidimensional?

Alguma ideia de como determinar a área do pico global encontrado pelos valores calculados (que sejam 10.000 partes) do FF? Para forçar -DBL_MAX nessa área na próxima iteração do FF.

A classe de algoritmo Expectation Maximisation (em geral) e Gaussian Mixture Model (em particular) é ideal para isso. Ele selecionará todos os montes como clusters separados e, depois disso, você poderá zerar qualquer um deles.

Infelizmente, isso não está disponível na MQL5, nem mesmo no ALGLIB. Por enquanto, você pode extraí-lo do python. Se você quiser, os materiais deste site também funcionarão.

 
Stanislav Korotky #:

A classe de algoritmos Expectation Maximisation (em geral) e Gaussian Mixture Model (em particular) é ideal para isso. Ele selecionará todos os montes como clusters separados, após o que qualquer um deles poderá ser zerado.

Infelizmente, isso não está disponível na MQL5, nem mesmo no ALGLIB. Por enquanto, você pode obtê-lo do python. Se você quiser, os materiais deste site também funcionarão.

Muito interessante, eu levei isso em consideração.
 
A questão é o que fazer em seguida com o conjunto desses conjuntos com "topos de morro". Anteriormente, tínhamos um máximo global como solução do algoritmo de otimização, digamos que agora temos 50 deles. Mas eles não chegam perto de resolver o problema de estabilidade.
 
Stanislav Korotky #:
A questão é o que fazer em seguida com o conjunto desses conjuntos com "topos de morro". Anteriormente, tínhamos um máximo global como solução do algoritmo de otimização, digamos que agora temos 50 deles. Mas eles não chegam nem perto de resolver o problema de estabilidade.

Bem, não sabemos por que Saber está procurando picos (talvez ele nos diga), mas em sua declaração de problema talvez essa seja a maneira de encontrar soluções robustas.

No diagrama que apresentei anteriormente, que elemento do diagrama você acha que afeta a busca de uma solução robusta (resultado robusto)?


 
Andrey Dik #:

No diagrama que apresentei anteriormente, qual elemento do diagrama você acha que afeta a busca de uma solução robusta (resultado robusto)?

Na minha opinião, não há nenhum.

 
Stanislav Korotky #:

Do meu ponto de vista, não há nenhum aqui.

Não há nenhum elemento no circuito que seja responsável por e/ou afete a robustez? Qual é esse elemento?