Discussão do artigo "Algoritmos de otimização populacional: Mudamos a forma e deslocamos as distribuições de probabilidade e testamos com o "Cabeçudinho Inteligente" (Smart Cephalopod, SC)" - página 2
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Obrigado.
Nos artigos, se possível, tento transmitir o significado básico das estratégias (aquelas que não foram projetadas para problemas de tipo geral - tenho que retrabalhar seriamente, por exemplo, aquelas que foram originalmente projetadas para o problema do caixeiro viajante).
A combinação da estratégia e da distribuição usada é muito importante; algumas estratégias são melhores para algumas distribuições do que para outras.
Graças a essa série de artigos, ficou claro que os resultados podem variar muito, não apenas em relação à estratégia de busca, mas também aos valores dos parâmetros de entrada. Mais distribuições de configuração.
Como encontrar a distribuição ideal para sua tarefa não está muito claro. Porque você precisa otimizar o que está sendo otimizado.
Para os testes, escolhi deliberadamente três funções de teste com propriedades completamente diferentes para abranger o maior número possível de tarefas hipotéticas. Escolhi cuidadosamente as configurações do algoritmo para obter o máximo resultado agregado possível. Ou seja, é claro que é possível escolher configurações que darão melhores resultados em uma função de teste, mas os resultados em outras funções cairão e a pontuação total também cairá. É por isso que você pode usar com segurança as configurações padrão dos algoritmos que defini, pois elas são as melhores para cada algoritmo.
A propósito, no início eu fazia isso, otimizava as configurações do algoritmo com outro algoritmo e, depois, com a experiência, aprendi a selecionar rapidamente os melhores parâmetros manualmente. A tabela é um freush direto, com todo o suco extraído dos algoritmos. Mas, é claro, sempre resta um bolo, que pode ser espremido se você quiser.
Por favor, mostre-me como medir a qualidade do MT5 GA em funções de teste.
O GA padrão é incrivelmente legal, mas tem desvantagens - o comprimento do cromossomo é limitado, daí a limitação da etapa e do número de parâmetros (a etapa e o número de parâmetros são inversamente relacionados, se você aumentar um, o outro diminui).
É por isso que é difícil compará-lo com o GA padrão, pois ele faz seu trabalho perfeitamente. E se você precisar de perversões sofisticadas, há uma série de artigos sobre esse assunto))).
Uma coisa não interfere na outra, porque em ambos os casos é usada a nossa MQL5 favorita.
в реальных задачах существует неопределенность и случайность и именно здесь распределения вероятностей вступают в игру. Они позволяют учесть случайность и неопределенность в оптимизационных задачах.
As distribuições de probabilidade também são usadas ativamente em algoritmos evolutivos e populacionais. Nesses algoritmos, a geração aleatória de novos estados no espaço de pesquisa é modelada usando distribuições de probabilidade apropriadas. Isso permite que o espaço de parâmetros seja explorado e que soluções ideais sejam encontradas, levando em conta a aleatoriedade e a diversidade da população.
Métodos de otimização mais sofisticados usam distribuições de probabilidade para modelar a incerteza e aproximar funções complexas. Eles podem explorar com eficiência o espaço de parâmetros e encontrar soluções ideais, considerando a aleatoriedade e o ruído nos dados.
Eu estava tentando entender como surgiu a ideia de substituir a probabilidade uniforme por outras probabilidades adicionando mais viés.
Entendi corretamente que, em algum método de otimização complexo, você se deparou com o uso de probabilidade não uniforme e decidiu generalizar e investigar?
Como você chegou ao viés?
Sei que isso não aconteceu por acidente e sinto muitas coisas intuitivamente. Só que meu nível de compreensão está muito distante, para dizer o mínimo. Agora parece um tipo de mágica. Percebo que não teria chegado a essa variante nem mesmo por acidente com minhas ideias atuais.
Estou certo em entender que, em algum método de otimização complexo, você se deparou com o uso de probabilidade não uniforme e decidiu generalizar e investigar?
Como você chegou ao viés?
Sei que isso não aconteceu por acidente e sinto muitas coisas intuitivamente. Só que meu nível de compreensão está muito distante, para dizer o mínimo. Agora parece um tipo de mágica. Percebo que não teria chegado a essa variante nem mesmo por acidente com minhas ideias atuais.
A ideia de usar distribuições diferentes da uniforme surgiu em 2011-2012, quando parecia lógico investigar com mais cuidado a vizinhança das coordenadas conhecidas e dar menos atenção às incógnitas distantes.
Mais tarde, fiquei sabendo que alguns outros algoritmos usam distribuições não uniformes, mas a distribuição normal é a mais usada.
Também encontrei efeitos de borda de acúmulo artefatual de frequência de aparecimento de novos valores nos limites do intervalo aceitável, o que é um desperdício desnecessário de tentativas preciosas e, portanto, um desperdício de tempo e recursos. Depois de algum tempo, percebi que esses artefatos surgem precisamente porque a mudança de distribuição necessária não foi levada em conta. Não posso falar por todos os algoritmos existentes no mundo, mas não encontrei essas abordagens em nenhum lugar antes. Isso se estivermos falando em mudar a distribuição dentro de limites específicos.
Se estivermos falando de mudança intencional de probabilidades sem usar a mudança de distribuição, o exemplo mais simples é a roleta em algoritmos genéticos, na qual um indivíduo para cruzamento é escolhido aleatoriamente, mas em proporção à sua adaptabilidade.
Em geral, a aplicação consciente do viés de distribuição abre novos horizontes no aprendizado de máquina e em outros campos (não se referindo à otimização). As distribuições podem ser moldadas a partir de várias distribuições de qualquer maneira e em qualquer combinação, e essa é realmente uma ferramenta poderosa, além das próprias estratégias de pesquisa. Por isso, achei que valeria a pena abordar esse tópico separadamente.
Talvez meus artigos não correspondam a uma narrativa científica clara e estejam longe do rigor matemático, mas tento preferir os aspectos práticos aos teóricos.
PS. E, para mim, muitas coisas na otimização que operam com variáveis aleatórias parecem mágicas. Ainda parece incrível poder encontrar algo usando métodos aleatórios. Suspeito que essa seja uma área de conhecimento que ainda se mostrará no estudo da IA no mundo, já que os processos de pensamento dos seres inteligentes são, estranhamente, realizados por processos aleatórios.
Tenho a tendência de privilegiar os aspectos teóricos em detrimento dos práticos.
Obrigado por sua resposta detalhada. Da mesma forma, em meus esforços, vejo o ponto de favorecer mais os aspectos práticos.
É por isso que estou esperando por um wrapper para poder aplicar esses algoritmos.