Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2827

 
mytarmailS #:
h ttps:// youtu.be/4yrp71kAZxU
.

Então, o que há de tão interessante nisso?

 
Ao treinar neurônios, como você tem certeza de que ele não está preso em algum lugar local?
 
Andrey Dik #:
Ao treinar neurônios, como você tem certeza de que ele não está preso em algum lugar local?

Na neurônica, a divisão em lotes ajuda a evitar

Em outros algoritmos de otimização, também é útil executar ou dividir em lotes várias vezes, por exemplo

além de ajustar a etapa do gradiente e outros truques.

Ainda assim, você deve explorar a vizinhança do ótimo por meio da alteração dos hiperparâmetros para ver se o sistema é capaz de sobreviver.
 
Algoritmo de otimização para dividir em lotes????? )
 
Maxim Dmitrievsky #:

Na neurônica, a divisão em lotes ajuda a evitar

Em outros algoritmos de otimização, também é útil executar ou dividir em lotes várias vezes, como

além de ajustar a etapa do gradiente e outros truques.

Ainda assim, você precisa explorar a vizinhança do ótimo por meio da alteração dos hiperparâmetros para ver se o sistema é capaz de sobreviver.

Tenho vergonha de perguntar: o que são lotes?

Não, quero dizer, como você pode ter certeza de que o neurônio não ficará preso em algum lugar? Ele é testado quanto à resistência a interferência?

 
Andrey Dik #:

Tenho vergonha de perguntar: o que são lotes?

Não, quero dizer, como você pode ter certeza de que o neurônio não ficará preso em algum lugar? Ele é testado quanto à resistência a ficar preso?

Ele é testado em novos dados, por meio de parada antecipada, por exemplo.

Quando o erro cai nos dados de treinamento e começa a crescer nos novos dados. Desde que não comece a crescer com os novos dados, isso significa que ainda não está travado.

os lotes são pacotes de dados para treinamento: não é necessário treinar todo o conjunto de dados de uma só vez, você pode dividir os dados em pacotes e treiná-los a cada iteração.

Como os ótimos em cada pacote variam, a média será algo menor que o ótimo para todos eles.

Em princípio, é um pouco difícil avaliar qual é o ideal. E se a amostra for deslocada, o que fazer? Como encontrar esse ótimo global em uma subamostra deslocada?

Bem, se a pergunta for, em princípio, sobre algoritmos de otimização, você tem razão em perguntar. Mas então você começa a deslocar as amostras, o que cria mais problemas do que essa pergunta.

se você passar um pouco da teoria para a prática :)

 
Maxim Dmitrievsky #:

é testado em novos dados, por meio de uma parada antecipada, por exemplo.

quando o erro cai nos dados de treinamento e começa a crescer nos novos dados. Desde que o erro não comece a crescer com os novos dados, isso significa que ainda não estamos presos

os lotes são pacotes de dados para treinamento: não é necessário treinar todo o conjunto de dados de uma vez, você pode dividir os dados em pacotes e treiná-los a cada iteração.

Como os ótimos em cada pacote variam, a média será algo menor que o ótimo para todos eles.

Em princípio, é um pouco difícil avaliar qual é o ideal. E se a amostra for deslocada, o que fazer? Como encontrar esse ótimo global em uma subamostra deslocada?

Bem, se a pergunta for, em princípio, sobre algoritmos de otimização, você tem razão em perguntar. Mas então você começa a deslocar as amostras, o que cria mais problemas do que essa pergunta.

se você passar um pouco da teoria para a prática :)

ah, então eu entendi sua primeira resposta corretamente. não há como verificar a resistência ao congestionamento.

O que você diz "o erro cai nas amostras de treinamento e começa a crescer nas novas amostras" não é um teste de interferência, mas apenas um critério para interromper o treinamento.

minha pergunta é sobre os algoritmos de otimização que as pessoas aqui usam para treinar neurônios, não sobre o aumento da estabilidade dos neurônios em novos dados, que é o segundo estágio. bem, o primeiro estágio ainda não foi discutido aqui))))

 
Andrey Dik #:

Ah, então acertei sua primeira resposta. Não há como testar a resistência a interferência.

O que você diz sobre "o erro cai nos de treinamento e começa a crescer nos novos" não é um teste de interferência, mas apenas um critério para interromper o treinamento.

Minha pergunta é sobre os algoritmos de otimização que as pessoas aqui usam para treinar neurônios, e não sobre o aumento da estabilidade dos neurônios em novos dados, que é o segundo estágio. bem, o primeiro estágio ainda não foi discutido aqui))))

Bem, como se sim, ela não tivesse sido discutida. O mais popular em neurônios é o algoritmo de otimização Adam. Talvez você também possa testá-lo de alguma forma
 
Maxim Dmitrievsky #:
Bem, mais ou menos, sim, mas não discutido. Nos neurônios, o mais popular é o algoritmo de otimização Adam. Talvez você também possa testá-lo de alguma forma

Isso mesmo, não foi discutido de forma alguma.

Na prática, isso significa que o neurônio será pouco treinado, ou seja, o erro em novos dados começará a crescer mais cedo do que se fosse usado um AO mais resistente a interferência.

Razão: