Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2829

 
Certamente não em uma ptu ou com valores liberais.
 
СанСаныч Фоменко #:

Usamos algoritmos de gradiente descendente, que, em geral, não são para neurônios, e que têm uma barba enorme. Pesquisamos no Google e não fazemos perguntas infantis, pois aprendemos como o gradiente descendente supera diferentes tipos de armadilhas de extremos locais. Isso é algo que as pessoas vêm fazendo especificamente há anos.

Você foi solicitado a testar o aprendizado/otimização em algumas funções representativas, o que é uma boa prática

Se você acha que as redes neurais fazem isso perfeitamente, provavelmente está enganado

 
Maxim Dmitrievsky #:

Foi sugerido que você testasse o aprendizado/otimização em algumas funções representativas, o que é uma boa prática

Se você acha que as redes neurais fazem isso perfeitamente, provavelmente está enganado

Sim... francamente, fico surpreso que nem todos tenham percebido adequadamente as verdades simples - tudo deve ser testado, e a crença em dogmas expressos por alguém significa estagnação e degradação.

e o gradient descent e o bekprop são métodos tão antigos e miseráveis que é estranho que ainda possam ser levados a sério por algumas pessoas.

a propósito, a genética não é o algoritmo mais robusto atualmente. ela deve ser incluída na tabela para... bem, só para deixar claro que sempre há espaço para melhorias.

 
Andrey Dik #:

Sim... francamente, estou surpreso que nem todos tenham percebido verdades adequadamente simples - tudo deve ser verificado, e a crença em dogmas expressos por alguém significa estagnação e degradação.

e o gradient descent e o bekprop são métodos tão antigos e ruins que é estranho que ainda possam ser levados a sério por alguém.

A percepção é específica, no nível do culto ao kargo e da crença no R divino, trazendo as dádivas da civilização.

 

Por um lado, o aprendizado é um caso especial de otimização, mas, por outro lado, há algumas peculiaridades.

1) A otimização em MO geralmente implica inerentemente a otimização em um espaço de função de dimensão infinita. Isso ocorre de forma explícita(gradient bousting, por exemplo), mas também pode ser implícito. Isso leva a uma flexibilidade incrível de modelos, mas a clareza e a simplicidade encontradas na otimização de dimensão finita são perdidas. Por exemplo, qualquer extremo em um subespaço de dimensão finita pode muito bem ser um ponto de sela em um subespaço de maior dimensionalidade (que pode ser tão alto quanto você quiser).

2) É usado um conjunto finito de funções de perda bem comportadas. Isso evita os problemas decorrentes do primeiro ponto. Mas se quisermos personalizar a função de perda, isso será impossível ou muito difícil.

 
Aleksey Nikolayev #:

Por um lado, o aprendizado...

Alexei, você sabe alguma coisa sobre como otimizar uma função com ruído?
 
Há uma pesquisa completa e há uma otimização. Ela é necessária para reduzir o tempo para encontrar uma solução ideal. Como é assim, é sempre um meio-termo. Você pode otimizar com o método de gradiente estocástico e obter um resultado melhor do que com o Adam, mas sacrificando o tempo. E é preciso escolher. Para algumas tarefas, a precisão pode ser mais importante do que a velocidade, por exemplo, para aumentar a expectativa de TC.
Aqui é interessante observar os resultados visuais.
 
Andrey Dik #:

Isso é terrível.

O horror é que uma pessoa chega a artigos sobre otimização e não conhece o assunto nem 20%, por isso não reconhece o conhecimento comum e fica surpresa com ele....

O horror é que pessoas com ainda menos qualificação despejam pus em suas cabeças, considerando-o como conhecimento de gurus, e o resultado é um bando de aleijados intelectuais...


E todos os tipos de não gurus concordam alegremente, porque já são aleijados e despejam pus em si mesmos, chamando seus egos de artigos....

esse é o verdadeiro horror!!!

 
Você deveria mastigar seu ranho antes de fazer discursos patéticos, ptuschik.

Não é tão bom assim.
 
mytarmailS #:

O horror é que uma pessoa chega a artigos sobre otimização e não conhece o assunto nem 20%, portanto, não reconhece o conhecimento comum e fica surpresa com ele....

O horror é que pessoas com ainda menos qualificação despejem pus em suas cabeças, considerem isso conhecimento de gurus, e o resultado seja um bando de aleijados intelectuais....

é melhor você ficar calado, pois parecerá muito mais inteligente ou, pelo menos, mais bem-educado.