Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3398

 
Aleksey Vyazmikin #:

Um bom resumo de todo o tópico


Ouvi com prazer
 
mytarmailS #:
Ouvi com prazer
Este também é bom https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
Há um kozula no final do básico, eu gostaria de chamar a atenção para isso
 
Onde exatamente? Eu diria que é o contrário, no início.
 
mytarmailS #:
Onde exatamente? Eu diria que é o contrário, no início.
Eu me referia ao vídeo do Alexei, ainda não vi o seu. O seu é sobre seleção de recursos. Não gosto muito dele, porque não tenho muitos sinais).
 
Maxim Dmitrievsky #:
porque não tenho muitas características).

É assim que funciona, de "muitos" diferentes você obtém "não muitos", mas bons.

E quanto mais "muitos" você tiver no início, mais ricos e melhores serão os "não muitos", mas bons, no final.

 
mytarmailS #:

É assim que funciona: de "muitos" diferentes, você obtém "não muitos", mas bons.

E quanto mais "muitos" você tiver no início, mais ricos e melhores serão os "não muitos", mas bons, no final.

Isso já foi feito por meio do gmdh ou seja lá o que for.
O Kozul parece promissor (é muito difícil criar algoritmos baseados nele, é preciso ter uma imaginação fértil). E modelos de linguagem - é muito difícil treiná-los. Os modelos do Google são mais curtos, há um modelo pequeno para 2 bilhões de parâmetros, mas você ainda pode tentar treiná-lo. Metodologia de uma só vez.
 
Maxim Dmitrievsky #:
Isso foi feito por meio do gmdh ou seja lá o que for
.
O Kozul parece promissor (é muito difícil criar algoritmos com base nele, é preciso ter muita imaginação). E modelos de linguagem - é muito difícil treiná-los. Esses do Google são mais curtos, há um modelo pequeno para 2 bilhões de parâmetros, mas você ainda pode tentar treiná-lo. Metodologia de uma só vez.

O que o LLM tem a ver com isso?

 
mytarmailS #:

O que o LLM tem a ver com isso?

Porque eles generalizam bem, em teoria.

Quanto maior for a amostra de treinamento, melhores serão as estatísticas (em geral).

 
Maxim Dmitrievsky #:
Porque eles generalizam bem, em teoria.

Eles generalizam bem porque são treinados em bilhões de conjuntos de dados de palavras, e nós temos preços.

O que você vai treinar um neurônio para fazer se ele for treinado para falar?

E você não pode treinar seu neurônio em preços porque precisa de muitas visualizações.


Portanto, ou eu não sei alguma coisa ou, novamente, o que o LLM tem a ver com isso?