Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3399

 
mytarmailS #:

eles generalizam bem porque são treinados em bilhões de conjuntos de dados de palavras e nós temos preços.

O que você vai treinar um neurônio para fazer se ele for treinado para falar?

E você não pode treinar seu neurônio em preços porque precisa de muitas visualizações.


Portanto, ou eu não sei alguma coisa ou, novamente, o que o LLM tem a ver com isso?

Vorontsov diz no vídeo, você o assistiu. Sobre o conceito de modelos fundamentais, desde o início da hora.

Eu perguntei ao meu


 
Maxim Dmitrievsky #:

Vorontsov fala no vídeo, você já viu. Sobre o conceito de modelos fundamentais, começando à uma hora.

Ah, eu me lembro.

Então, é uma espécie de conceito, qualquer informação pode ser reduzida a um vetor, ele está falando sobre eembeddings, bem, sim, é. Mas é apenas um conceito, e o LLM é treinado em embeddings.

Mas é apenas um conceito, e o LLM é treinado em embeddings de texto e nada mais, toda a sua estrutura é treinada para isso.

Portanto, se você decidir dar a ele seus próprios embeddings OHLC, nada acontecerá )))


Você precisa treiná-lo do zero em diferentes embeddings, diferentes tarefas, diferentes alvos... ao mesmo tempo, para que ele escreva textos, desenhe e fale, etc... multimodalidade, em outras palavras.

E se você quiser pegar uma neura que sabe escrever textos e dar a ela OHLC )), isso não funcionará.

 
mytarmailS #:

Ah, veja, eu me lembro.

Então, é uma espécie de conceito, qualquer informação pode ser reduzida a um vetor, ele está falando sobre eembedding, sim, é isso mesmo.

Mas é apenas um conceito, e o LLM é treinado em embeddings de texto e nada mais, toda a sua estrutura é treinada para isso.

Portanto, se você decidir dar a ele seus próprios eembeddings com o OHLC, nada acontecerá )))

A destilação do conhecimento pode ocorrer quando o modelo transfere seu "conhecimento" geral para sua esfera. Estou um pouco confuso quanto a isso, mas é mais ou menos assim.

Ele pode se traduzir em números, textos, imagens e até mesmo sons, e em código de programa.
 
Maxim Dmitrievsky #:

A destilação do conhecimento pode ocorrer quando o modelo transfere seu "conhecimento" geral para seu domínio. Estou um pouco confuso quanto a isso, mas é mais ou menos assim.

Não vai acontecer nada.

Imagine um PCA treinado em alguns dados, que são as entranhas de um neurônio.

Se você adicionar dados desconhecidos a ele, será apenas uma espécie de grupo isolado de pontos que Neura não conhece e não tem ideia do que fazer com eles.

Ela não transfere o conhecimento porque esse grupo está em coordenadas nas quais ela nunca trabalhou antes.

 
mytarmailS #:

Não vai acontecer nada.

Imagine o PCA treinado em alguns dados, essa é a essência do Neira.

Se você adicionar dados desconhecidos a ele, eles aparecerão como uma espécie de agrupamento isolado de pontos que o Neura nunca viu e não tem ideia do que fazer com eles.

Ela não transferirá o conhecimento porque esse agrupamento está em coordenadas nas quais ela nunca trabalhou antes.

Bem, isso é o que todo mundo faz hoje em dia, eles os treinam para suas tarefas. Terei que procurar exemplos.

Você atualizará os pesos (links) do modelo, não adicionará novos pontos.
 
Maxim Dmitrievsky #:

Bem, isso é o que todo mundo faz hoje em dia, eles os treinam para suas próprias tarefas. Terei de procurar exemplos.

Você está atualizando os pesos do modelo, não adicionando novos pontos.

Você não entendeu, vou deixá-lo à vontade.

 
mytarmailS #:

Você não entendeu. Vou deixá-lo à vontade.

Entendi, mas não é assim que funciona. Ele codifica qualquer informação em vetores semânticos, não importa a natureza dos dados, são apenas símbolos. Ele já conhece todos esses símbolos, o que importa é a sequência.

 
Sim, você não está interrompendo, é apenas um tópico para "experimentar" no futuro próximo :)
Razão: