Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1334

 
Aleksey Vyazmikin:

Procurei no MSUA, não sei a que livro se refere especificamente, mas não é pesquisável por esse nome. Pelo que sei, esta coisa é usada no CatBoost.

--l2-leaf-reg

l2-regulador de folhas

Coeficiente de regularização L2. Utilizado para o cálculo do valor da folha.

Qualquer valor positivo é permitido.

3

CPU e GPU


Ou é sobre outra coisa? Este método também pode ser usado na criação de preditores, por exemplo, para descrever padrões em certas áreas.

Bem, isto é regularização por Tikhonov, e onde é que a temperatura está a subir?

 
Maxim Dmitrievsky:

Bem, isso é a regularização do Tikhonov, onde está a temperatura do saco?

Mas a questão parece ser a mesma, não? Só não sei que tipo de algoritmo está lá dentro...

--bagging-temperatura

Define as configurações do Bayesian bootstrap. É usado por padrão nos modos de classificação e regressão.

Use o Bayesian bootstrap para atribuir pesos aleatórios a objetos.

Os pesos são amostrados a partir da distribuição exponencial se o valor deste parâmetro for definido como"1". Todos os pesos são iguais a 1 se o valor deste parâmetro for definido como"0".

Os valores possíveis estão na faixa. Quanto mais alto o valor, mais agressivo é o ensacamento.

1
 
Aleksey Vyazmikin:

Mas a questão parece ser a mesma, não? Só não sei de todo qual é o algoritmo que está lá dentro...

--bagging-temperatura

Define as configurações do Bayesian bootstrap. É usado por padrão nos modos de classificação e regressão.

Use o Bayesian bootstrap para atribuir pesos aleatórios a objetos.

Os pesos são amostrados a partir da distribuição exponencial se o valor deste parâmetro for definido como"1". Todos os pesos são iguais a 1 se o valor deste parâmetro for definido como"0".

Os valores possíveis estão na faixa. Quanto mais alto o valor, mais agressivo é o ensacamento.

1

isto é diferente, é claro.

É útil quando se tem muitas características, acho eu.

mudará um pouco o modelo, não mudará mais de afinação puramente subtil

os detalhes precisam de ser lidos, em geral é compreensível mas não até ao fim

 

A propósito, encontrei as palestras que mencionei anteriormente, com exemplos em python, para aqueles que querem aprender mais sobre XGboost. Aí, ou nas próximas palestras, a regularização também é discutida.


 
Maxim Dmitrievsky:

É diferente, é claro.

um pouco útil quando há muitas características, acho eu.

mudará um pouco o modelo, não mudará mais de afinação puramente subtil

Veremos que tipo de variação - hoje ou amanhã serão os próximos 100k modelos, eu decidirei se aplico este parâmetro no overshoot...

 
Aleksey Vyazmikin:

Vamos ver qual será o spread - hoje ou amanhã haverá outros modelos de 100k, eu decidirei se aplico este parâmetro no overshoot...

Ainda não sei se há um manual para os parâmetros, estou a ler sobre outras coisas.

 
Maxim Dmitrievsky:

Não há um manual para os parâmetros? Ainda não estou usando um katb, estou lendo sobre outras coisas.

Bem, tudo o que existe é uma configuração e uma breve descrição, mais um famoso clip com explicações.

 
Aleksey Vyazmikin:

Se você olhar com cuidado, você pode ver que os resultados financeiros dos modelos na mesma amostra podem ser muito diferentes - de 5000 a 1500, ou seja, significativamente, o que significa que a Semente afeta os modelos. Vou assumir que são os modelos selecionados que são semelhantes (vou verificar), enquanto eles têm margens de lucro ligeiramente diferentes, mas quase todos os modelos são planos no meio, o que é surpreendente - eles estão errados nas mesmas margens (uma anomalia nos novos dados?).

Você tem uma caixa com uma espécie de paisagem muito montanhosa criada dentro dela. Nós jogamos muitas bolas lá dentro (são as laterais), e nosso trabalho é garantir que a maioria das bolas atinja os buracos mais profundos. Esta será a aprendizagem, e este é o princípio pelo qual a aprendizagem em ME é organizada.

1. Se sacudirmos ligeiramente a caixa, a maioria das bolas não conseguirá deixar os buracos onde originalmente bateu - a aprendizagem não acontecerá.

Se agitarmos a caixa vigorosamente, algumas das bolas têm a oportunidade de bater e permanecer apenas nos buracos mais profundos, mas as mais rasas ficarão por encher à medida que as bolas vão saindo de lá. O aprendizado completo não vai acontecer.

Se agitarmos a caixa com força média, apenas as cavidades profundas e médias serão preenchidas, mas o resto das bolas não encontrará nada e continuará a saltar aleatoriamente à volta da caixa. A aprendizagem é melhor do que em 1 e 2, mas também não é ás.

Os métodos de aprendizagem têm sempre definições - exactamente como e quando abanar a caixa para obter a aprendizagem mais eficaz.

Se os diferentes "sids" não batem certo, então ou há algo errado com o algoritmo de aprendizagem - você o abana da maneira errada, ou qualquer buraco profundo que você possa ter um controle está faltando em nossa caixa.

 
Yuriy Asaulenko:

Você tem uma caixa, dentro da qual é criada uma espécie de paisagem muito montanhosa. Nós jogamos muitas bolas lá dentro (são as laterais), e nosso trabalho é garantir que a maioria das bolas atinja os buracos mais profundos. Isto será aprendizagem, e este é o princípio pelo qual a aprendizagem em ME é estruturada.

1. Se sacudirmos ligeiramente a caixa, a maioria das bolas não conseguirá deixar os buracos onde originalmente bateu - a aprendizagem não acontecerá.

Se sacudirmos a caixa vigorosamente, algumas das bolas têm a chance de bater e permanecer apenas nas cavidades mais profundas, mas as mais rasas ficarão vazias porque as bolas vão sair de lá. O aprendizado completo não vai acontecer.

Se agitarmos a caixa com força média, apenas os buracos mais profundos e médios serão preenchidos, mas o resto das bolas não encontrarão nada e continuarão a saltar aleatoriamente à volta da caixa. A aprendizagem é melhor do que em 1 e 2, mas também não é ás.

Os métodos de aprendizagem têm sempre definições - exactamente como e quando abanar a caixa para obter a aprendizagem mais eficaz.

Se os diferentes "sids" não batem certo, então ou há algo de errado com o algoritmo de aprendizagem - você o abana da maneira errada, ou qualquer buraco profundo para se agarrar está faltando em nossa caixa.

ou uma caixa de sapatos)

Os tomates são uma boa explicação.

e uma boa caixa abana sozinha.

 
Yuriy Asaulenko:

Você tem uma caixa, dentro da qual é criada uma espécie de paisagem muito montanhosa. Nós jogamos muitas bolas lá dentro (são as laterais), e nosso trabalho é garantir que a maioria das bolas atinja os buracos mais profundos. Isto será aprendizagem, e este é o princípio pelo qual a aprendizagem em ME é estruturada.

1. Se sacudirmos ligeiramente a caixa, a maioria das bolas não conseguirá deixar os buracos onde originalmente bateu - a aprendizagem não acontecerá.

Se sacudirmos a caixa vigorosamente, algumas das bolas têm a chance de bater e permanecer apenas nas cavidades mais profundas, mas as mais rasas ficarão vazias porque as bolas vão sair de lá. O aprendizado completo não vai acontecer.

Se agitarmos a caixa com força média, apenas os buracos mais profundos e médios serão preenchidos, mas o resto das bolas não encontrarão nada e continuarão a saltar aleatoriamente à volta da caixa. A aprendizagem é melhor do que em 1 e 2, mas também não é ás.

Os métodos de aprendizagem têm sempre definições - exactamente como e quando abanar a caixa para obter a aprendizagem mais eficaz.

Se "sids" diferentes não somam, então ou há algo de errado com o algoritmo de aprendizagem - você está abanando errado, ou não há canais profundos para se agarrar em nossa caixa.

Boa abstração, se por canais profundos entendemos respostas com erro mínimo na validação, para as quais há uma parada de aprendizado, então isso também poderia explicar porque ele obteve melhores resultados quando o tamanho da amostra de validação foi aumentado, e isso poderia ser o resultado de aumentar formalmente o tamanho do terreno abstrato e, portanto, o número de canais.
Razão: