Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1239

 
Maxim Dmitrievsky:

Eu tenho uma classe menor. Tenho um erro de 0.14\0.4.

14% a 40% no teste?

 
Graal:

14% a 40% no teste?

bem, teste de treino 14 40

 
Vizard_:

precisão e erro de classificação são coisas diferentes. precisão e % de amostra(test-train).

é claro em princípio - ultrapassa o traço... 0,6 precisão neste conjunto de dados no teste (20% da amostra) será suficiente...

erro de classificação até agora...muito tempo para refazer lá ))

Tenho 20% de treino em algibe, 80% de OOB, e fiz o mesmo aqui.

fiz isto em python e consegui isto.

score(X,y,sample_weight=None)[fonte]

Retorna a precisão média dos dados de teste e das etiquetas.


Não percebo nada, hoje apanhei-lhe o jeito em python, vou tentar de novo amanhã. Se o teste e o vestígio são 50%, então é assim


 
Vizard_:

O meu conjunto de dados (precisão) sobre este aqui é
tendência (80% da amostra) = 0,619
teste(20% da amostra) = 0,612 OOS

Um pouco de escavação, de cabeça para baixo. É assim que se faz, não 20% do teste))))

50% não é suficiente, 300 de observação não é nada.

Qual foi o treino?
 
elibrarius:
Aprender por 20% é algo novo))

Acho que o erro lá não mudou muito, por isso o fiz dessa forma, uma forte regularização em suma.

 
Maxim Dmitrievsky:

Acho que o erro não estava a mudar muito lá, por isso é que o estava a fazer dessa forma, em suma, uma forte regularização.

Como poderia não ter mudado? 14 e 40% é uma grande diferença.
Por exemplo, 60x60 como em Wizard - isso é verdade!

 
Vizard_:

O mesmo que eu fiz com o Doc e o Toxic, Python e R não têm isso...não te vou dizer...

Pelo menos o andaime ou as redes?
 
Elibrarius:

Como poderia não o fazer? 14 e 40% é uma grande diferença.
60 sobre 60 como um feiticeiro - é isso!

Bem, vamos verificar todos os modelos que estão em python... quero dizer, os que estão em circulação... não até amanhã... não até amanhã...

Talvez precisemos de mais algum pré-processamento.
 

Você não entende que não pode ganhar dinheiro em forex?)

É mais fácil tornar-se um programador e conseguir um emprego bem pago do que envolver-se neste masoquismo.

 

em resumo, em erro de classificação de algibeira e logloss... A perda de madeira não faz qualquer sentido, o erro de classificação na floresta cai a zero numa amostra de estagiário>0.8 e oob 0.2

rmse não é bom para classificação

Foi por isso que tirei uma pequena amostra de treino, para algum tipo de erro, mas ainda é pequena. Eu não sei como comparar com o Python.

Razão: