Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1881

 
Evgeny Dyuka:
O problema é que o esquema de preparação de dados parece ter ficado sem vapor, com não mais do que 65-66% de respostas corretas, e mais é necessário. Estou à procura de uma forma de atravessar esta parede.

Qual é o seu alvo?

 
mytarmailS:

Qual é o seu alvo?

65% de respostas corretas é o nível de um bom indicador, isto é o que o neuro está mostrando atualmente. A partir de 70% ou mais, você pode tentar abrir posições.
 
Evgeny Dyuka:
65% das respostas corretas é o nível de um bom indicador, isto é o que o neuro está mostrando atualmente. Se a resposta for 70% ou mais, podemos tentar abrir uma posição.

Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?

 
mytarmailS:

Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?

Estou a prever se o preço irá subir ou descer após um certo período de tempo.
 
A propósito, talvez os conhecedores te possam dar uma dica. Aqui está uma pergunta:

A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a opção certa de treino?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.

Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos testes de fundo os modelos são bons a detectar um movimento de preços ascendente e a ignorar um movimento descendente. Se o palpite para cima é de 67%, o mesmo modelo só palpite para baixo é de 55%. "Para cima" e "para baixo" podem mudar de modelo para modelo.
 
mytarmailS:

Eu entendo, mas qual é a meta? o que você está prevendo com as redes? uma inversão? uma tendência? se uma tendência, o que você descreveu como uma tendência?

Eu faço previsões em cada vela, sem levar em conta tendências, inversões e assim por diante. Cabe ao neurônio pensar em tudo isso e a mim responder "acima ou abaixo".
 
Evgeny Dyuka:
A propósito, talvez os especialistas possam ajudar. Aqui está uma pergunta:

A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a maneira certa de aprender?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.

Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos backtests os modelos são bons a identificar o movimento de preços para cima e ignoram o movimento de preços para baixo. Se o modelo adivinha para cima em 67%, o mesmo modelo só adivinha para baixo em 55%. Os padrões "para cima" e "para baixo" podem mudar de lugar de modelo para modelo.

O problema aqui não está nas variantes de classificação, mas no desbalanceamento de exemplos para treinamento, desbalanceamento em número ou em propriedades características dos exemplos.


Uma rede convolucional ?

 
Evgeny Dyuka:
A propósito, talvez os especialistas possam ajudar. Aqui está uma pergunta:

A tarefa, por exemplo, é distinguir um gato de um cão por uma foto. Qual é a maneira certa de aprender?
1. Mostrar apenas fotos de cães e gatos, ou seja, classificação binária.
2. Separadamente ensinando apenas gatos e "não gatos" (protos caos) + separadamente também cães e "não cães", ou seja, dois ciclos de treinamento e dois padrões na saída.
3. Faça uma classificação de três - gatos, cães e caos. Ou seja, haverá um modelo, mas a resposta é uma classificação de três opções.

Neste momento, tenho a primeira opção e está claramente torta. O problema é que o neuro aprende bem apenas uma das variantes, convencionalmente só vê bem "gatos", e reconhece mal os cães. Por exemplo, nos testes de fundo os modelos são bons a detectar um movimento de preços ascendente e a ignorar um movimento descendente. Se o palpite para cima é de 67%, o mesmo modelo só palpite para baixo é de 55%. "Para cima" e "para baixo" de modelo para modelo pode mudar de lugar.

Há dois conjuntos de pontos, não me lembro como são chamados esses pontos, qualquer reconhecimento da foto é para identificar os pontos dos olhos, nariz, boca, orelhas, área da bochecha e a distância e posição entre eles. É tão simples quanto isso. Então, se mostras um gato, não é isso. Primeiro você tem que treinar para reconhecer um gato de um gato, um cão de um cão, e só depois distinguir.

E sim, não apenas 2 ciclos, mas mais em treinamento se houver mais de 2 aulas.

 
mytarmailS:

O problema aqui não é com as opções de classificação, mas com o desequilíbrio dos exemplos de treinamento, desbalanceando o número ou as propriedades características dos exemplos.


Uma rede convolucional ?

Não é convolutivo, eu não mostro fotos reais ))
Exemplos de aprendizagem desequilibrada podem muito bem ser a causa, mas acho que você tem que mexer com a função de ativação. A resposta cai no buraco errado, e há muitos buracos. Preciso de aprender TensorBoard para a feitiçaria, mas é uma dor tão grande...
Em suma, não tenho conhecimentos suficientes.
 
Evgeny Dyuka:
Não, não a convolução, eu não mostro fotos reais).
Exemplos de aprendizagem desequilibrada podem muito bem ser a causa, mas acho que você tem que mexer com a função de ativação. A resposta cai no buraco errado, e há muitos buracos. Preciso de aprender TensorBoard para a feitiçaria, mas é uma dor tão grande...
Eu não sei o suficiente.
typo - não a função de ativação, mas a função de otimização
Razão: