Discussão do artigo "Sequência DeMarker (TD SEQUENTIAL) com uso de inteligência artificial (IA)" - página 6
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Criei o modelo para 50 registros e estava interessado no resultado do modelo durante os próximos 50 ou 100% do intervalo de treinamento. Quando você aumenta o número de registros para criar o modelo sem aumentar o número de movimentos. A capacidade de generalização diminuirá. Assim, é possível reduzir o nível de generalização para 65% aceitáveis, regulando o tamanho da amostra. Se dissermos que é suficiente ganhar dinheiro no mercado, então o tamanho da amostra de treinamento será muito maior e esse modelo funcionará por muito mais tempo, mas muito pior do que o modelo com o nível de generalização de 90%. Aplicando o MM adequado e o gerenciamento de dinheiro a esses modelos (65%), você pode ganhar muito dinheiro.
Eu já disse que não é possível aprender com 50 amostras, pois dados muito ruidosos do minuto anterior não contêm informações sobre todas as nuances do comportamento do mercado.
Não sei como você considera a "generalização", mas o cálculo da precisão ainda está em questão para você. Os algoritmos são superiores, até mesmo um não programador pode lê-los. Conte quantas vezes o modelo adivinhou e divida pelo número de amostras.
Existem peixes, mas não com esses dados. Com dados de baixa frequência, o preço leva tudo em consideração; com dados puros de mercado (preço de volume, delta etc.), não é possível obter nada; o preço se adapta às notícias e às novas informações quase completamente, em poucos minutos, e a difusão de informações é a principal ineficiência do mercado. O restante, em termos simples, é apenas informação privilegiada. Você não sabe quando e por que o boneco vai comprar/vender muito, criando tendências e quando isso vai parar.
Imagine que você está lutando, seu sucesso em uma luta depende de como você prevê os golpes do oponente, no início deles, vendo a postura e o início do movimento, você toma as manobras evasivas apropriadas e, quando vê a ineficiência da defesa do oponente, você ataca, tudo é igual no trading (especulação), você não pode decidir reagir duas vezes mais devagar, você não se tornará duas vezes menos eficiente, você perderá completamente a eficiência.
Agora toda especulação é automatizada, tudo que é baseado em difusão de informação (estática, arbitragem de eventos, etc.) tudo HFT, é necessariamente ultra HFT como alguns MM, é mais como "algo-scalping" (tempo médio de manutenção de uma posição na área de um minuto, ou mesmo 10 minutos), mas não estamos falando de horas e dias, definitivamente não há informação nos preços, tudo é antigo.
Mas, em geral, teoricamente, é possível prever horas e até dias, mas não apenas por dados de mercado, é necessário monitorar milhares de parâmetros da atividade humana em todo o mundo, especialmente em relação a grandes empresas, precisamos do clima, da quantidade de transporte em todos os lugares, da atividade social das pessoas na Internet, especialmente dos lançamentos tn. "Por exemplo, ouvi dizer que eles estão observando as fábricas do espaço para ver quantos produtos são produzidos lá, o que foi trazido e o que foi retirado)))) Isso é na fronteira com o interior, mas não ser pego não é um ladrão))))). E tudo isso precisa ser processado por uma equipe de bons analistas em um formulário de sinais, bem como por uma equipe de bons analistas de previsões fundamentais e coleta de dados de previsões abertas e sua análise. Em geral, mesmo um banco de médio porte não terá recursos suficientes para realizar e trabalhar tudo isso com qualidade de produção. E, com base apenas no preço e no volume de dias, é impossível prever um preço futuro estatisticamente confiável. Isso é um conto de fadas para "apostar no vermelho e dobrar"))))
Tudo isso é verdade, concordo plenamente, mas o par de mercado forma pré-requisitos, bem como um exemplo, vamos pegar o sinal "Sequences", vamos supor que um sinal de compra foi formado e o NS diz que o sinal é "True", mas depois de algum tempo há uma mudança na situação do mercado e o sinal perde sua relevância e o mercado começa a ir contra ele, no final ele é descartado como um erro de rede. Ou melhor, não foi um erro. No momento do sinal, o mercado estava realmente subindo, e só então mudou de ideia. Então, recebemos um erro e ficamos bem. A tarefa é cometer o menor número possível de erros :-) Então, no final das contas, que tal otimizar meus dados?
Então, no final, que tal otimizar meus dados?
150 amostras. uau.
Ok, vou executá-lo hoje à noite.
Eu já disse que não é possível aprender com 50 amostras, dados muito ruidosos do minuto anterior não contêm informações sobre todas as nuances do comportamento do mercado.
Não sei como você considera a "generalização", mas o cálculo da precisão ainda está em questão para você. Os algoritmos são superiores, até mesmo um não programador pode lê-los. Contamos quantas vezes o modelo adivinhou e dividimos pelo número de amostras.
A propósito, sim, no início, quando eu estava organizando os códigos dos indicadores e tudo mais, eu contava com o histórico de quais sinais e quantos, porque temos 4 parâmetros (e tudo funcionou para mim). Mas é possível contar os sinais quando o número de zeros e uns é igual, porque, caso contrário, ao dividir, algumas linhas são copiadas. Ou seja, se estiverem faltando duas unidades, ele as adiciona (estou falando do Separator). Agora tentarei obter o modelo e demonstrar como ele funciona na amostra de treinamento, mas para isso você precisa obter a mesma quantidade de dados com zero e um. Um pouco mais tarde, a máquina conta. Quanto ao arquivo de treinamento, posso convertê-lo em 11 colunas e 750 linhas. Esse arquivo será mais conveniente????
A propósito, sim, no início, quando eu estava organizando os códigos dos indicadores e tudo mais, eu contava com o histórico de quais sinais e quantos, porque temos 4 parâmetros (e tudo deu certo para mim). Mas é possível contar os sinais quando o número de zeros e uns é igual, porque, caso contrário, ao dividir, algumas linhas são copiadas. Ou seja, se estiverem faltando duas unidades, ele as adiciona (estou falando do Separator). Agora tentarei obter o modelo e demonstrar como ele funciona na amostra de treinamento, mas para isso você precisa obter a mesma quantidade de dados com zero e um. Um pouco mais tarde, a máquina conta. Quanto ao arquivo de treinamento, posso convertê-lo em 11 colunas e 750 linhas. Esse arquivo será mais conveniente????
11 colunas e 750 linhas é certamente melhor, talvez na validação cruzada algo venha a se encaixar...
De modo geral, estabeleça conjuntos diferentes, com data de baixa frequência e suas fichas e direcionamento, você pode em uma mensagem privada se o que não é para o público, confesso que não me aprofundei na baixa frequência, pois fui imediatamente convencido pelo "sofisticado" sobre o assunto da falta de informações nele, portanto, se você mudar minha opinião, ficarei grato, isso transformará minha compreensão dos mercados, estou pronto para isso, embora considere improvável.
Sim, de fato, preparei o arquivo imediatamente, são os mesmos dados, mas coletados de forma diferente.
Bem, ainda tenho mais uma teoria, por assim dizer, uma suposição, e quero expressá-la e ouvir a opinião não apenas de você, tohis. (a propósito, qual é o seu nome? Porque não é comum usar o apelido), mas também do Wizard. Ele é antigo no ramo e lembro que ainda nos comunicávamos pelo NSh.
Gostaria de discutir outro tópico. A questão é que, no processo de otimização, obtemos um modelo e, após várias otimizações, obteremos um conjunto de, digamos, 5 modelos (como exemplo). Agora vou postar um link para a palestra, assista a partir de 33 minutos, onde ele fala sobre o grau do polinômio e o efeito do retreinamento do polinômio. O gráfico de minimização de erros. Então, vamos falar sobre isso.
Ou seja, a tarefa do otimizador é criar um modelo de modo que o grau de aproximação seja máximo na dimensão polinomial mínima, se entendi corretamente. Ou seja, a tarefa é criar um polinômio que maximize o grau de aproximação do resultado, mas que não tenha um grande número de graus. Agora, vamos imaginar que o nosso otimizador saiba como criar esse polinômio e, no caso de otimização repetida dos dados, constantemente entramos em uma determinada área que está na fronteira entre a convergência e o treinamento excessivo. Vamos imaginar que essa é uma área pequena, mas não importa quantas vezes cheguemos lá, sempre obteremos modelos que entram na área de suficiência e não de treinamento excessivo (desenhados esquematicamente como pude), MAS esses modelos serão diferentes em termos dos resultados do trabalho no futuro. Portanto, é a escolha do modelo que funcionará de acordo com a opinião do especialista. Portanto, talvez existam métodos de seleção de modelos para a viabilidade no futuro?????.
A figura mostra a área em que o treinamento é completo e suficiente, e o principal é que não haja excesso de treinamento.
Sim, de fato, preparei o arquivo imediatamente, são os mesmos dados, mas coletados de forma diferente.
Bem, ainda tenho mais uma teoria, por assim dizer, uma suposição, e quero expressá-la e ouvir a opinião não apenas de você, tohis. (a propósito, qual é o seu nome? Porque não é comum usar o apelido), mas também do Wizard. Ele é um veterano no assunto e lembro que ainda estávamos nos comunicando no NSH.
Bem, em geral, surpreendentemente, o primeiro conjunto de dados - contém um pouco de alfa, cerca de 3-4% acima dos 50% aleatórios, se você não se importar muito, ou seja, teoricamente, com um número maior de amostras, até 5-6% podem ser extraídos, o que, em princípio, não é nada ruim, considerando os custos de transação do ponzi. Hmmm... interessante, interessante... Não seria ruim se alguém verificasse a quantidade de informações existentes.
Isso tudo, é claro, se o direcionamento estiver correto, se o direcionamento não incluir retornos passados ou preço. No alvo deve haver somente retorno futuro, portanto, por exemplo, se você tiver índices construídos, por exemplo, ao preço pt-n,...,pt-1,pt, o alvo não deve "ver" o preço no qual os sinais são construídos, por exemplo, o alvo pode ser o sinal do próximo retorno ((pt+2-pt+1)/pt+1).Sign(), mas se o alvo for ((pt+1-pt)/pt).Sign()), a imagem ficará "borrada" e o modelo terá um desempenho irreal, um"graal" falso, que é importante levar em consideração.
O segundo conjunto de dados (o mais longo) não é nada bom, você o esticou de forma estranha, deslocou alguns recursos para outros)))).
Bem, em geral, surpreendentemente, o primeiro conjunto de dados contém um pouco de alfa, cerca de 3-4% acima dos 50% aleatórios, se você não se importar muito, ou seja, teoricamente, com mais amostras, é possível extrair até 5-6%, o que, em princípio, não é nada ruim, considerando os custos de transação do Ponzi. Hmmm... interessante, interessante... Não seria ruim se alguém verificasse a quantidade de informações existentes.
Isso tudo, é claro, se o direcionamento estiver correto, se o direcionamento não incluir retornos passados ou preço. No alvo deve haver somente retorno futuro, portanto, por exemplo, se você tiver índices construídos, por exemplo, ao preço pt-n,...,pt-1,pt, o alvo não deve "ver" o preço no qual os sinais são construídos, por exemplo, o alvo pode ser o sinal do próximo retorno ((pt+2-pt+1)/pt+1).Sign(), mas se o alvo for ((pt+1-pt)/pt).Sign()), a imagem ficará "borrada" e o modelo terá um desempenho irreal, um falso "graal" que é importante levar em consideração.
O segundo conjunto de dados (o mais longo) não é nada bom, você o esticou de forma estranha, deslocou alguns recursos para outros)))).
Sim, minha saída está voltada para o futuro, não se preocupe com a pureza da coleta de dados, sou muito cuidadoso com isso.
Foram 15 minutos de dados.
No segundo, apenas transformei as colunas em linhas, 11 partes e multipliquei o resultado. Acontece que, quando recebemos um sinal, enviamos 11 colunas 5 vezes para um sinal, é possível até mesmo organizar um comitê nesse nível. Também criei esse arquivo para mim. Assim que a máquina estiver livre, tentarei girar.