Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 631

 
forexman77:

¿Tiene tres neuronas en la entrada de la segunda capa procesada por sigmoide? Cómo se ajustan los pesos en la segunda capa que se elige entre -1 y 1 con paso de 0,1 por ejemplo.

En mi red, después de procesar la segunda capa , el número de acuerdos descendió y mis resultados no mejoraron mucho. Era diferente cuando simplemente ajustaba un perceptrón con 9 entradas y una neurona de salida y luego cogía otro perceptrón independiente y lo ajustaba de nuevo con los ajustes del primero guardados, etc.

La 4ª neurona procesa los resultados de las tres primeras, es decir, + 3 pesos más

Sí, de -1 a 1 en incrementos de 0,1, pero no sigmoidea sino tangente

He probado a hacer una capa intermedia con los mismos pesos que la primera de entrada, el número de operaciones ha bajado y la calidad ha mejorado considerablemente, pero optimizar 9 pesos extra es demasiado :)

Tu versión suena bien... Estaba pensando en entrenar a la NS convencional sobre los resultados de la optimización... Tendré que probarlo. Pero me estoy aburriendo de este enfoque

 
Maxim Dmitrievsky:

La 4ª neurona procesa los resultados de las tres primeras, es decir, + 3 pesos más

Ahora he intentado hacer una capa intermedia con los mismos pesos que la primera capa de entrada - el número de operaciones ha bajado y la calidad también ha mejorado, pero optimizar 9 pesos adicionales ya es demasiado :)

Tu versión suena bien... Estaba pensando en entrenar a la NS convencional sobre los resultados de la optimización... Tendré que probarlo. Pero me estoy aburriendo de este enfoque.

Mi impresión es que debería hacer un indicador en la primera capa y ver visualmente qué pesos deberían aplicarse en la segunda capa. O procesarlo con sigmoide (entonces se obtienen los valores de alrededor de 0,2 a 0,9, aproximadamente) y entonces se pueden tomar pesos pequeños y no se necesita un gran rango de ellos.

Además, el peso adicional sin referencia a la entrada es sólo un peso, lo que el Dr.Trader me sugirió. Tal y como aconseja el Dr. Trader, obtengo mejores resultados con Bias. Por ejemplo, 1,7 bias se convierte en 1,8 https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

Tengo la impresión de que hay que hacer un indicador en la primera capa y ver visualmente qué pesos aplicar en la segunda. O procesarlo con sigmoide (entonces se obtienen valores de 0,2 a 0,9 más o menos) y entonces se pueden tomar pesos pequeños y no se necesita un gran rango de pesos.

Además, el peso adicional sin vinculación a la entrada es sólo el peso del sesgo, lo que el Dr.Trader me sugirió. Por ejemplo, es 1,7 con sesgo y ahora es 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

es difícil hacer algo por pura improvisación :) pero el principal problema hasta ahora sigue siendo - el reentrenamiento
 
Maxim Dmitrievsky:
es difícil hacer algo por pura improvisación :) pero el problema principal sigue siendo la reconversión

Bueno, 5-10 neuronas para reentrenar no es un problema en absoluto). Parece que es algo así con usted.

Había un espécimen interesante en el ordenador. Tienes un pedazo de discurso. Se genera un ruido que se superpone a este discurso. Luego se enseña un simple MLP, y volvemos a escuchar un discurso casi puro.

Esto me extrañó mucho, aunque hay una descripción de un modificador de ruido similar en Haikin como ejemplo.

 
Yuriy Asaulenko:

Bueno, 5-10 neuronas para reentrenar no es un problema en absoluto). Parece que es algo así con usted.

Había un espécimen interesante en el ordenador. Tienes un pedazo de discurso. Se genera un ruido que se superpone a este discurso. Luego se enseña un simple MLP, y volvemos a escuchar un discurso casi puro.

Me quedé muy sorprendido con ella, aunque se describe en Heikin como un ejemplo.

Sí, pero es sólo uno de los bots... Si no funciona - olvídalo, cambiaré a otro... y así sucesivamente, hasta que pase la síntesis :) o te aburras
 
Por favor, no te rebajes a insultar y vigila el uso de palabrotas.
 
Parece que se ha perdido alguna paliza, siento no haber podido participar
 
Maxim Dmitrievsky:
Parece que se ha perdido algo de basura, ojalá hubiera tenido tiempo de participar.

La otra es que borraron mi post en el que respondía al señor Terenyevsky y decía que los escritores locales son los únicos que escribieron sobre las pruebas de series temporales. Le contesté a Terentiev sobre las pruebas de series temporales y le dije que los escritores locales son aficionados porque no entienden que con un 70-80% de precisión el ratio de Sharp será superior a 20, pero no tienen ningún sentido.

 
No lo estoy:

borró mi mensaje en el que respondía al Sr. Terenyv. Terentiev sobre las pruebas de series temporales y dijo que los escritores de artículos locales son sólo aficionados porque no entienden que con un 70-80% de precisión la proporción de Sharp será superior a 20, y tienen algunas tonterías

ah, ok )

 

Me he preguntado sobre el aprendizaje de la reinformación, así que he encontrado un artículo interesante y estoy intentando comprarlo y quizás añadirlo al bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Estoy tratando de comprar el bot, pero es un poco tonto, sólo aprende a comprar al final por alguna razón.

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…
Razón de la queja: