Redes neuronales híbridas. - página 4

 
joo >> :

a dentraf

MQL4

a IlyaA

Sí, lo sé. Y también unos 200-300 libros de diferentes autores. Pero pensé que dominaría NN y GA por mi cuenta más rápido que leer esta biblioteca. Y así resultó. Más rápido.

Por dominar me refiero a la aplicación práctica, no a la familiaridad con la terminología.


entonces Haykin p. 330, capítulo 4.19 Tengo un buen dominio de esta cosa. Le cogerás el tranquillo enseguida.
 
joo >> :

También me gustaría aconsejarle al respecto. Inicie una población adicional en la que ponga a los mejores individuos de cada época (la llamo el "Pool Genético de Época" o GE). Al aparearse, tome individuos de la población actual y de la GE. Esto reduce drásticamente el número de arranques ff. Este método no debe confundirse con la selección de élite.


Vamos a llegar al fondo del cruce. Elijo el mío por probabilidad, lo que refleja que este perceptrón lo hizo mejor que los demás. En consecuencia, el mejor tiene un 80% de posibilidades de participar en cada pareja, y el peor, un 20%. Así es como viven. Lo que se quiere decir con respecto a su método de población complementaria.
 
IlyaA >> :
>>Gracias. >> Muy detallado. Básicamente sí, si ya has ejecutado el algoritmo varias veces con diferentes parámetros, entonces utiliza los resultados. Así que 200... De acuerdo, mantengámoslo así. Entonces el siguiente punto. Debemos buscar el "fake" rentable (combinación de velas e indicadores) buscándolo no con los ojos sino con el perceptrón. Que nos construya grupos linealmente separables. Criterios de búsqueda Profit => max. Parar a voluntad. A continuación, análisis de los pesos e identificación de la "finta". A continuación, un indicador normal y un sistema de comercio. Bastante complicado, pero eso es a primera vista. El juego de las escalas es muy interesante (al menos para mí). Pregunta :) Tengo que ejecutar el historial de 5 años en velas + indicadores (opcional) a través de cada individuo, y ahora hay 200 en cada población. Se trata de un consumo de recursos ENORME, además de que no sabemos cuándo dejaremos de hacerlo. Intentemos reformular el problema o preservar la propiedad más importante de este diseño: la detección de un "fink" por parte de una máquina.

¿5 años en qué TF? Si es M1, sí, mucho tiempo. Si W1, entonces muy rápido.

No es necesario hacer un niño prodigio de la red e intentar enseñarle todos los momentos históricos (fenómenos rentables). La mayoría de ellos no volverán a ocurrir, bueno al menos el 99%.

Considero que 1000-3000 barras de historia es lo óptimo. Para volver a entrenar cuando el error durante el funcionamiento supera el nivel especificado. Aunque sobre el número de ejemplos (bares), hay diferentes opiniones, quizás ahora hay gente que se opone a este tema.

 
joo >> :

¿5 años en qué TF? Si es M1, sí, mucho tiempo. Si W1, entonces muy rápido.

No es necesario hacer un niño prodigio de la red y tratar de enseñar a la red todos los momentos históricos (fenómenos rentables). La mayoría de ellos no volverán a ocurrir, bueno al menos el 99%.

Considero que 1000-3000 barras de historia es lo óptimo. Para volver a entrenar cuando un error durante el funcionamiento se eleva por encima de un nivel especificado. Aunque el número de ejemplos (bares), hay diferentes puntos de vista, tal vez ahora hay personas que se oponen a esta cuestión.


Bueno, creo que voy a empezar. ¿Por qué sugiero un montón de bares? Porque (preguntado por uno mismo, respondido por uno mismo) como se ha señalado correctamente, la mayoría de los fennecks son desechables y la red puede "hacer muescas". Y resultará como de costumbre, en el intervalo que se está probando el chocolate, en todos los demás - alimentar para el sustento. Mi sugerencia es que el mejor filtro para los momentos desechables es integrarlos. La rejilla tendrá más posibilidades de aislar la aleta repetitiva. ¿Cuál es tu idea?
 
gumgum >> :

Ayer escribí una cuadrícula 10-15-10-1

>> Sigue...


¿Has comprobado que el perceptrón no tiene un aprendizaje excesivo (sobreaprendizaje, cogging)?
 
IlyaA >> :


Entonces Haykin p. 330, capítulo 4,19 Soy dueño de esta cosa bien. Le cogerás el tranquillo enseguida.

No tengo tiempo para leer todavía, tal vez lo haga. Gracias.

IlyaA escribió(a) >>.

Descubramos la esencia de los cruces. Elijo el mío por probabilidad, lo que refleja que este perceptrón lo hizo mejor que los demás. En consecuencia, el mejor tiene un 80% de posibilidades de participar en cada pareja, y el peor, un 20%. Así es como viven. Qué significa su método de población suplementaria.

Sí. La descendencia de estos padres se introduce en la nueva población. El resto de los individuos mueren ignominiosamente sin haber experimentado el amor. :)

¡Aquí está el truco! No sabemos si había algún ejemplar decente entre los muertos. Y qué importa que parezcan bichos raros, podrían haber producido una nueva y fuerte generación.

Aborde la cuestión de la AG como si intentara criar un cisne a partir de moscas Drosophila.

El algoritmo es este:

1 Crear una población de individuos al azar (la mayoría de ellos feos).

2 Determinamos la adaptabilidad.

Tres, replicamos la población en la reserva genética

4 Cruce de individuos de la población y del acervo genético (seleccionando de allí y de allá).

5 Colocar a los nuevos individuos en la nueva población

6 Determinar la aptitud de cada individuo

7 Tomar los mejores individuos de la población antigua y de la nueva y colocarlos en la reserva genética si son mejores que los de la reserva genética (reemplazar)

8 Sustituir la población antigua por individuos de la nueva población.

9 repetir con p4

y así sucesivamente, hasta que dejen de aparecer mejores que los mejores en la reserva genética.

 
Mierda, mientras yo escribo el post, tú escribes tres!, tranquilízate un poco :)
 
joo >> :

No tengo tiempo para leer todavía, tal vez lo haga. Gracias.

Sí. La descendencia de estos padres se introduce en la nueva población. El resto muere ignominiosamente sin experimentar el amor. :)

Esta es la parte difícil. No lo sabemos, ¿puede que haya individuos dignos entre los que murieron? Y qué más da que tengan un aspecto feo, puede que hayan dado a luz a una nueva y fuerte generación.

Aborde la cuestión de la AG como si intentara criar un cisne a partir de moscas Drosophila.

El algoritmo es este:

1 Crear una población de individuos al azar (la mayoría de ellos feos).

2 Determinamos la adaptabilidad.

Tres, replicamos la población en la reserva genética

4 Cruce de individuos de la población y del acervo genético (seleccionando de allí y de allá).

5 Colocar a los nuevos individuos en la nueva población

6 Determinar la aptitud de cada individuo

7 Tomar los mejores individuos de la población antigua y de la nueva y colocarlos en la reserva genética si son mejores que los de la reserva genética (reemplazar)

8 Sustituir la población antigua por individuos de la nueva población.

9 repetir con p4.

y así sucesivamente, hasta que no surja nada mejor que lo mejor de la reserva genética.




Ok. Esperaré y veré :) Esto es muy similar a la búsqueda de rayos. He comparado el rendimiento del algoritmo de búsqueda de rayos con el cruce probabilístico. Los resultados fueron mejores (menos poblaciones) con el cruce probabilístico. Sin embargo, si se utiliza hay una alta probabilidad de que funcione bien. Tienes que hacer un experimento. ¿Cómo lo ves? ¿Digamos en XOR?
 
IlyaA >> :


Bueno, creo que voy a empezar. ¿Por qué estoy sugiriendo un montón de bares? Porque (autopreguntado, autocontestado) como se ha señalado correctamente, la mayoría de los pheneks son desechables y la red puede "memorizarlo". Y resultará como de costumbre, en el intervalo que se está probando el chocolate, en todos los demás - alimentar para el sustento. Mi sugerencia es que el mejor filtro para los momentos desechables es integrarlos. La rejilla tendrá más posibilidades de aislar la aleta repetitiva. ¿Cuál es tu idea?

Piensa en NN como si estuvieras pensando en tu cerebro. ¿Cómo va a "integrar" esto? Imagina que sabes de pintura. Tal vez lo seas de verdad.

Bueno, ya conoces las técnicas características de los maestros famosos (fics rentables). Ahora pega el trabajo de todos los maestros famosos en photoshop en una capa. ¿Conoces alguno de los trucos de los artistas conocidos? Lo dudo. También lo hace NN.

 
joo >> :

Piensa en NN como si estuvieras pensando en tu cerebro. ¿Cómo va a "integrar" esto? Imagina que sabes de pintura. Tal vez sí.

Así que conoce las técnicas características de los maestros famosos (fichas rentables). Ahora pega el trabajo de todos los maestros famosos en photoshop en una capa. ¿Encontrarás un solo truco de un autor famoso que conozcas? Lo dudo. También lo hace NN.


¿Qué es el ruido de integración? (De nuevo, pregunté y respondí :) Tienes una variable aleatoria m(t) que está uniformemente distribuida en los intervalos [-1; 1]. En consecuencia, la expectativa = 0. Eso es genial. También tenemos una señal s(t) de configuración compleja. La amplitud de la señal y el ruido tienen valores comparables. El problema consiste en extraer s(t) de s(t) + m(t) siempre que s(t) + m(t) pueda repetirse un número ilimitado de veces. La interferencia será nueva cada vez, la curva de la señal será muy diferente de la curva anterior. El método es sorprendentemente sencillo: encontrar el valor medio de la señal s(t) + m(t) en 1000 repeticiones. En este caso se integraron y eliminaron las interferencias que tenían una expectativa matemática 0. Cuantas más veces podamos promediar la señal s(t) + m(t), menos interferencias quedarán. Aquí está mi idea de nuevo con más detalle.

Para limitar que la red descubra todas las características a la vez (llamémoslo efecto de abstracción), reduciremos el número de neuronas, obteniendo así una ventaja en la capacidad de generalización de la red y la imposibilidad de que el perceptrón aprenda una gran cantidad de material. Apuntaremos la red a encontrar sólo una cosa, pero la más rentable en los datos. ¿Qué te parece?

Razón de la queja: