"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 74

 
Urain:
Pongamos un experimento, creemos una red de 1000 neuronas con 100 conexiones por neurona, y publiquemos el tamaño del archivo

~6 MBytes

Red 100x1000x1 - malla completa

Adjunto ))

Ahora dime, por favor, ¿cómo vas a entrenarlo?

Sólo conozco un tipo de redes que pueden tener un tamaño similar, pero no necesitan entrenamiento y almacenamiento. Se forman en una sola pasada por la muestra de entrenamiento y la recuerdan estúpidamente.

Una red así no puede ser entrenada con GA por todos los ordenadores de todas las películas de ciencia ficción juntas: la dimensionalidad del espacio de búsqueda es de 100 000

O mejor dicho, creo que una red de este tipo se limitará a memorizar la muestra de entrenamiento, y obtendrá un pantallazo de toda la historia en lugar de una generalización.

Hay que tener más cuidado con la elección de la arquitectura ))

Archivos adjuntos:
UrainTask.zip  93 kb
 
yu-sha:

~6 MBytes.

Adjunto ))

Ahora dime, por favor, ¿cómo vas a enseñarlo?

Sí, para enseñar sólo ningún problema, escribí arriba que para UGA 100 000 parámetros es una tarea aceptable, no puedo decir que la bagatela, pero factible.

Pero el tamaño es bastante normal, no hay que preocuparse más, como dicen la cuestión está cerrada.

 
Urain:

No es un problema para entrenar, escribí arriba que para UGA 100 000 parámetros es una tarea bastante aceptable, no puedo decir que sea fácil, pero es factible.

Pero el tamaño es bastante normal, no hay que preocuparse más, como se dice, la cuestión está cerrada.

Aunque se fije la resolución de cada parámetro en 0,1, el número de combinaciones de todas las posibles de una búsqueda completa es de 10^100000

Tienes una idea muy brillante de GA.

 
yu-sha:

Aunque se fije la discreción de cada parámetro en 0,1, el número de combinaciones de todas las posibles de una búsqueda completa es de 10^100000

Tienes una idea muy brillante de GA

No tengo ideas del arco iris, tengo conocimiento práctico de la utilización de este algoritmo, UGA no es un algoritmo binario que necesita dividir el espacio de búsqueda en gráficos.

UGA lleva a cabo la búsqueda paralela en todas las mediciones simultáneamente, paso a paso disminuyendo automáticamente, que le da la posibilidad de un tiempo razonable para llegar a un resultado robusto, y más para la formación de una cuadrícula y no es necesario, más allá habrá reentrenamiento. Por lo general, en 10000-50000 FF se consigue el resultado independientemente del número de parámetros.

 
yu-sha:

~6 MBytes

Red 100x1000x1 - malla completa

Adjunto ))

Ahora dime, por favor, ¿cómo vas a entrenarlo?

Sólo conozco un tipo de redes, que pueden tener un orden de tamaño similar, pero no se entrenan y no necesitan ser almacenadas. Se forman en una sola pasada por la muestra de entrenamiento y la recuerdan estúpidamente.

Una red así no puede ser entrenada con GA por todos los ordenadores de todas las películas de ciencia ficción juntas: la dimensionalidad del espacio de búsqueda es de 100 000

O mejor dicho, creo que una red de este tipo se limitará a memorizar la muestra de entrenamiento, y obtendrá un pantallazo de toda la historia en lugar de una generalización.

Hay que tener más cuidado con la elección de la arquitectura ))

Está claro que nadie necesita (es inútil) una red así. Por eso hablamos de una arquitectura libre (escalable).

Para experimentar, intentaré enseñarlo con GA en mi pequeño dispositivo con N450. ¿Qué enseñar, cuántos ejemplos, errores, etc.?

P.D. Mientras aprende, estudiaré sus códigos.

 
su.humano:

Está claro que nadie necesita una red así (inútil). Por eso hablamos de arquitectura libre (escalable).

Para experimentar, intentaré enseñar con GA en mi plancha pequeña con N450. ¿Qué enseñar, cuántos ejemplos, error, etc.?

¿Qué GA vas a enseñar?
 
Urain:

No tengo ideas de arco iris, pero el conocimiento práctico sobre el uso de este algoritmo, UGA no es un algoritmo binario que necesita para dividir el espacio de búsqueda en los gráficos.

UGA lleva a cabo una búsqueda paralela en todas las mediciones simultáneamente, reduciendo paso a paso de forma automática, lo que le da la oportunidad de llegar a un resultado robusto en un tiempo razonable, y más para el entrenamiento de una cuadrícula también no es necesario, además habrá reentrenamiento. Por lo general, en 10000-50000 FF se consigue el resultado independientemente del número de parámetros.

Reconocido. Lo resaltado en negrita es un resultado robusto (no necesariamente un máximo absoluto).

Lo principal es que es posible entrenar mallas de tamaños enormes. Y la necesidad de estas enormes mallas depende de cada nodo en particular. :)

 
joo:

Reconocido. Lo resaltado en negrita es un resultado robusto (no necesariamente un máximo absoluto).

Lo principal es que es posible entrenar mallas de tamaños enormes. Y si estas enormes mallas son necesarias depende de la conciencia de cada nodo. :)

Para no pintar perspectivas de color de rosa, debemos añadir que aunque el número de ejecuciones de FF casi no crece (para obtener una solución robusta) el tiempo de encontrar el resultado aumenta, porque el algoritmo tiene que ejecutar matrices mucho más grandes (en realidad hace más operaciones), pero al principio el tiempo crece linealmente, y en segundo lugar durante las pruebas la velocidad de FF y en particular la velocidad de NS como parte de FF fue siempre el principal escollo, con una aceleración seria de NS en la GPU se espera y la aceleración de encontrar la solución en general para GA.

Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
Документация по MQL5: Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования
  • www.mql5.com
Стандартные константы, перечисления и структуры / Константы индикаторов / Стили рисования - Документация по MQL5
 
Urain:
¿Y qué GA vas a enseñar?

La cuestión no es cuál. Sólo me pregunto si el GA, con un hardware tan débil, lo conseguirá.

Una versión aligerada del algoritmo joo.

 
su.humano:

La cuestión no es cuál. Sólo me pregunto si el GA, con un hardware tan débil, lo conseguirá.

Una versión ligera del algoritmo joo.

Alguna vez pensé en escribir un probador para el aprendizaje de pequeñas retículas con GA, como el que dibujé arriba, 6 pesos, 3 neuronas, problema XOR, pero no tengo tiempo para hacerlo :)
Razón de la queja: