"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 74
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Pongamos un experimento, creemos una red de 1000 neuronas con 100 conexiones por neurona, y publiquemos el tamaño del archivo
~6 MBytes
Red 100x1000x1 - malla completa
Adjunto ))
Ahora dime, por favor, ¿cómo vas a entrenarlo?
Sólo conozco un tipo de redes que pueden tener un tamaño similar, pero no necesitan entrenamiento y almacenamiento. Se forman en una sola pasada por la muestra de entrenamiento y la recuerdan estúpidamente.
Una red así no puede ser entrenada con GA por todos los ordenadores de todas las películas de ciencia ficción juntas: la dimensionalidad del espacio de búsqueda es de 100 000
O mejor dicho, creo que una red de este tipo se limitará a memorizar la muestra de entrenamiento, y obtendrá un pantallazo de toda la historia en lugar de una generalización.
Hay que tener más cuidado con la elección de la arquitectura ))
~6 MBytes.
Adjunto ))
Ahora dime, por favor, ¿cómo vas a enseñarlo?
Sí, para enseñar sólo ningún problema, escribí arriba que para UGA 100 000 parámetros es una tarea aceptable, no puedo decir que la bagatela, pero factible.
Pero el tamaño es bastante normal, no hay que preocuparse más, como dicen la cuestión está cerrada.
No es un problema para entrenar, escribí arriba que para UGA 100 000 parámetros es una tarea bastante aceptable, no puedo decir que sea fácil, pero es factible.
Pero el tamaño es bastante normal, no hay que preocuparse más, como se dice, la cuestión está cerrada.
Aunque se fije la resolución de cada parámetro en 0,1, el número de combinaciones de todas las posibles de una búsqueda completa es de 10^100000
Tienes una idea muy brillante de GA.
Aunque se fije la discreción de cada parámetro en 0,1, el número de combinaciones de todas las posibles de una búsqueda completa es de 10^100000
Tienes una idea muy brillante de GA
No tengo ideas del arco iris, tengo conocimiento práctico de la utilización de este algoritmo, UGA no es un algoritmo binario que necesita dividir el espacio de búsqueda en gráficos.
UGA lleva a cabo la búsqueda paralela en todas las mediciones simultáneamente, paso a paso disminuyendo automáticamente, que le da la posibilidad de un tiempo razonable para llegar a un resultado robusto, y más para la formación de una cuadrícula y no es necesario, más allá habrá reentrenamiento. Por lo general, en 10000-50000 FF se consigue el resultado independientemente del número de parámetros.
~6 MBytes
Red 100x1000x1 - malla completa
Adjunto ))
Ahora dime, por favor, ¿cómo vas a entrenarlo?
Sólo conozco un tipo de redes, que pueden tener un orden de tamaño similar, pero no se entrenan y no necesitan ser almacenadas. Se forman en una sola pasada por la muestra de entrenamiento y la recuerdan estúpidamente.
Una red así no puede ser entrenada con GA por todos los ordenadores de todas las películas de ciencia ficción juntas: la dimensionalidad del espacio de búsqueda es de 100 000
O mejor dicho, creo que una red de este tipo se limitará a memorizar la muestra de entrenamiento, y obtendrá un pantallazo de toda la historia en lugar de una generalización.
Hay que tener más cuidado con la elección de la arquitectura ))
Está claro que nadie necesita (es inútil) una red así. Por eso hablamos de una arquitectura libre (escalable).
Para experimentar, intentaré enseñarlo con GA en mi pequeño dispositivo con N450. ¿Qué enseñar, cuántos ejemplos, errores, etc.?
P.D. Mientras aprende, estudiaré sus códigos.
Está claro que nadie necesita una red así (inútil). Por eso hablamos de arquitectura libre (escalable).
Para experimentar, intentaré enseñar con GA en mi plancha pequeña con N450. ¿Qué enseñar, cuántos ejemplos, error, etc.?
No tengo ideas de arco iris, pero el conocimiento práctico sobre el uso de este algoritmo, UGA no es un algoritmo binario que necesita para dividir el espacio de búsqueda en los gráficos.
UGA lleva a cabo una búsqueda paralela en todas las mediciones simultáneamente, reduciendo paso a paso de forma automática, lo que le da la oportunidad de llegar a un resultado robusto en un tiempo razonable, y más para el entrenamiento de una cuadrícula también no es necesario, además habrá reentrenamiento. Por lo general, en 10000-50000 FF se consigue el resultado independientemente del número de parámetros.
Reconocido. Lo resaltado en negrita es un resultado robusto (no necesariamente un máximo absoluto).
Lo principal es que es posible entrenar mallas de tamaños enormes. Y la necesidad de estas enormes mallas depende de cada nodo en particular. :)
Reconocido. Lo resaltado en negrita es un resultado robusto (no necesariamente un máximo absoluto).
Lo principal es que es posible entrenar mallas de tamaños enormes. Y si estas enormes mallas son necesarias depende de la conciencia de cada nodo. :)
Para no pintar perspectivas de color de rosa, debemos añadir que aunque el número de ejecuciones de FF casi no crece (para obtener una solución robusta) el tiempo de encontrar el resultado aumenta, porque el algoritmo tiene que ejecutar matrices mucho más grandes (en realidad hace más operaciones), pero al principio el tiempo crece linealmente, y en segundo lugar durante las pruebas la velocidad de FF y en particular la velocidad de NS como parte de FF fue siempre el principal escollo, con una aceleración seria de NS en la GPU se espera y la aceleración de encontrar la solución en general para GA.
¿Y qué GA vas a enseñar?
La cuestión no es cuál. Sólo me pregunto si el GA, con un hardware tan débil, lo conseguirá.
Una versión aligerada del algoritmo joo.
La cuestión no es cuál. Sólo me pregunto si el GA, con un hardware tan débil, lo conseguirá.
Una versión ligera del algoritmo joo.