"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 70
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Si alguien se anima, que me diga de qué se trata.
Combinación de enfoques de control adaptativo y caos determinista para construir sistemas de control autónomo eficientes
Método de control adaptativo autónomo.
Autómatas lógicos de control adaptativo con un número finito de entradas
En resumen, puede buscar aquí http://www.aac-lab.com/rus/
Cómo escapé a tiempo :)) ...
Gracias por la lib :)
Cómo escapé a tiempo :)) ...
Qué buen momento :)) ...
Gracias por la lib :)
No por la publicidad, sino por una buena causa:https://www.mql5.com/ru/code/712 es un parser Xml nativo.
Llevo mucho tiempo usándolo y he arreglado todos mis fallos.
No por la publicidad, sino por una buena causa:https://www.mql5.com/ru/code/712 - parser Xml nativo
Llevo un tiempo usándolo y he arreglado todos mis fallos.
Sí, ya lo he descargado, pero lo he ejecutado, pero no hay reacción, lo he dejado para más adelante para solucionarlo.
Voy a terminar de analizar la literatura sobre los sistemas de control adaptativo y luego me pondré a ello.
Mañana copiaré de mi ordenador de trabajo mi trabajo sobre el almacenamiento de prototipos de red, la configuración de las tareas de formación, el almacenamiento de las soluciones encontradas aquí
???
Bueno, en realidad la GPU en mi modelo apareció en la etapa de cálculo de NS, si se lee cuidadosamente lo que escribí antes, te habrás dado cuenta de que en mi modelo de red universal el procesamiento en sí está dividido en capas, por lo que las neuronas se combinan en capas no formalmente (por la propiedad), sino realmente (la capa tiene una memoria y la neurona no, la neurona tiene que ser sólo una entidad informativa que informa a la capa sobre dónde y por qué). Así, el paralelismo viene definido por la propia estructura del motor (la información dentro de la capa se procesa en paralelo). Ya hice NS entrenado por GA y la mayor pérdida de productividad fue exactamente en el cálculo de NS (especialmente en redes grandes). Y como anuncio, puedo decir que para la UGA propuesta por joo , el aprendizaje de NS es pan comido.
Pero si es posible paralelizar también los cálculos de FF (y NS para GA es una parte de FF), entonces sólo estoy a favor. Aunque no creo que sea una tarea sencilla, en las capas se realizan acciones simples, y el cálculo de la FF puede implicar una secuencia bastante compleja.
Podemos detenernos ahí por ahora, en mi opinión.
El AG estándar y la nube ayudarían a paralelizar el cálculo de FF. Especialmente Renat prometió:
Administración
2516
Paralelamente al desarrollo de una red neuronal, ampliaremos la funcionalidad de los agentes para que puedan realizar cálculos matemáticos e intercambiar grandes volúmenes (archivos) de datos.
Pero, como dice el refrán, no se pueden mantener las promesas durante tres años.
Así que, de momento, puedes optimizar el algoritmo joo específicamente para redes neuronales, funcionará aún más rápido. Espero que a Andrey no le importe.
???
a) desmontar XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Seguiremos adelante a medida que tengamos más preguntas.
a) desmontar XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Seguiremos adelante a medida que tengamos más preguntas
¿Puedo tener un pequeño ejemplo de cómo usarlo para MT5?
Si consideramos el entrenamiento de las neuronas como un nivel micro (ciclos de procesamiento de matrices independientes en el AG, cálculo de neuronas individuales de una red, etc.) y un nivel macro (todo el FP), entonces no tenemos preguntas ni problemas con el primero - todo es perfectamente paralelo y funcionará bien en la GPU.
Pero hay un problema con el nivel macro. En primer lugar, sospecho que no es posible debido a las limitaciones de la cantidad de información que maneja la GPU. Podríamos trabajar alrededor de eso, usando un probador regular y la nube (cada nivel macro será transferido a agentes separados, y allí será procesado en el nivel micro - si el anfitrión lo permite por supuesto). Pero no tenemos las herramientas para controlar el probador externamente para usar GA externos.
Así que tendremos que limitarnos a la aceleración a nivel micro. La aceleración también será muy decente, ya que las mallas y los propios AG abundan en cálculos independientes entre sí.
En cuanto a UGA en sí, si no se toca el tema de refinarlo para OpenCL, no tiene prácticamente nada que mejorar (a menos que tenga algunos fragmentos de código, pero eso no hará la diferencia gracias a los involucrados en el hilo de discusión del algoritmo en el artículo). Sólo puede intentar seleccionar los ajustes de UGA específicamente para las redes de entrenamiento.