"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 70

 

Si alguien se anima, que me diga de qué se trata.

Combinación de enfoques de control adaptativo y caos determinista para construir sistemas de control autónomo eficientes

Método de control adaptativo autónomo.

Autómatas lógicos de control adaptativo con un número finito de entradas

En resumen, puede buscar aquí http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
Archivos adjuntos:
 

Cómo escapé a tiempo :)) ...

yu-sha:

Gracias por la lib :)

 
TheXpert:

Cómo escapé a tiempo :)) ...

Todavía no he publicado todo, sigo buscando materiales que valgan la pena, más diversión por venir :)
 
TheXpert:

Qué buen momento :)) ...

Gracias por la lib :)

No por la publicidad, sino por una buena causa:https://www.mql5.com/ru/code/712 es un parser Xml nativo.

Llevo mucho tiempo usándolo y he arreglado todos mis fallos.

XML parser
XML parser
  • votos: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
Llevo mucho tiempo usándolo pero creo quehe arreglado todos los fallos y los tengo solucionados:

No por la publicidad, sino por una buena causa:https://www.mql5.com/ru/code/712 - parser Xml nativo

Llevo un tiempo usándolo y he arreglado todos mis fallos.

Sí, ya lo he descargado, pero lo he ejecutado, pero no hay reacción, lo he dejado para más adelante para solucionarlo.

Voy a terminar de analizar la literatura sobre los sistemas de control adaptativo y luego me pondré a ello.

 
yu-sha:

Mañana copiaré de mi ordenador de trabajo mi trabajo sobre el almacenamiento de prototipos de red, la configuración de las tareas de formación, el almacenamiento de las soluciones encontradas aquí

???

 
Urain:

Bueno, en realidad la GPU en mi modelo apareció en la etapa de cálculo de NS, si se lee cuidadosamente lo que escribí antes, te habrás dado cuenta de que en mi modelo de red universal el procesamiento en sí está dividido en capas, por lo que las neuronas se combinan en capas no formalmente (por la propiedad), sino realmente (la capa tiene una memoria y la neurona no, la neurona tiene que ser sólo una entidad informativa que informa a la capa sobre dónde y por qué). Así, el paralelismo viene definido por la propia estructura del motor (la información dentro de la capa se procesa en paralelo). Ya hice NS entrenado por GA y la mayor pérdida de productividad fue exactamente en el cálculo de NS (especialmente en redes grandes). Y como anuncio, puedo decir que para la UGA propuesta por joo , el aprendizaje de NS es pan comido.

Pero si es posible paralelizar también los cálculos de FF (y NS para GA es una parte de FF), entonces sólo estoy a favor. Aunque no creo que sea una tarea sencilla, en las capas se realizan acciones simples, y el cálculo de la FF puede implicar una secuencia bastante compleja.

En el resto tenemos: la idea de un motor universal para cualquier topología, la idea de un método de inicialización universal para cualquier topología, y el AG como tutorial universal para todo esto.

Podemos detenernos ahí por ahora, en mi opinión.

El AG estándar y la nube ayudarían a paralelizar el cálculo de FF. Especialmente Renat prometió:


Administración
2516
Renat2011.10.18 10:50
La situación es bastante buena con el tiempo de ejecución de losprogramas MQL5+ estamos preparando una nueva versión del compilador con las optimizaciones activadas, lo que dará un aumento múltiple de la velocidad.

Paralelamente al desarrollo de una red neuronal, ampliaremos la funcionalidad de los agentes para que puedan realizar cálculos matemáticos e intercambiar grandes volúmenes (archivos) de datos.

Pero, como dice el refrán, no se pueden mantener las promesas durante tres años.

Así que, de momento, puedes optimizar el algoritmo joo específicamente para redes neuronales, funcionará aún más rápido. Espero que a Andrey no le importe.

 
su.humano:

???

a) desmontar XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Seguiremos adelante a medida que tengamos más preguntas.

 
yu-sha:

a) desmontar XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Seguiremos adelante a medida que tengamos más preguntas

¿Puedo tener un pequeño ejemplo de cómo usarlo para MT5?

 

Si consideramos el entrenamiento de las neuronas como un nivel micro (ciclos de procesamiento de matrices independientes en el AG, cálculo de neuronas individuales de una red, etc.) y un nivel macro (todo el FP), entonces no tenemos preguntas ni problemas con el primero - todo es perfectamente paralelo y funcionará bien en la GPU.

Pero hay un problema con el nivel macro. En primer lugar, sospecho que no es posible debido a las limitaciones de la cantidad de información que maneja la GPU. Podríamos trabajar alrededor de eso, usando un probador regular y la nube (cada nivel macro será transferido a agentes separados, y allí será procesado en el nivel micro - si el anfitrión lo permite por supuesto). Pero no tenemos las herramientas para controlar el probador externamente para usar GA externos.

Así que tendremos que limitarnos a la aceleración a nivel micro. La aceleración también será muy decente, ya que las mallas y los propios AG abundan en cálculos independientes entre sí.

En cuanto a UGA en sí, si no se toca el tema de refinarlo para OpenCL, no tiene prácticamente nada que mejorar (a menos que tenga algunos fragmentos de código, pero eso no hará la diferencia gracias a los involucrados en el hilo de discusión del algoritmo en el artículo). Sólo puede intentar seleccionar los ajustes de UGA específicamente para las redes de entrenamiento.