Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 530

 
Maxim Dmitrievsky:

Supongamos que tenemos una PA más o menos estacionaria y tenemos su descomposición en frecuencia. Pregunta: ¿qué es mejor para el modelo: 1 característica o 5, y por qué?


Si resulta que tienes esa descomposición y es correcta y reversible, entonces aumentar el número de características para el modelo solo es beneficioso y aumenta su flexibilidad, lo principal es que las herramientas de MO no fallen, por cierto ahora hay nuevas y avanzadas redes neuronales que hacen que el aprendizaje profundo alcance logros en velocidad por órdenes de magnitud.
 
Ivan Negreshniy:
Bueno, si resulta que tienes esa descomposición y es correcta y reversible, entonces aumentar el número de características para el modelo sólo es beneficioso y aumenta su flexibilidad, lo principal es que las herramientas de MO no se vean comprometidas; por cierto, ahora han aparecido nuevas redes neuronales progresivas que hacen que el aprendizaje profundo alcance logros en velocidad por órdenes de magnitud.

Bueno + los elementos más ruidosos eliminados. ¿Qué son los ns, cómo se llaman? y ¿qué pasa con los xgboost, también los fabrican? )

 


hay un entrenamiento de agua ..... para "recordarlo" y filtrarlo por sí mismo

 
Maxim Dmitrievsky:

Bien + se han eliminado los elementos más ruidosos. ¿Qué son los ns, cómo se llaman? y qué pasa con los xgboost, ¿también los fabrican? )

Se trata de una nueva y poco conocida arquitectura de n-redes, sin descensos de gradiente, todo es tan primitivamente simple como el cerebro del susodicho camarada).
 
Ivan Negreshniy:
Se trata de una nueva arquitectura de n-redes poco conocida, sin descensos de gradiente, todo es primitivamente simple, como el cerebro del camarada mencionado).

¿Dónde leo? No puedo encontrar nada en Google.

aquí están todas las opciones https://tproger.ru/translations/neural-network-zoo-2/

Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
  • 2016.10.13
  • tproger.ru
В первой части мы разобрались с базовыми, не очень сложными видами архитектур искусственных нейронных сетей. Настало время закончить начатое.
 
Maxim Dmitrievsky:

¿Dónde leo? No puedo encontrar nada en Google.

aquí están todas las opciones https://tproger.ru/translations/neural-network-zoo-2/

no hay mucho escrito sobre ello en el dominio público, pero se está investigando https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra

 
Yuriy Asaulenko:
Supongo que será aún mejor durante el día. A juzgar por el modelo y las ejecuciones preliminares de depuración. Pero es demasiado pronto para decir nada, por supuesto.
¿Cómo va todo?
 
Renat Akhtyamov:
¿Cómo va todo?
El vuelo está bien. Voy a afinar para las transacciones reales, pero todavía no tengo tiempo.
 
Ivan Negreshniy:

no hay mucho escrito sobre ello en el dominio público, pero se está investigando https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra

Una especie de descripción de cuento de hadas) Aunque, puede suceder. La aplicación, al parecer, no será de dominio público.
 
Ivan Negreshniy:

no hay mucho escrito sobre ello en el dominio público, pero se está investigando https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra


ah, bueno, todavía no hay bibliotecas... no puedes escribirlas tú mismo )

Razón de la queja: