¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 79

[Eliminado]  
Una codificación caliente en la mano, aplicada a la codificación de rasgos categóricos. O Catboost, que los tiene en cuenta de forma independiente.
[Eliminado]  
Ya ve la cuestión: hasta que, en el proceso de meditación/minería de datos/baile con pandereta/aprendizaje con diferentes signos y marcas/otras prácticas ocultas, encuentre algunos patrones significativos que funcionen, entonces todas estas transformaciones darán +- 10%, a nivel de error de modelo.

Pero también es muy difícil encontrarlos, sólo como resultado de la enumeración.
 
Ivan Butko #:
Al mismo tiempo, el número 0,9, que en el patrón inicial no refleja su fuerza, sino que de hecho ejerce fuerza sobre el NS, también afecta negativamente a los otros números que se encuentran en el rango por debajo de este número - números más pequeños. Y el peso, que tratará de debilitar (anular) el valor de entrada 0,9, también debilitará aún(!) más fuerte(!) y otros valores en el rango inferior de este número de entrada (que más tarde puede ser más importante para el rendimiento del sistema), debido a su naturaleza estática, porque los pesos no cambian en un NS entrenado.

Es una idea interesante. Y parece que tiene cabida.
En su día renuncié a NS en favor de modelos de madera, la confusión con la normalización es uno de ellos. Allí todo funciona irónicamente (de madera). Los valores < 0,9 van a una rama, los valores >= 0,9 a otra. Y el valor 0,9 en sí no afecta a las acciones posteriores con ejemplos en estas 2 ramas de ninguna manera.
No necesitan normalización, cualquier número es equivalente: 0,001 y 10000000 son sólo valores para comparar. El árbol también maneja perfectamente las fichas categóricas. Para ellas, la división en ramas no se realiza mediante < o >, sino mediante ==. Por ejemplo, para el color: todos los verdes irán a través de la igualdad a una rama, y todos los rojos a otra, y el resto permanecerá para su posterior división en ramas (otras categorías y números).

 



Los modelos Python funcionan de maravilla Por primera vez el resultado apareció con muchas entradas: alimenté hasta 160 piezas.

(¿Por qué 160? Simplemente me detuve en este número, sin ninguna razón) Por lo general, cuantas más entradas, peor es. Pero este fue bien.

resultado de la operación como objetivo.


2) Entrene utilizando cualquier método.

3) Lanzar nuestra estrategia (pomoichny).

4) Añadir un filtro a la misma - nuestra NS.


Como resultado, tenemos que poner un poco de esfuerzo intelectual, creativo, paciencia, tiempo para elegir una estrategia.

La red neuronal hará el resto.

Quitamos a la red neuronal un trabajo intelectual insoportable simplemente porque en las realidades actuales la NS ni siquiera es capaz de determinar los niveles, si no están marcados "por ella misma".

Y hará lo que se supone que debe hacer: triturar el ST.



Y al aumentar el umbral de regresión en el avance, también se mejoran las entradas.


Normalmente, en el 99% de los casos, aumentar el umbral de entrada no da nada y reduce estúpidamente las entradas buenas junto con el caos proporcionalmente, pero aquí las entradas de calidad permanecen, y el ruido desaparece . Modelo BiLSTM (LSTM da lo mismo, la diferencia es pequeña).

 
Ivan Butko #:

Y aquí es sólo precios + método de determinación de insumos y objetivo por TS:.

Entonces, ¿sólo precios sin ninguna conversión? ¡Curioso!



I van Butko #: Los modelos Python hacen maravillas

¡Esto es genial! ¡¡¡Debe haber por lo menos a veces un positivo de trabajo duro !!!

 
Aleksey Vyazmikin #:

Es decir, ¿sólo los precios sin ninguna conversión? Tengo curiosidad.

¡¡¡Estupendo!!! ¡¡¡Al menos a veces hay que sacar algo positivo del trabajo duro!!!

Por costumbre no añado: normalización como de costumbre: todo el conjunto (160 precios) se lleva en el rango -1...1
 
Ivan Butko #:
No lo añado por costumbre: normalización como de costumbre: todo el conjunto (160 precios) se lleva al rango -1...1

¿Cuál es el periodo de formación? ¿Se dieron los precios de cierre? ¿De qué TF? ¿Prueba en demo desde MQ? ¿Cuál es la expectativa media por lote?

 
Si no fuera por las detracciones semestrales, estaría bien. Los he tenido hasta 2 años. Al hacer pruebas con valkingforward 2015.

PD. ¿Cómo podéis trabajar todos de noche? De día es el momento más eficiente.
[Eliminado]  
Bueno, al menos el movimiento hacia un modus operandi saludable ha comenzado, no es una mala cosa ya
 
Aleksey Vyazmikin #:

¿Cuál era el periodo de estudio? ¿Se indicaron los precios de cierre? ¿De qué TF? ¿Prueba de demostración de MQ? ¿Cuál es la expectativa mat. para 1 lote?

Cambiado a 21 años: 2000 a 2021.

Las dos parcelas son demasiado irreconciliables: 2000 a 2012 y 2012 a 2021.
Si ambos suben: o reentrenamiento o algo funciona.

Prueba en icMarkets, cuenta real. No sé los detalles, no estoy en mi ordenador en este momento.

En cuanto a la selección de precios de entrada: no me extiendo aquí todavía, llevo dos años escarbando, me guardo los mejores. Puedo publicar algo curioso.