De la teoría a la práctica - página 563

 
Alexander_K:

Gracias. Estaré observando. Prepara tus bolsillos, Yuri.

PD: he corregido un poco el pre-post.

Si VisSim dispone de los LPF adecuados, probablemente sea mejor utilizarlos. No hay necesidad de ir más allá del segundo orden. El mejor para los retardos, etc., es el filtro Butterworth.

Abrigo nada.

 
Igor Makanu:

Hmmm, ahí tienes... Básicamente estás en todos los hilos del foro a la vez y en ningún sitio en particular

del hilo sobre aprendizaje automático, aquí están los módulos incrementales sobre Close dibuja el indicador que tiene una ventana deslizante - ¿dónde y hasta dónde? es un MA regular?

Soy el gato de Schrodinger.

¿Puedo tener una foto? Porque el ordenador A_K2 está ocupado y no me deja acercarme.

 
Alexander_K:

Soy el gato de Schrodinger.

¿Puedo tener una foto? El ordenador de A_K2 ha tomado el control y no me deja acercarme a él.



Gráfico EURUSD, M5, 2018.09.12 19:33 UTC, InstaForex Group, MetaTrader 4, Real

Es un módulo incremental de Close.

¿qué hacer con ellos? Bueno, lo atornillaré mañana.... necesitan una estrella en el cielo... bueno tendremos que correr... vamos a refutar la idea del grial y a calmarnos...

 
Alexander_K:

Soy el gato de Schrodinger.

¿Puedo tener una foto? El ordenador de A_K2 ha tomado el control y no me deja acercarme.

El gato de Schrodinger murió por una ampolla de cianuro de potasio hace tiempo.

El fantasma del gato de Schrodinger).

 
Igor Makanu:



Genial... ¿Puedo ver un histograma de estos valores?

 
Alexander_K:

Genial... ¿Puedo ver un histograma de estos valores?

Más o menos te he dado la fuente en el mensaje de arriba, no sé qué más... ¿Puedo darte mi ordenador? ¿O tu portátil? - ¿Qué?

)))

ZS: fórmulas o tus pensamientos escribe, mañana tengo tiempo, tal vez encontremos el grial

HH: Su tarea debe ser resuelta por varias etapas, es decir, cerrar los módulos de incremento - deben ser descargados a un archivo de texto y luego procesados en Matlab en todas las fórmulas perversas posibles, entonces, después de haber encontrado el Grial, debemos devolver todo a MT... de nuevo, por así decirlo.

 
Igor Makanu:


Más concretamente, la suma de los incrementos de CLOSE M5 en la ventana semanal. ¿Verdad?

 

Si se trata de una distribución gaussiana con una ACF adecuada, una red neuronal la pirateará en segundos.

https://ru.wikipedia.org/wiki/Гауссовский_процесс

Гауссовский процесс — Википедия
  • ru.wikipedia.org
В теории вероятностей и статистике гауссовский процесс - это стохастический процесс (совокупность случайных величин, индексированных некоторым параметром, чаще всего временем или координатами), такой что любой конечный набор этих случайных величин имеет многомерное нормальное распределение, то есть любая конечная линейная комбинация из них...
 
Alexander_K:

Más concretamente, la suma de los incrementos de CLOSE M5 en la ventana semanal. ¿Verdad?

aún no hay suma, se trata de módulos incrementales en pips

¿qué hay que resumir? ¿hacer un MA para estos módulos?

¿cuál es la ventana semanal? ¿cuál es el punto de partida al principio de la semana? y luego ...?

toda esta investigación debe hacerse en el matlab de todos modos, hay un estanque de material listo para el matlab, google en 1-2 consultas, aquí está el ACF para el matlab:

function [AKF]=akf(signal,TAU)
Tn=length(signal);
for tau=0:TAU-1
    Tt=Tn-tau;
    AKF1=0;
    for t=1:Tt
        temp=signal(t+tau)*signal(t);
        AKF1=AKF1+temp;
    end
    if tau==0
        AKFc=AKF1/Tn;
    else
        AKFpr(tau)=AKF1/Tt;
    end
end
for i=1:(TAU-1)
    AKFlev(i)=AKFpr(TAU-i);
end
for i=1:TAU-1
    AKF(i)=AKFlev(i);
end
AKF(TAU)=AKFc;
for i=1:TAU-1
    AKF(TAU+i)=AKFpr(i);
end

//параметр signal — вектор входных значений. TAU — порядок АКФ.
 
Alexander_K:

Si se trata de una distribución gaussiana con una ACF adecuada, una red neuronal la pirateará en segundos.

https://ru.wikipedia.org/wiki/Гауссовский_процесс

Me reí durante mucho tiempo).

La NS no te hackeará en absoluto si no lo haces tú mismo de antemano.

También tiene gracia lo de los segundos). Tardo 24 horas en aprender. La red neuronal es escasa - ~60 neuronas.

Razón de la queja: