Советник Better Обсуждение ошибок

 

Перебирал исходники небезызвестного советника  Better и наткрулся на ошибки.

Это что преднамеренный ложный ход или что ?

Образец кода:

Err[L][N][0]=Out[L][N]*(1-Out[L][N])*(Out[L+1][N]-Out[L][N]);

Объяснять не буду. Те кто знает математику поймут. Для чего эта фигня?

 

и что?

 
m_a_sim >>:

и что?



Я про то что как он может работать если вычисление начальной ошибки изначально ошибочно.
 
а откуда у вас исходник советника беттера? причем декомпилированный..
 
Fduch >>:
а откуда у вас исходник советника беттера? причем декомпилированный..

Пардон, я его не декомпилировал, а скачал с какого-то форума.

 
Debugger >>:

Пардон, я его не декомпилировал, а скачал с какого-то форума.




Если не ошибаюсь, даже по-моему с этого.
 
ну думаю это "лиипааа". беттер вряд ли выкладывал бы своего эксперта для всеобщего ознакомления
 
Fduch >>:
ну думаю это "лиипааа". беттер вряд ли выкладывал бы своего эксперта для всеобщего ознакомления


Вот обучающий модуль.
Файлы:
iuyklkhcvp.rar  64 kb
 
Debugger >>:


Вот обучающий модуль.


Я не пытаюсь бросить хоть какую-то тень сомнений на разработчика. Идея гениальная. Но нифига не работает.

Вот к чему это я. Я перебрал всю математику. Исправил все заложенные туда ошибки. Но все-равно... НЕ РАБОТАЕТ...

 
Debugger >>:


Я не пытаюсь бросить хоть какую-то тень сомнений на разработчика. Идея гениальная. Но нифига не работает.

Вот к чему это я. Я перебрал всю математику. Исправил все заложенные туда ошибки. Но все-равно... НЕ РАБОТАЕТ...


Мда, совсем глухо. Даже обсудить проблемы нескем.

Кто нибудь режил проблему увеличения эффективности обучения. Стандартные методы не работают.

Среднеквадратическое отклонение показателей обучения не позволяет в принципе использовать нейросети для торговли.

Это гарантированный высокотехнологический слив.

Может кто нибудь что нибудь сказать....

 
Debugger >>:


Err[L][N][0]=Out[L][N]*(1-Out[L][N])*(Out[L+1][N]-Out[L][N]);

Объяснять не буду. Те кто знает математику поймут. Для чего эта фигня?


Вы принципы обучения знаете? Это во первых...

А во вторых это не "фигня", а вычисление ошибки для слоя. 

Почитайте азы обучения нейросетей.

Для начала рекомендую Ф. Уоссермен Нейрокомпьютерная техника: Теория и практика


Причина обращения: