Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 631

 
forexman77:

У Вас получается на входе второго слоя сигмоидом обрабатываются три нейрона? Как подбираете веса на втором слое какой диапазон выбирается от -1 до 1 с шагом к примеру 0.1.

В моей сети после обработки вторым слоем падало количество сделок и не сильно улучшался результат. В отличии от того когда просто подгонялся перпцетрон с 9 входами и одним выходным нейроном и потом брался другой независимый перпцетрон и опять подгонялся с сохраненными настройками первого и т.д.

4-м нейроном обрабатываются результаты 1-х трех, т.е. + еще 3 веса

да, от -1 до 1 с шагом 0.1, только не сигмоид а тангенс

сейчас пробовал делать промежуточный слой с теми же весами что и первый входной - кол-во сделок упало и кач-во тоже, а оптимизировать дополнительные 9 весов это уже перебор :)

Ваш вариант звучит неплохо.. я еще думал обучить обычную НС на результатах оптимизации.. надо будет попробовать. Но мне начинает надоедать такой подход

 
Maxim Dmitrievsky:

4-м нейроном обрабатываются результаты 1-х трех, т.е. + еще 3 веса

сейчас пробовал делать промежуточный слой с теми же весами что и первый входной - кол-во сделок упало и кач-во тоже, а оптимизировать дополнительные 9 весов это уже перебор :)

Ваш вариант звучит неплохо.. я еще думал обучить обычную НС на результатах оптимизации.. надо будет попробовать. Но мне начинает надоедать такой подход

У меня сложилось впечатление, что нужно сделать индикатор по первому слою и визуально видеть, какие веса нужно применять по второму слою. Или обрабатывать сигмоидом(тогда получаются значения примерно от 0.2 до 0.9, это примерно)  и тогда можно брать веса небольшие и не нужен большой их диапазон.

Плюс дополнительный вес без привязки ко входу просто вес bias, то что мне подсказал Dr.Trader. Bias несколько улучшает результат, к примеру была прибыльность 1.7 с bias стала 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2017.10.04
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
forexman77:

У меня сложилось впечатление, что нужно сделать индикатор по первому слою и визуально видеть, какие веса нужно применять по второму слою. Или обрабатывать сигмоидом(тогда получаются значения примерно от 0.2 до 0.9, это примерно)  и тогда можно брать веса небольшие и не нужен большой их диапазон.

Плюс дополнительный вес без привязки ко входу просто вес bias, то что мне подсказал Dr.Trader. Bias несколько улучшает результат, к примеру была прибыльность 1.7 с bias стала 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699

сложно что-то делать на чистом экспромте :) но основная проблема пока остается - переобучение
 
Maxim Dmitrievsky:
сложно что-то делать на чистом экспромте :) но основная проблема пока остается - переобучение

Ну, 5-10 нейронов переобучить это вообще не проблема.)) Кажется где-то так у Вас.

На компе был интересный экземпл. Имеется кусок речи. Генерируется шум и накладывается на эту речь. Далее обучается несложный МЛП, и мы слышим опять почти чистую речь.

Я вообще прибалдел от такого, хотя в Хайкине подобный шумодав описан как пример применения.

 
Yuriy Asaulenko:

Ну, 5-10 нейронов переобучить это вообще не проблема.)) Кажется где-то так у Вас.

На компе был интересный экземпл. Имеется кусок речи. Генерируется шум и накладывается на эту речь. Далее обучается несложный МЛП, и мы слышим опять почти чистую речь.

Я вообще прибалдел от такого, хотя в Хайкине подобный шумодав описан как пример применения.

Да, но это только один из ботов.. не сработало - фиг с ним, переключаюсь на другого.. и так по кругу, пока не произойдет синтеза :) или не надоест
 
Пожалуйста не опускайтесь до оскорблений, а также следите за употреблением ругательств.
 
Какой-то трэш похоже пропустил, жаль что не успел поучаствовать
 
Maxim Dmitrievsky:
Какой-то трэш похоже пропустил, жаль что не успел поучаствовать

удалили моё сообщение, где я ответил ув. Тереньтьву про тесты на временных рядах и сказал что местные писатели статей всего лишь любители, так как не понимают что при accuracy 70-80%, Sharp ratio будет за 20, а у них какая то ерунда

 
toxic:

удалили моё сообщение, где я ответил ув. Тереньтьву про тесты на временных рядах и сказал что местные писатели статей всего лишь любители, так как не понимают что при accuracy 70-80%, Sharp ratio будет за 20, а у них какая то ерунда

а, ну ладно )

 

я тут про реинфорсмент лернинг все интересуюсь, вот нашел интересную статью, пытаюсь вкупиться и мб к боту прикрутить

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

только у него какая-то дурь, в конце только покупать учится почему-то

The Self Learning Quant – Hacker Noon
The Self Learning Quant – Hacker Noon
  • 2016.09.27
  • Daniel Zakrisson
  • hackernoon.com
Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable…
Причина обращения: