Обсуждение статьи "Random Decision Forest в обучении с подкреплением" - страница 9

 
Maxim Dmitrievsky:

подрастешь - поймешь

хотя бы, для начала, почитай какие солверы используются в нейронных сетях, и почему никто не использует генетику для их обучения
Я так и знал, что все дело в солверах
[Удален]  
Evgeniy Scherbina:
Я так и знал, что все дело в солверах

даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.

Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.

 
Maxim Dmitrievsky:

даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.

Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.

Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.

У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.

[Удален]  
Evgeniy Scherbina:

Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.

У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.

ничего не усложнено, это классическая модель МО

обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.

поэтому дрожать не нужно, это оверфит с вероятностью 99%

в любом случае: Удачи.
 
Maxim Dmitrievsky:

ничего не усложнено, это классическая модель МО

обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.

поэтому дрожать не нужно, это оверфит с вероятностью 99%

в любом случае: Удачи.

Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц.  Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.

Другими словами, текущий месяц - это такое же контрольное множество, на котором я делал проверку в прошлом. Никакой подгонки под контрольный месяц не было.

[Удален]  
Evgeniy Scherbina:
Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц.  Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.

:)) возможно, произойдет чудо, такое бывает

или сами предикторы осмысленные
 
Подскажите как построить n-арное дерево? Я сделал через массив структур mass[0].mass[1].mass[n]...mass[n], но это не подходит, оно должно быть динамическим в глубину и не понятно как в таком случае добавлять новый узел, а адрес вообще получится очень длинным)
[Удален]  
VANDER:
Подскажите как построить n-арное дерево? Я сделал через массив структур mass[0].mass[1].mass[n]...mass[n], но это не подходит, оно должно быть динамическим в глубину и не понятно как в таком случае добавлять новый узел, а адрес вообще получится очень длинным)

n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1

 
Maxim Dmitrievsky:

n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1

Чтобы оно было не БИнарным, а с произвольным числом потомков у каждого узла, типо такого:

[Удален]  
VANDER:

Чтобы оно было не БИнарным, а с произвольным числом потомков у каждого узла, типо такого:

ну это несколько классов если задать, так и будет. Можно поставить произвольное кол-во случайных признаков, очередность которых будет меняться, если поставить разный seed. Не понятно какая задача стоит: классификации или регрессии. К тому же, лес лучше чем одно дерево.