Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1967

 
Valeriy Yastremskiy:

Получается квантование векторов идет сперва на голых данных, а потом с учетом результата, при этом результат более точным получается. Как минимум фильтр на отрицательный результат появляется. Наборы фичей к разным кластерам, это как разделение ряда на разные стабильные участки.

сложно представить откуда берется длинная память. Например, на предыдущей итерации последний нейрон выдал ноль, приплюсовали его ко входному вектору первого нейрона на след. Итерации. Это + 1 измерение, т.е. поместили признаки в новое пространство, получили более сложное условное состояние, зависящее от предыдущих действий. Первый нейрон отработал, передал единичный вектор в последний. Тот опять вернул 0 или 1 в первый. Допустим, кластера всего 2. Откуда берется память глубже, чем на 1 шаг назад?

Допустим, есть 3-й нейрон, который принимает еще +1 значение. Еще более сложное условное состояние. И так по нарастающей память хранится... сложно представить :)

 
Maxim Dmitrievsky:

.........щей память хранится... сложно представить :)

мне еще сложней )

====


ассоциативная сеть

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Это та же кластеризация , разве нет? а ассоциативный образ это прототип кластера

 
mytarmailS:

мне еще сложней )

Во втором слое тоже можно добавить память в виде рекуррентных связей, но работает и без них. Значит память все-таки в 1-м.

 
mytarmailS:

мне еще сложней )

====


ассоциативная сеть

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


Это та же кластеризация , разве нет? а ассоциативный образ это прототип кластера

ну да, но здесь нет памяти о предыдущих действиях агента, это другое

пойду еще раз портянку прочту, потом код буду ковырять

 
Maxim Dmitrievsky:

ну да, но здесь нет памяти о предыдущих действиях агента, это другое

пойду еще раз портянку прочту, потом код буду ковырять

ну смотри, поразмышляем )

действие агента это образ , паттерн (кластер)

поледовательность действий (кластеров) это память


действия агента или что угодно можно представить в виде поледовательности кластеров

а вот паттерн типа "налить кофе" , но при этом "кофе должно быть уже сварено"


можно представить в виде петтерна переходов


 
mytarmailS:

ну смотри, поразмышляем )

действие агента это образ , паттерн (кластер)

поледовательность действий (кластеров) это память

действия агента или что угодно можно представить в виде поледовательности кластеров

не совсем так. Предыдущее действие агента + состояние среды (набор фичей) это паттерн (условное состояние). И предыдущее действие и фичи пихуются в 1 вектор.

но в нейронах нет явной инфы о последовательности пройденных паттернов вроде-бы, только через сохранение выходных сигналов. А там обрабатывался только 1 (текущий) паттерн. Т.е. более сложные условные состояния кодируются именно группой нейронов как-то.

 

Maxim Dmitrievsky:

 И предыдущее действие и фичи пихуются в 1 вектор.

но в нейронах нет явной инфы о последовательности вроде-бы, только через сохранение выходных сигналов. А там обрабатывался только 1 паттерн.

Ну это можно свести и в один вектор, тем же umap. Я так 2к фичей сжимал )

 
mytarmailS:

Ну это можно свести и в один вектор, тем же umap. Я так 2к фичей сжимал )

ну значит наподобие этого этот слой и делает

 
Maxim Dmitrievsky:

ну значит наподобие этого этот слой и делает

Проблема не в том что бы сжать , а в том что там будут миллиарды разных последовательностей , 99.9% из них естестно мусор

В этом проблема, перед тем как сжать надо мусор выкинуть  


А когда мусор выкинешь, то и сжимать уже ниче не надо ))

 
Maxim Dmitrievsky:

ну да, но здесь нет памяти о предыдущих действиях агента, это другое

пойду еще раз портянку прочту, потом код буду ковырять

По мне это не память, просто похоже на память, это новые данные результата работы НС, для квантования, к тому же уже разбитые по кластерам. И получается что система как бы помнит, а на самом деле она получает результативные данные в начало участка ВР. При этом это не повторные проходы, а с учетом движения вперед по данным. Вопрос как получает и как учитывает. Может быть и лишний нейрон для учета, или весовые данные.

Причина обращения: