Обсуждение статьи "Random Decision Forest в обучении с подкреплением" - страница 4

 
Maxim Dmitrievsky:

Да, виртуальный тестер тоже в планах, но пока надо отточить другие моменты, например автоматический отбор и редукция предикторов наиболее важны сейчас, что бы модель не так сильно переобучалась на истории

Не сочтите за наглость, если вы все равно пишете новый класс, используйте что-то типа такого:

numberOfsamples++;
fuzzyRDFpolisyMatrix.Resize(numberOfsamples,iNeuronEntra+2);
for(int i=0;i<iNeuronEntra;i++)
     fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(i,ValueIndic(fila, i));
fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra,action_fuzzy);
fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra+1,1-action_fuzzy);

for(int i=0;i<numRDF;i++)
      {
         FileOpen(NameFile+"_"+IntegerToString(i)+".txt",FILE_WRITE|FILE_BIN|FILE_COMMON);
         FileWriteArray(filehnd,RDF[i].m_trees); //запись дерева
         FileClose(filehnd);
      }
Число индикаторов и число деревьев заданы переменными - ну очень упрощает жизнь при последующих играх с разным количеством. Это не главное, так мелкая поблажка себе любимому чтобы поменьше допиливать, а пробовать буду однозначно.
[Удален]  
mov:

Не сочтите за наглость, если вы все равно пишете новый класс, используйте что-то типа такого:

Число индикаторов и число деревьев заданы переменными - ну очень упрощает жизнь при последующих играх с разным количеством. Это не главное, так мелкая поблажка себе любимому чтобы поменьше допиливать, а пробовать буду однозначно.

примерно так и сделано, эта часть уже имеется

 
Замолкаю и с нетерпением буду ожидать появление.
 

Если не сложно, еще один вопрос.

В порядке бреда: первые проходы  обучается 1 лес, вторая часть проходов - 2 и т.д. Имеем ансамбль лесов с разной степенью обученности, первый - возможно переобучение, последний - недообучен.  Имеет ли смысл по вашему мнению заморачиваться в эту сторону?

[Удален]  
mov:

Если не сложно, еще один вопрос.

В порядке бреда: первые проходы  обучается 1 лес, вторая часть проходов - 2 и т.д. Имеем ансамбль лесов с разной степенью обученности, первый - возможно переобучение, последний - недообучен.  Имеет ли смысл по вашему мнению заморачиваться в эту сторону?

Для этого нужно представлять механику почему это должно работать. Если нет представления то пальцем в небо

Например, если все леса получатся оверфичены на обучающих примерах и не работают на oob то смысла не вижу, много плохих решений не дадут хорошее, если только случайно или если это бустинг.  Комитеты строятся в основном для того что бы компенсировать нечастые ошибки конкретной модели, путем усреднения результатов нескольких, но все модели должны быть достаточно хорошего качества

 

Добрый день (ночь), извините мою назойливость, но тему леса деревьев подняли Вы, не обессудьте...

Попробовал посмотреть реализацию леса в AlgLib. Функция обучения инициализирует массивы и передает управление спец.функции, которая собственно и проводит обучение. Сравнительно легко организовывается дообучение реал-тайм, но в данной реализации нет (насколько я могу судить, разбор слабо документированного в части алгоритма чужого кода то еще удовольствие) отсечения ветвей подобно алгоритму построения деревьев CART. Встанет проблема переобучения. Т.е. обучаем сеть, в реале дообучается как бы продлевая срок своей эффективности, потом новая оптимизация. Реализация отсечения для возможности полного дообучения затратна по времени и если только в перспективе заинтересует разработчиков МТ5(взяли же библиотеку в комплект поставки). И традиционно: имеется ли смысл в подобном дообучении ограниченном во времени?

[Удален]  
mov:

Добрый день (ночь), извините мою назойливость, но тему леса деревьев подняли Вы, не обессудьте...

Попробовал посмотреть реализацию леса в AlgLib. Функция обучения инициализирует массивы и передает управление спец.функции, которая собственно и проводит обучение. Сравнительно легко организовывается дообучение реал-тайм, но в данной реализации нет (насколько я могу судить, разбор слабо документированного в части алгоритма чужого кода то еще удовольствие) отсечения ветвей подобно алгоритму построения деревьев CART. Встанет проблема переобучения. Т.е. обучаем сеть, в реале дообучается как бы продлевая срок своей эффективности, потом новая оптимизация. Реализация отсечения для возможности полного дообучения затратна по времени и если только в перспективе заинтересует разработчиков МТ5(взяли же библиотеку в комплект поставки). И традиционно: имеется ли смысл в подобном дообучении ограниченном во времени?

Прунинг сам по себе интересен, но его тут нет, да. Дообучение леса не знаю насколько полезная идея, потому что его и переобучить полностью недолго. Если только дообучение планируется проводить очень часто - но тогда получается что алгоритм изначально не способен работать продолжительное время.. палка о 2-х концах.

 
Maxim Dmitrievsky:

Думаю, 1-2 недели на русском, а потом переведут.

Уважаемый Максим Дмитриевский,

Не могли бы вы сообщить, опубликовали ли вы следующую статью о реализации Random Decision forest с различными агентами и без нечеткой логики, о которой вы упоминали ранее?

Большое спасибо

 

Привет, Максим Дмитриевский ,

сколько вы закончили следующую статью о лесу с случайным решением?

Или вы уже опубликовали следующую статью? Если да, можете ли вы предоставить ссылку?

большое спасибо


[Удален]  
FxTrader562 :

Привет, Максим Дмитриевский ,

сколько вы закончили следующую статью о лесу с случайным решением?

Или вы уже опубликовали следующую статью? Если да, можете ли вы предоставить ссылку?

большое спасибо


Привет, пока не готов. Когда он будет завершен, я напишу вам.