Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1181
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
переводите по 1 слову, через гугл переводчик плагин для chrome. Без аннгл. никак. Даже если через 1-2 слова будете читать то смысл будет понятен в целом. Сам пользую когда слова забываю. Просто кликаете на слове. Можно обороты\предложения выделять.
Переводить весь текст сразу это конечно тупо, так даже слова никогда не запомнишь и смысл текста не поймешь
Спасибо, надо попробовать по Вашей методике попереводить, может это будет даже продуктивней, чем придумывать свои гипотезы, но у меня слабость с языками...
Не понимаю зачем м.б. нужна ручная правка расщеплений и листьев решающих деревьев, да у меня автоматом все ветвления конвертируются в логические операторы, но честно говоря не помню, что бы я их сам когда то корректировал.
Потому что какой смысл использовать листы с вероятностью предсказания менее 50-60%? Это же рандом - лучше модель вообще не будет реагировать на ситуацию, нежели реагировать на угад.
И вообще стоит ли копать код CatBoost, откуда уверенность.
Вот например, я выставлял выше тест на питоне своей нейросети с обучением по таблице умножения на два, а теперь взял его для проверки деревьев и лесов (DecisionTree, RandomForest, CatBoost)
а вот какой результат вышел - явно видно, что не в пользу CatBoost, как дважды два - ноль пять...:)
правда, если взять тысячи деревьев, то результаты улучшаются.Уверенности у меня нет, что деревья лучше нейросетей, но для деревьев требуется меньше ресурсов на их построение. К примеру сейчас у меня порядка 400 предикторов, а сеть с 400 входными нейронами да и (сколько там слоев) будет считаться слишком долго.
Я могу сбросить свою выборку - может на ней посмотреть, какой метод лучше?
А настройки да - имеют смысл - и я сейчас в них копаюсь и пытаюсь понять их суть.
Не понимаю зачем м.б. нужна ручная правка расщеплений и листьев решающих деревьев, да у меня автоматом все ветвления конвертируются в логические операторы, но честно говоря не помню, что бы я их сам когда то корректировал.
И вообще стоит ли копать код CatBoost, откуда уверенность.
Вот например, я выставлял выше тест на питоне своей нейросети с обучением по таблице умножения на два, а теперь взял его для проверки деревьев и лесов (DecisionTree, RandomForest, CatBoost)
а вот какой результат вышел - явно видно, что не в пользу CatBoost, как дважды два - ноль пять...:)
правда, если взять тысячи деревьев, то результаты улучшаются.чуток подтюнил и добавил градиентный бустинг, он лучше всего работает из коробки
остальные конечно что-то мнда..
А вот слово или абзац - вообще никак.
https://www.mql5.com/ru/forum/86386/page1180#comment_9543249
там у CatBoost при iterations=100 деревьев а не 10, а GBM красавчег:)
Потому что какой смысл использовать листы с вероятностью предсказания менее 50-60%? Это же рандом - лучше модель вообще не будет реагировать на ситуацию, нежели реагировать на угад.
Уверенности у меня нет, что деревья лучше нейросетей, но для деревьев требуется меньше ресурсов на их построение. К примеру сейчас у меня порядка 400 предикторов, а сеть с 400 входными нейронами да и (сколько там слоев) будет считаться слишком долго.
Я могу сбросить свою выборку - может на ней посмотреть, какой метод лучше?
А настройки да - имеют смысл - и я сейчас в них копаюсь и пытаюсь понять их суть.
Конечно покопайтесь и выбирайте, как можно тщательнее, пока все это еще в начальной стадии.
Кроме непонятки с дважды два еще попробуйте отключить навязчивое, при каждом запуске, создание CatBoost'ом своих временных каталогов т.к. от этого в защищенной среде он вылетает.
И вообще, эти глюки у него выглядят как-то не очень профессионально, поэтому если не удастся их победить, то лично по моему мнению, дешевле бесплатного - от этого продукта отказаться сразу:)
там у CatBoost при iterations=100 деревьев а не 10, а GBM красавчег:)
LGBM ваще не работает, ну как обычно у майкрософт
и XGB до кучи по дефолту
какие еще есть бустинги? :) потом более сложную задачу им подкину всей куче сразу
https://www.mql5.com/ru/forum/86386/page1180#comment_9543249
Да, я видел, и уже посмотрел плагины, там таких несколько. Интересно то, что раньше хром это делал сам по себе, без дополнительной установки чего либо.