"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 94

 
Maxim Dmitrievsky:

Золотые слова, Михалыч

даже сам Андрей, кто придумал тему, признался что у него простая нейросеть и генетика. Вот и все. А другие "секретные" компоненты лежат в другой области понимания

Единственным носителем который являетесь исключительно вы и никто другой?

 
Maxim Dmitrievsky:

Я про то что ты написал "делиться своими знаниями" какими знаниями? по МО куча книг и статей. Какие еще могут быть знания?

да меня там и не было, просто читал старые сообщения, там были всякие Привалы, саенс философы и еще кто-то

Я же предупредил, что будет неправильно понятно. Вот оно - не заставило себя долго ждать.

 
Dmitry Fedoseev:

Единственным носителем который являетесь исключительно вы и никто другой?

нет, я не носитель ничего, более того, я тупой. Поэтому мне так легко, непринужденно и непредвзято оценивать информацию

 
Maxim Dmitrievsky:

Да причем тут кумир. Он просто взывал к пониманию и благорассудительности. Разума там вагон, потому что написать свою отдельную торгующю программу с ML, трехкопеечный не осилит

а теперь что.. есть alglib. Там есть нейросеть и лес и регрессия. А нужно что-то акромя? Согласен, нейросеть там какая-то слишком задумчивая. Зато лес нормалек. Это можно обсуждать, но никому это не надо. Потому то никто не знает даже как это применить.

Чего? То, что сделал Решетов, для этого ума надо? Для этого, всего лишь, надо не бояться опозориться. Офигеть там сеть... с подбором коэффициентом в оптимизаторе.  Вам правда не смешно?

Нейросеть. Вот про это и пишу, что не тянут здесь специалисты разработать удобную методу применения нейросетей, что бы можно было взять и использовать для любой задачи за 5 минут (а это возможно). Когда первый раз начиналось с нейросетям, там задвиг в полную шизу... одному сразу ГУИ потребовался, другому произвольное включение/отключение связей, потом еще какой-то клоун появился с какой-то эхо-сетью - веселые картинки демонстрировал... на таком уровне все и идет

Леса. Кто бы написал нормальную статью, все бы поняли и пошло развитие. Но здесь все только болтать горазды.

 
Maxim Dmitrievsky:

нет, я не носитель ничего, более того, я тупой. Поэтому мне так легко, непринужденно и непредвзято оценивать информацию

А понимать ничего и не надо, главное понтов побольше, и картинок пошире.

 
Dmitry Fedoseev:

Чего? То, что сделал Решетов, для этого ума надо? Для этого, всего лишь, надо не бояться опозориться. Офигеть там сеть... с подбором коэффициентом в оптимизаторе.  Вам правда не смешно?

Нейросеть. Вот про это и пишу, что не тянут здесь специалисты разработать удобную метод применения нейросетей, что бы можно было взять и использовать для любой задачи за 5 минут (а это возможно). Когда первый раз начиналось с нейросетям, там задвиг в полную шизу... одному сразу ГУИ потребовался, другому произвольное включение/отключение связей, потом еще какой-то клоун появился с какой-то эхо-сетью - веселые картинки демонстрировал... на таком уровне все и идет

Леса. Кто бы написал нормальную статью, все бы поняли и пошло развитие. Но здесь все только болтать горазды.

Позднее, он написал стэнд элон jpredictor на яве, там 2 нейросети (mlp и svm, конкретнее) с автоматическим отбором признаков

смысли нормальную статью? а моя чем не нравится? обучи на искусственных данных за 1 минуту и получай безудержный профит на искусственных данных. На реальном рынке, конечно, так не получится. Поэтому и сказ про то, что дальнейшая работа выходит за рамки понимания ML, а находится в рамках понимания закономерностей на рынке

Ничего не знаешь сам, а пишешь
 
Maxim Dmitrievsky:

Позднее, он написал стэнд элон jpredictor на яве, там 2 нейросети (mlp и svm, конкретнее) с автоматическим отбором признаков

смысли нормальную? а моя чем не нравится? обучи на искусственных данных за 1 минуту и получай безудержный профит на искусственных данных. На реальном рынке, конечно, так не получится. Поэтому и сказ про то, что дальнейшая работа выходит за рамки понимания ML, а находится в рамках понимания закономерностей на рынке

Ничего не знаешь сам, а пишешь

Не видел, что он там написал, но представляю, видя все остальное его творчество. 

А какая твоя и где она? Это та, которая через кучу библиотек? Простите, но там с примером фиг разберешься, не то, что бы это все использовать в соей работе.

О нормальная это такая... уже два раза объяснял, объясняю третий раз - что бы было легко и быстро применять для решения любой задачи, возникающей при написании эксперта... так, что бы вообще на заморачиваться алгоритмом эксперта... и это возможно. Но печально что некоторые даже помечтать об этом не могут.

***

Много чего не знаю, но тем не менее, еще в те времена у меня был код универсального многослойного перцептрона, обучаемого методом обратного распространения ошибки. А современными методами МО не ззморачиваюсь, потому что больше на секту похоже, чем на что то серьезное.

 
Dmitry Fedoseev:

Не видел, что он там написал, но представляю, видя все остальное его творчество. 

А какая твоя и где она? Это так, которая через кучу библиотек? Простите, но там с примером фиг разберешься, не то, что бы это все использовать в соей работе.

О нормальная это такая... уже два раза объяснял, объясняю третий раз - что бы было легко и быстро применять для решения любой задачи, возникающей при написании эксперта... так, что бы вообще на заморачиваться алгоритмом эксперта... и это возможно. Но печально что некоторые даже помечтать об этом не могут.

***

Много чего не знаю, но тем не менее, еще в те времена у меня был код универсального многослойного перцептрона, обучаемого методом обратного распространения ошибки.

в теме MO неоднократно обсуждался его jpredictor. Естественно никто не говорит про тот нейрон, который на mql

в моей не куча либ а только лес из alglib. Там все девственно просто, проще придумать невозможно. Можно запихнуть любые индикаторы и обучить почти мгновенно. Т.е. вообще не заморачиваясь.

также, в отдельной библиотеке, есть пример обучения на искусственных данных (ф-ии Вейерштрасса), и видно что на любых данных, имеющих закономерности (периодические циклы) эта либа работает как грааль. На рынке нет таких циклов, а их поиск и выделение их выходит за рамки ML.

 
О чем тут говорить? Когда намечался конкурс генетических алгоритмов, у 90% форума истерика случилась, типа как так можно, оказалось никто не знает что это, не говоря уж о том, что бы иметь собственную реализацию, или хотя бы попытаться ее сделать... но за то понтов сколько у всех!
 
Maxim Dmitrievsky:

в теме MO неоднократно обсуждался его jpredictor. Естественно никто не говорит про тот нейрон, который на mql

в моей не куча либ а только лес из alglib. Там все девственно просто, проще придумать невозможно. Можно запихнуть любые индикаторы и обучить почти мгновенно. Т.е. вообще не заморачиваясь.

также, в отдельной библиотеке, есть пример обучения на искусственных данных (ф-ии Вейерштрасса), и видно что на любых данных, имеющих закономерности (периодические циклы) эта либа работает как грааль. На рынке нет таких циклов, а их поиск и выделение их выходит за рамки ML.

Вот тогда правда вопрос - почему народ не пользуется? Может что-то там не так? В плане удобства... понятности инструкции... Вот у меня ни малейшего желания не возникло поинтересоваться, потому-что знаю, что там все будет на столько заморочено, что фиг разберешься, куда все это можно присунуть.

Причина обращения: