Использование искусственного интеллекта в МТС - страница 17

 

Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!

 
kazeev:

Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!

Что ж напишите - будет думаю интерестно почитать
Только откройте для этого отдельную ветку - в этой слишком много ненужного баласта
 
Кому интересно побаловаться с нейросетями выкладываю вторую версию своего эксперта...
Там коментарии по коду, думаю можно разобраться хотя местами коментарии могут не соответствовать.
Причесывать не хочу так как буду его сильно переписывать, в целях дальнейшего развития.
Минимально слоев в сетях 2. В последнем слое один нейрон. Максимально слоев практически неограниченно в коде видно где это задается, но с увеличением слоев катастрофически падает скорость обучения. Вплоть до ощущения что оно вообще не учится. Больше двух слоев врядли стоит брать По крайней мере между 2 и 4 слоями я разницы не увидел в качестве.
Конфигурация там сейчас пять сетей независимых с разным входными данными (индюки+цены).
Сети полносвязные, обучение обратное распростронение ошибки.

В паре мест есть хитрый код Если что спрашивайте, но на сильно глупые вопросы по коду отвечать буду тока 
если мне совсем нечего делать будет :)

Если кому интересно куда я дальше буду это развивать. 
Более умная подготовка данных, увеличение выходов сетей,  в общем в сторону классификации больше нежели 
предсказания курса.


2Kazeev "И почему во втором слое должен быть один нейрон а в первом четыре." количество нейронов в выходном слое далеко не так очевидно, что бы говорить, что должен быть тока один :)
Файлы:
nn_expert.mq4  19 kb
 

2Kazeev "И почему во втором слое должен быть один нейрон а в первом четыре." количество нейронов в выходном слое далеко не так очевидно, что бы говорить, что должен быть тока один :)

Потомучто я исходил из той программы которая была здесь выложена. А слои можно накрутить как Вам душе угодно. Но нужно смотреть на задачу которую хочешь выполнить.

но с увеличением слоев катастрофически падает скорость обучения. Вплоть до ощущения что оно вообще не учится. Больше двух слоев врядли стоит брать По крайней мере между 2 и 4 слоями я разницы не увидел в качестве

Именно про это я и говорил.

Эксперт хороший но доводить его еще надо!! Молодец!
 
maveric писал (а):
Кому интересно побаловаться с нейросетями выкладываю вторую версию своего эксперта...

Спасибо, не часто выкладывают что-то интересное. Не шибко прибыльно - но очень познавательно.
 
kazeev:

Да много чего написано, но пока дочитал до конца то забыл с чего начиналось все :) А по теме сообщений мало :(
Вообще это простейшая однослойная нейронная сеть но однослойная сеть всегда дает много ошибок, поэтому количество слоев надо увиличивать. Для данной задачи нам достаточно всего навсего два слоя. Причем первый слой д/б с 4-я нейронами второй слой с одним. Большее увеличение слоев смысла не имеет а только загрузит компьютер и усложнит задачу.
Можно конечно увиличить количекство входных параметров и тогда уже увиличивать количество слоев, но хорошего ничего не получитися :(.
В принципе если интересно могу написать и выложить. Тестируйте (Сам я этим заниматься не буду).
И на будующее сразу скажу - Я НИКОМУ НИ СОБИРАЮСЬ ОБЪЯСНЯТЬ ПОЧЕМУ СЛОЯ ДОЛЖНО БЫТЬ ДВА!!!! И почему во втором слое должен быть один нейрон а в первом четыре. Для этого существуют умные книжки :). Прочитайте их Вы все поймете. В дискуссии я тоже вступать не собираюсь потомучто это просто не имеет смысла.
Идея конечно хорошая, обсуждать ее нужно, но только пишите посты по теме, и говорите что то конкретно а не философствуйте!

Добрый деннь. Мне хотелось бы посмотреть на вашу модификацию эксперта Решетова ( я думаю не только мне ). Если не затруднит, прошу выложить.
с уважением , Пух. .
 
уважаемые а что на вход давать? Свечу?
 
maveric:
Кому интересно побаловаться с нейросетями выкладываю вторую версию своего эксперта...

Запустил тест, сразу вывалилась ошибка о том, что переменная handle нулевая. Что в общем то правильно, ведь советник судя по коду, должен загрузить из файла сетку, а этот самый файл с той самой сеткой не прилагается.

Сделки за время теста советник не открыл ни единой, ничего никуда не сохранил. Последующие тесты дали аналогичные результаты, а точнее полное отсутствие всяких результатов.

И вообще, как им правильно нужно пользоваться и стоит ли пользоваться вообще? Потому, как разбираться в чужих кодах - дело нудное и неблагодарное. И если известен алгоритм работы, то гораздо проще написать свою программу с нуля, чем разбираться в чужой.

Может быть это просто злая шутка автора?
 
njel:
уважаемые а что на вход давать? Свечу?
Респект автору ...
Просьба сформулируйте на форуме обучающее правило сети.

--
rip
 
Pyh:
Мне хотелось бы посмотреть на вашу модификацию эксперта Решетова ( я думаю не только мне ). Если не затруднит, прошу выложить.

Не думаю, что этот код имеет хоть что-нибудь общее с экспертом от Reshetov...
Причина обращения: