- Машинное обучение в трейдинге: теория, модели, практика и алготорговля
- Кохонен и Паттерны
- Литература. Нейронные сети. Генетические алгоритмы. Цифровая обработка сигналов. Математика, анализ. Статистика.
Чтобы не вводить себя же в заблуждение наукообразными академическими реверансами, советую например в матлабе потестить интересуемые архитектуры на простых выборках данных небольшой размерности чтобы можно было результат вывести как облако точек.
До 10 тестов на разных выборках с разной сложностью зависимости между данными, дадут ясное понимание как ПРАКТИЧЕСКИ отличаются архитектуры.
Для меня нейросеть это просто фильтр, я мыслю о них как о своего рода «выпрямителях» фазвого пространства, после которых данные становятся разделимы.
Где то читал что в строгом математическом смысле достаточно многослойного персептрона для всех мыслимых задач, а новомодные навороты это от лукавого, но я не поддерживаю эту точку зрения. Как говорится теоремы теоремами, а на практике работают эвристики под задачу.
Какие характеристики обсуждаете?
Если речь про скорость, то ничего конкретного сказать нереально в общем случае. Влияющих факторов очень много, от обучающих выборок их размера и структуры, до програмерских факторов, вроде языка на котором написано приложение, качества алгоритма, всяких распараллеливаний, использования GPU и тп. Обе архитектуры могкт как выигрывать так и проигрывать друг другу на пару порядков по скорости в зависимости от комбинаций факторов.
Какие характеристики обсуждаете?
Если речь про скорость, то ничего конкретного сказать нереально в общем случае. Влияющих факторов очень много, от обучающих выборок их размера и структуры, до програмерских факторов, вроде языка на котором написано приложение, качества алгоритма, всяких распараллеливаний, использования GPU и тп. Обе архитектуры могкт как выигрывать так и проигрывать друг другу на пару порядков по скорости в зависимости от комбинаций факторов.
Нет-нет, не скорость. Имеется ввиду качественная характеристика выхода сети (прогнозы или сигналы на открытие/закрытие и т.д.). Я размышляю из того, что нейросеть является черной коробочкой (математической моделью), которая сама в процессе обучения находит нужные зависимости между величинами, исходя из того, что подано на вход (индикаторы, цены, и т.д.). В случае PNN и GRNN мы имеем дело с радиальным слоем элементов (я это понимаю так, что каждый элемент этого слоя хранит в себе некую интерпретацию набора данных из обучающей выборки, выраженную в виде числа, X, см. Гауссова функция), и если этот слой повторяется, то механизм работы схож и в обоих случаях задача сети сводится к вычислению вероятности принадлежности набора данных, подданного на вход к числу Х.
Допустим, имеется реализация обеих этих сетей в виде программы, у них одинаковое число входов, и одинаковое число выходов (один), тогда различие в топологии будет в том, что в GRNN будет дополнительный скрытый слой, который у PNN отсутствует. Этот слой дает какую-то свою оценку данным с предыдущего слоя, собственно вопрос тогда и сводится к тому, что может ли этот дополнительный слой качественно повлиять на выход нейросети? Я думаю нет. Исходя из опыта работы с многослойными перцептронами, думаю, что дополнительный слой здесь погоды не сделает. Чтобы было нагляднее приложу ссылки, на которые я ориентируюсь, оценивая архитектуру сети:
http://generation6.narod.ru/glossary_o2.htm
http://generation6.narod.ru/glossary_v1.htm
Вроде они отличаются только "смыслом" обрабатываемых данных, который в случае PNN означает необходимость трансляции в диапазон 0..1 и получения фактически полной вероятности по Байесу, а в случае GRNN - любая непрерывная функция. По крайней мере, в книгах так пишут, например - http://books.google.ru/books?id=U5np34a5fmQC&pg=PA135&lpg=PA135&dq=GRNN+PNN&source=bl&ots=SqZ_LWwiDR&sig=aKTU8wgf334rHN4Dwb5ssYcxHe0&hl=ru&sa=X&ei=EU3NU724HuG6ygO2l4D4Ag&ved=0CEwQ6AEwBg#v=onepage&q=GRNN%20PNN&f=false.
Я делал себе PNN, потому что мне нужны были вероятности и не заморачивался другим названием для той же самой архитектуры.
По полученному результату при применении на одних и тех же данных они не должны различаться: вот кто-то проверял - http://www.r-bloggers.com/grnn-and-pnn/.
- books.google.ru
Вроде они отличаются только "смыслом" обрабатываемых данных, который в случае PNN означает необходимость трансляции в диапазон 0..1 и получения фактически полной вероятности по Байесу, а в случае GRNN - любая непрерывная функция. По крайней мере, в книгах так пишут, например - http://books.google.ru/books?id=U5np34a5fmQC&pg=PA135&lpg=PA135&dq=GRNN+PNN&source=bl&ots=SqZ_LWwiDR&sig=aKTU8wgf334rHN4Dwb5ssYcxHe0&hl=ru&sa=X&ei=EU3NU724HuG6ygO2l4D4Ag&ved=0CEwQ6AEwBg#v=onepage&q=GRNN%20PNN&f=false.
Я делал себе PNN, потому что мне нужны были вероятности и не заморачивался другим названием для той же самой архитектуры.
По полученному результату при применении на одних и тех же данных они не должны различаться: вот кто-то проверял - http://www.r-bloggers.com/grnn-and-pnn/.
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования