Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1747

 
Реter Konow:
У меня не выходит понять математический принцип работы НС. 

Что я понимаю: 

1. Обучающая выборка - обособленные блоки данных, содержащие видоизмененные представления смыслового инварианта.

2. Структура НС -  сборка последовательно расположенных слоев "нейронов", где первый слой принимает данные (и имеет необходимое количество для этого нейронов), а остальные слои предназначены для обобщения обработанных в первом слое данных и приведения их к инварианту, оперируемому четкой логикой программы.

3. "Нейрон" - функция, последовательно принимающая на вход фрагмент данных обучающей выборки, преобразующая этот фрагмент в "вес" и передающая его на след.слой.

Мне непонятно, как неочевидный инвариант в данных, математически очищается от "шелухи" через несколько фильтрующих слоев, корректирующие не сами данные, а их "веса".

Поиск самого высокого холма в облаках, высоты не видно за облаками. Низкочастотно находим начало возвышения и обследуем около них, там где нет возвышений не обследуем. Можно площади начала возвышений обследовать и маленькие площади не брать. Типа умная выборка. Но в любом случае это алгоритм. В любом случае полный перебор с очень малой вероятностью не будет проигрывать различным вариантам, с какой либо логикой  поиска, через раз, с обоих концов начать, вероятность нахождения более быстрого поиска при переборе с логикой искомого выше чем при полном последовательном. 

 
Реter Konow:
У меня не выходит понять математический принцип работы НС.

Вы не пытаетесь его понять - вы пытаетесь его выдумать.

Для понимания математических основ НС следует ознакомиться с теорией Колмогорова - Арнольда - Хехт-Нильсона.

 
Aleksey Nikolayev:

Вы не пытаетесь его понять - вы пытаетесь его выдумать.

Для понимания математических основ НС следует ознакомиться с теорией Колмогорова - Арнольда - Хехт-Нильсона.

Редко где понятно объяснено. А с формул понять дано мало кому)))))

 
Aleksey Nikolayev:

Вы не пытаетесь его понять - вы пытаетесь его выдумать...

В некоторой степени это обязательно. Понять по настоящему можно лишь то, что было создано тобою самим. Я пытаюсь воспоизвести начально заложенную в концепцию НС идею.
 

через бэкпропогирование ошибки определения инвариантов и поиск локального или глобального экстремума функции нейрона ньютоновскими или квазиньютоновскими методами оптимизации, настраивая различные шаги градиентов

Петру так будет понятней

 
Valeriy Yastremskiy:

Поиск самого высокого холма в облаках, высоты не видно за облаками. Низкочастотно находим начало возвышения и обследуем около них, там где нет возвышений не обследуем. Можно площади начала возвышений обследовать и маленькие площади не брать. Типа умная выборка. Но в любом случае это алгоритм. В любом случае полный перебор с очень малой вероятностью не будет проигрывать различным вариантам, с какой либо логикой  поиска, через раз, с обоих концов начать, вероятность нахождения более быстрого поиска при переборе с логикой искомого выше чем при полном последовательном. 

ахахах )))

 
Valeriy Yastremskiy:

Поиск самого высокого холма в облаках, высоты не видно за облаками. Низкочастотно находим начало возвышения и обследуем около них, там где нет возвышений не обследуем. Можно площади начала возвышений обследовать и маленькие площади не брать. Типа умная выборка. Но в любом случае это алгоритм. В любом случае полный перебор с очень малой вероятностью не будет проигрывать различным вариантам, с какой либо логикой  поиска, через раз, с обоих концов начать, вероятность нахождения более быстрого поиска при переборе с логикой искомого выше чем при полном последовательном. 

Это обьяснение больше под ГА подходит, по моему.)))
 
Maxim Dmitrievsky:

через бэкпропогирование ошибки определения инвариантов и поиск локального или глобального экстремума функции нейрона ньютоновскими или квазиньютоновскими методами оптимизации, настраивая различные шаги градиентов

Петру так будет понятней

То есть, работа НС, так или иначе, завязана на Оптимизации?
 
Реter Konow:
То есть, работа НС, так или иначе, завязана на Оптимизации?

да, на оптимизации ф-й (нейронов). Их просто много и они могут быть связаны разным образом

 
Maxim Dmitrievsky:

ахахах )))

Ессно грубо, даже где то не верно, но только где то. И понятней. Любая оптимизация поиска экстремумов за самый долгий берет полный поиск))))) ГСЧ - наложение не привязанного низкочастотного процесса на сильно более высокочастотный, оптимизация поиска - логичное прореживание поиска. Мне так легче все остальное понимать.

Причина обращения: