Интерполяция, аппроксимация и иже с ними (пакет alglib) - страница 15

 
Maxim Dmitrievsky :

Everything, I found a normal boy, well explained, immediately remembered everything


Great !!

So for now your problem is solved regarding the transformation and mapping to 2 D space?

Though I did not understand the russian, but I understood the formula somewhat. It's just a play of cosine and multiplication and division of the magnitudes of the 2 vectors :))

Have you got the code in MQL5 transformed?

 
Почитал английскую переписку. С трудом. Оказывается, Вапник, идеи которого вспомнились сразу по прочтении вопросов ТС #1, во-первых, жив, во вторых, развил идею минимизации эмпирического (среднего) риска применительно к машинному обучению нейросетей до метода опорных векторов, нелинейная версия которого в этой переписке и обсуждается. ВИКИ:

Метод опорных векторов

Ядра[править | править код]

Алгоритм построения оптимальной разделяющей гиперплоскости, предложенный в 1963 году Владимиром Вапником и Алексеем Червоненкисом — алгоритм линейной классификации. Однако в 1992 году Бернхард Босер, Изабель Гийон и Вапник предложили способ создания нелинейного классификатора, в основе которого лежит переход от скалярных произведений к произвольным ядрам, так называемый kernel trick (предложенный впервые М. А. Айзерманом, Э. М. Браверманом и Л. В. Розоноэром для метода потенциальных функций), позволяющий строить нелинейные разделители. Результирующий алгоритм крайне похож на алгоритм линейной классификации, с той лишь разницей, что каждое скалярное произведение в приведённых выше формулах заменяется нелинейной функцией ядра (скалярным произведением в пространстве с большей размерностью). В этом пространстве уже может существовать оптимальная разделяющая гиперплоскость.


Похоже, Максим Дмитриевский ставит цели, очень близкие к тем, что преследует Вапник. У Вапника и надо искать основы для выбора (и подбора) аппрроксимирующих функций.

 
Vladimir:
Почитал английскую переписку. С трудом. Оказывается, Вапник, идеи которого вспомнились сразу по прочтении вопросов ТС #1, во-первых, жив, во вторых, развил идею минимизации эмпирического (среднего) риска применительно к машинному обучению нейросетей до метода опорных векторов, нелинейная версия которого в этой переписке и обсуждается. ВИКИ:

Метод опорных векторов

Ядра[править | править код]

Алгоритм построения оптимальной разделяющей гиперплоскости, предложенный в 1963 году Владимиром Вапником и Алексеем Червоненкисом — алгоритм линейной классификации. Однако в 1992 году Бернхард Босер, Изабель Гийон и Вапник предложили способ создания нелинейного классификатора, в основе которого лежит переход от скалярных произведений к произвольным ядрам, так называемый kernel trick (предложенный впервые М. А. Айзерманом, Э. М. Браверманом и Л. В. Розоноэром для метода потенциальных функций), позволяющий строить нелинейные разделители. Результирующий алгоритм крайне похож на алгоритм линейной классификации, с той лишь разницей, что каждое скалярное произведение в приведённых выше формулах заменяется нелинейной функцией ядра (скалярным произведением в пространстве с большей размерностью). В этом пространстве уже может существовать оптимальная разделяющая гиперплоскость.


Похоже, Максим Дмитриевский ставит цели, очень близкие к тем, что преследует Вапник. У Вапника и надо искать основы для выбора (и подбора) аппрроксимирующих функций.

Да, спасибо. Конференция Яндекса с русским ученым на английском, позорище


 
Maxim Dmitrievsky:

Да, спасибо. Конференция Яндекса с русским ученым на английском, позорище


Он переехал жить в США в 1990, когда ему было 54 года. Неудивительно, что произносит английские слова русскими звуками. Позорного ничего не вижу. Говорит очень понятно, как большинство тех, для кого английский не родной. Вспомните произношение грека Демиса Руссоса, удивительно четко и раздельно для песен.
 
Vladimir:
Он переехал жить в США в 1990, когда ему было 54 года. Неудивительно, что произносит английские слова русскими звуками. Позорного ничего не вижу. Говорит очень понятно, как большинство тех, для кого английский не родной. Вспомните произношение грека Демиса Руссоса, удивительно четко и раздельно для песен.

яндекс российская контора вообще-то. Позорище что забивают на своих ученых и тех кто хочет учиться у них на русском

у них даже описание собственных алгоритмов машинного обучения все на англ.
 

Hi Maxim,

So you have progressed further with the code which you were stuck previously?

        P = cvxopt.matrix (np.outer (y, y) * K)
        q = cvxopt.matrix (np.ones (n_samples) * - 1 )
        A = cvxopt.matrix (y, ( 1 , n_samples))
        b = cvxopt.matrix ( 0.0 )
 
FxTrader562:

Hi Maxim,

So you have progressed further with the code which you were stuck previously?

We cant use kernels this way, because this algorithm works only with inner products, and I dont know how to map features back into vectors

 
Maxim Dmitrievsky :

We cant use kernels this way, because this algorithm works only with inner products , and I do not know how to map features back into vectors

Well, that is exactly what is the main function of the kernel function.

But we can not map features in and out using kernel function. That is not the job of kernel function. Kernel function just makes the classification process faster and easier by mapping the price points to higher dimensions.

Most importantly even if you will map a feature for an example a candle close price to a 3D space. The candle close value is not going to change in 3D. It is very normal even if you map it back to 2D.

That is when spline come to the picture for price interpolation and I guess you already know spline. I mean we feed data in terms of spline and get the classification done by kernels.

Now, if you are looking for mapping the features, then, kindly specify what exactly are you trying to map in terms of the price. I mean are you trying to map candle close, candle open prices, and so on.

 

Hi Maxim,

I'm sorry for bother you again. I just thought to quickly check with you if you are still working on your RDF project.

I am trying to improve your current RDF algo as well as I am trying to integrate python reinforcement algo with MQL. Hence, I thought to just collaborate with other programmers who are interested in it.

You can update me if you are still working on it and how far have you progressed so far. 

I have few interesting ideas to implement with the RDF which I can share with you along with source code of MQL5 and I am yet to learn the bridge between Mt5 and python.

Thank you ...

 
FxTrader562:

Hi Maxim,

I'm sorry for bother you again. I just thought to quickly check with you if you are still working on your RDF project.

I am trying to improve your current RDF algo as well as I am trying to integrate python reinforcement algo with MQL. Hence, I thought to just collaborate with other programmers who are interested in it.

You can update me if you are still working on it and how far have you progressed so far. 

I have few interesting ideas to implement with the RDF which I can share with you along with source code of MQL5 and I am yet to learn the bridge between Mt5 and python.

Thank you ...

Hi, yes, I try various ideas that are partly discussed here https://www.mql5.com/ru/forum/86386/page1056

Машинное обучение в трейдинге: теория и практика (торговля и не только)
Машинное обучение в трейдинге: теория и практика (торговля и не только)
  • 2018.09.14
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
Причина обращения: