Обсуждение статьи "Гауссовcкие процессы в машинном обучении: регрессионная модель в MQL5"

 

Опубликована статья Гауссовcкие процессы в машинном обучении: регрессионная модель в MQL5:

В настоящей статье мы рассмотрим основы гауссовских процессов (ГП) как вероятностную модель машинного обучения и продемонстрируем ее применение в регрессионных задачах на примере синтетических данных.

Гауссовские процессы (ГП) представляют собой инструмент байесовского моделирования, широко используемый в машинном обучении для задач регрессии и классификации. В отличие от множества традиционных моделей, предоставляющих только точечные прогнозы, ГП формируют полное вероятностное распределение для предсказываемых значений. Это позволяет не только получать точечные предсказания, но и важную оценку неопределённости этих прогнозов, выраженную через доверительные интервалы. Это является отличительной особенностью байесовского подхода, когда объединяют априорные знания с наблюдаемыми данными, для получения прогнозного распределения.

ГП относятся к классу ядерных методов, использующих ковариационные функции (или ядра) для моделирования зависимостей между данными. Благодаря возможности комбинирования различных ядер (например, путем сложения или умножения), достигается определенная гибкость в описании возможных прогнозных функций. Каждое ядро при этом обладает своими гиперпараметрами, которые необходимо оптимизировать для достижения максимальной точности модели.

В данной статье мы подробно разберем процесс прогнозирования с помощью регрессионной модели на основе гауссовских процессов, наглядно продемонстрировав, как ГП позволяют не только строить точные прогнозы, но и всесторонне оценивать их неопределённость.

Автор: Evgeniy Chernish

 

Интересно.

Большая часть картинок почему-то не грузится.

 
Проверьте еще раз, пожалуйста
 
Rashid Umarov #:
Проверьте еще раз, пожалуйста
Спасибо, теперь все картинки загрузились.
 
Ждем продолжения с нетерпением.
 
There is a strong relation between the   Gaussian Processes for regression   and the Wiener-Khinchin theorem  https://danmackinlay.name/notebook/wiener_khintchine.html https://www.numberanalytics.com/blog/wiener-khinchin-theorem-guide   It would be great if you can continue in this direction to enlighten us .    
 
Математически красивый инструмент, но получился нишевый, как и, например, метод опорных векторов. В реальности вообще не слышно чтобы где-то применялся :) Все модели на гауссовских смесях медленно и плохо работают на больших данных.
 
nevar #:
There is a strong relation between the   Gaussian Processes for regression   and the Wiener-Khinchin theorem  https://danmackinlay.name/notebook/wiener_khintchine.html https://www.numberanalytics.com/blog/wiener-khinchin-theorem-guide   It would be great if you can continue in this direction to enlighten us .    
Анализ Фурье это всё-таки больше про стационарность и линейные связи. Проще работать во временной области с моделями ARIMA, это эквивалентно в некотором смысле анализу Фурье. 

А вот ГП это уже про поиск нелинейных связей, в этом смысле они недалеко ушли от нейронных сетей, таких как MLP, но с возможностью экстраполяции и построения доверительных интервалов прогнозов. 

Поэтому Фурье освещать пока не планирую, а будет продолжение по ГП. 

 
Maxim Dmitrievsky #:
Математически красивый инструмент, но получился нишевый, как и, например, метод опорных векторов. В реальности вообще не слышно чтобы где-то применялся :) Все модели на гауссовских смесях медленно и плохо работают на больших данных.
Это не очень популярный инструмент конечно, но я вижу в нем перспективу. Меня привлекает, что разобравшись в ядерном подходе ты получаешь как бы единую согласованную точку зрения на анализ данных. Здесь и регрессия и классификация и ядерная  оценка  плотности и отбор значимых признаков и статистические тесты на независимость и т.д. 


 
Evgeniy Chernish #:
Это не очень популярный инструмент конечно, но я вижу в нем перспективу. Меня привлекает, что разобравшись в ядерном подходе ты получаешь как бы единую согласованную точку зрения на анализ данных. Здесь и регрессия и классификация и ядерная  оценка  плотности и отбор значимых признаков и статистические тесты на независимость и т.д. 


В любом случае интересно :)