Обсуждение статьи "Популяционные алгоритмы оптимизации: Изменяем форму и смещаем распределения вероятностей и тестируем на "Умном головастике" (Smart Cephalopod, SC)"

 

Опубликована статья Популяционные алгоритмы оптимизации: Изменяем форму и смещаем распределения вероятностей и тестируем на "Умном головастике" (Smart Cephalopod, SC):

В данной статье исследуется влияние изменения формы распределений вероятностей на производительность алгоритмов оптимизации. Мы проводим эксперименты на тестовом алгоритме 'Умный головастик' (SC), чтобы оценить эффективность различных распределений вероятностей в контексте оптимизационных задач.

Работа над этой статьёй и специфичными методами класса для генерации случайных чисел с нужными распределениями, удобными для применения в построении алгоритмов оптимизации привела к пониманию, что функция Rastrigin имеет несколько серъёзных недостатков, которые не были очевидны на момент выбора этой тестовой функции и я решил от неё отказаться. Старого доброго Rastrigin'а заменит функция Peaks (более полное обоснование будет в следующей статье).

Peaks1

"Умный Головастик" в деле.

Автор: Andrey Dik

 
Во время чтения статьи резко появляется ln-число и затем часто упоминается. Что это?
 
fxsaber #:
Во время чтения статьи резко появляется ln-число и затем часто упоминается. Что это?

in, input, вход, входящий.
Есть некоторое число на числовой прямой, относительно которого требуется сгенерировать случайное число с заданным распределением, причём в заданных границах.
Это часто приходится делать в алгоритмах оптимизаци.

"Например, имеем такую ситуацию с числовой прямой, ограниченной слева "min" и справа "max" и лежищей между ними "In", можно представить это так:

min|-----|-----|-----|-----|-----|-----|In|--|--|--|--|--|--|max"


 
Andrey Dik #:
in, input, вход, входящий.
С этой буквой проблема восприятия. Будто логарифм написан.
 
fxsaber #:
С этой буквой проблема восприятия. Будто логарифм написан.
Возможно, так и есть - опечатка, проверю.
 
Andrey Dik #:
Возможно, так и есть - опечатка, проверю.

Нет, не опечатка, просто шрифт такой, что заглавая "I" читается как "l", поправил на "i".

Спасибо за замечание.

 

Распределение Леви является примером распределения с неограниченными моментами. Оно описывает случайные величины с тяжелыми хвостами, что означает, что вероятность появления очень больших значений велика. В распределении Леви моменты могут быть бесконечными или не существовать, что делает его особенным и отличающимся от распределений с ограниченными моментами, таких как нормальное распределение.

Тяжелые хвосты распределения Леви и его неограниченные моменты делают его полезным для моделирования явлений, которые могут иметь экстремальные значения или высокую вариабельность.

В начале статьи были даны определения основных терминов. Было бы хорошо добавить и этот.

 
fxsaber #:

В начале статьи были даны определения основных терминов. Было бы хорошо добавить и этот.

Добавлю, спасибо.
 

Если правильно понял, то почти во всех статьях были показаны разные стратегии поиска. При этом не было игры с распределениями.

В данной статье видно, что результаты сильнейшим образом могут зависеть от выбранной функции распределения + смещение.


Судя по цифрам, Леви всех порвал. Получается, что для каждой стратегии поиска нужно делать несколько модификаций и смотреть влияние на общий рейтинг.


Автор крут! Спасибо!


Закомментировал переход на распределения.

//    revision = true;

и получил результат лучше, чем у равномерного распределения.

 

В ГА MT5 все входные жестко заданы и распределение, похоже, просто равномерное.


Благодаря данному циклу статей стало понятно, что результаты могут сильно варьироваться не только от стратегии поиска, но и от ее значений входных параметров. Плюс задание распределений.

Как найти оптимальный для своей задачи - не совсем понятно. Потому что нужно оптимизировать оптимизируемое.

 
fxsaber #:

В ГА MT5 все входные жестко заданы и распределение, похоже, просто равномерное.

Просьба показать, как на тестовых функциях измерить качество ГА MT5.
Причина обращения: