記事「母集団最適化アルゴリズム:SSG(Saplings Sowing and Growing up、苗木の播種と育成)」についてのディスカッション - ページ 5

 
fxsaber #:

ZY スムージングを提案する "頭のいい "人たちが、表面オブジェクトの形成の本質を理解していないのは不思議だ。

私の質問の仕方が非常に悪かった。
 
mytarmailS #:
それなら、上に書いたようにとても簡単だ。
ピークが20回必要なら、AOを20回走らせればいい。

そうすれば、最適化を20回実行したoptファイルができあがる。この20のピークはどこにあるのか?

 
fxsaber #:

20回の最適化が実行されたoptファイルができあがった。この20のピークはどこにあるのだろうか?

最適化の結果
つまり最適解が見つかった
あなたが探していたパラメータということですね。

これは、すべての可能なパラメーターの変種の多次元曲面上のピークです。
 
mytarmailS #:
質問の仕方が悪かった。

言い回しは網羅的だ。賢い人は怠け者か、質問を見ていない。

 
mytarmailS #:
さて、最適化の結果
すなわち、見つかった最適解は
あなたが探していたパラメータは

これは、パラメータのすべての可能なバリエーションの多次元表面上のピークです。

これは1つのピークに過ぎない。

 
ハリネズミにはそれが必要なんだ......。
これらのアルゴリズムは、(可能であれば、母集団の大きさがピークの数に見合っていれば)実質的にすべてのピークでクラスタリングする。
 
fxsaber #:

たった1枚の写真だ。

まあ、AOのフルランは1回。

20回走れば20のピーク。

それとも論点がずれてる?
 
このような具体的な課題に対しては、大きくなりすぎたグループがグループから 追い出され、別々の極端なグループを形成せざるを得なくなる「追い出し」メカニズムを考えることができる。
 
mytarmailS #:
さて、AOのフルランは1回=1ピーク。

20回の打ち上げ==20回のピーク。

まだ論点がずれてる?

良いアルゴリズムなら同じピークを見つけるだろう。
 
Andrey Dik #:

良いアルゴリズムなら同じピークを見つけるだろう。
回数を制限する反復。
初期パラメータのランダム化

空間が広ければ、同じものを見つけることはほとんどない。

FFでは、現在のパラメータと過去に発見されたパラメータとの類似性にペナルティを課すことも可能。

つまり、すべてが解決可能なのだ。