記事「知っておくべきMQL5ウィザードのテクニック(第09回):K平均法とフラクタル波の組み合わせ」についてのディスカッション 新しいコメント MetaQuotes 2024.03.27 14:37 新しい記事「知っておくべきMQL5ウィザードのテクニック(第09回):K平均法とフラクタル波の組み合わせ」はパブリッシュされました: K平均法では、まず無作為に生成されたクラスタ重心を使用するデータセットのマクロビューに焦点を当てたプロセスとしてデータポイントを集団化するアプローチを採用し、その後ズームインしてこれらの重心を調整してデータセットを正確に表現します。これを見て、その使用例をいくつか活用していきます。 デフォルトでは、K平均法は実際には非常に低速で非効率的です。そのため、これがナイーブK平均法と呼ばれることが多く、「ナイーブ」という言葉は、より高速な実装があることを意味します。この面倒な作業の一部は、最適化の開始時にデータセットに初期重心を無作為に割り当てることから生じます。さらに、ランダムな重心が選択された後、ロイドのアルゴリズム(英語)が多くの場合、正しい重心、したがってカテゴリ値に到達するために使用されます。ロイドのアルゴリズムには、次のような補足と代替手段があります。JenksのNaturalBreaks(英語)は、選択した重心までの距離ではなくクラスタの平均に焦点を当てます。K-Median(英語)は、その名前が示すように、理想的な分類を導く際の代理として、重心や平均ではなくクラスタ中央値を使用します。k-medoids(英語)は、Wikipediaによると、各クラスタ内の実際のデータポイントを潜在的な重心として使用するため、ノイズや外れ値に対してより堅牢になります。最後に、ファジーモードクラスタリング(英語)では、クラスタの境界が明確ではなく、データポイントが複数のクラスタに属する可能性があり、実際にその傾向があります。この最後の形式では、各データポイントを「分類」するのではなく、特定のデータポイントが該当する各クラスタにどの程度属しているかを定量化する回帰重みが割り当てられるため、興味深いものです。 この記事の目的は、より効率的であると宣伝されているもう1つのタイプのK平均法実装を紹介することです。K-Means++法です。このアルゴリズムは、デフォルトのナイーブK平均法などのロイド法に依存していますが、ランダムな重心の選択に対する最初のアプローチが異なります。このアプローチは、ナイーブK平均法ほど「ランダム」ではなく、このため、後者よりもはるかに高速かつ効率的に収束する傾向があります。 作者: Stephen Njuki 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
新しい記事「知っておくべきMQL5ウィザードのテクニック(第09回):K平均法とフラクタル波の組み合わせ」はパブリッシュされました:
K平均法では、まず無作為に生成されたクラスタ重心を使用するデータセットのマクロビューに焦点を当てたプロセスとしてデータポイントを集団化するアプローチを採用し、その後ズームインしてこれらの重心を調整してデータセットを正確に表現します。これを見て、その使用例をいくつか活用していきます。
デフォルトでは、K平均法は実際には非常に低速で非効率的です。そのため、これがナイーブK平均法と呼ばれることが多く、「ナイーブ」という言葉は、より高速な実装があることを意味します。この面倒な作業の一部は、最適化の開始時にデータセットに初期重心を無作為に割り当てることから生じます。さらに、ランダムな重心が選択された後、ロイドのアルゴリズム(英語)が多くの場合、正しい重心、したがってカテゴリ値に到達するために使用されます。ロイドのアルゴリズムには、次のような補足と代替手段があります。JenksのNaturalBreaks(英語)は、選択した重心までの距離ではなくクラスタの平均に焦点を当てます。K-Median(英語)は、その名前が示すように、理想的な分類を導く際の代理として、重心や平均ではなくクラスタ中央値を使用します。k-medoids(英語)は、Wikipediaによると、各クラスタ内の実際のデータポイントを潜在的な重心として使用するため、ノイズや外れ値に対してより堅牢になります。最後に、ファジーモードクラスタリング(英語)では、クラスタの境界が明確ではなく、データポイントが複数のクラスタに属する可能性があり、実際にその傾向があります。この最後の形式では、各データポイントを「分類」するのではなく、特定のデータポイントが該当する各クラスタにどの程度属しているかを定量化する回帰重みが割り当てられるため、興味深いものです。
この記事の目的は、より効率的であると宣伝されているもう1つのタイプのK平均法実装を紹介することです。K-Means++法です。このアルゴリズムは、デフォルトのナイーブK平均法などのロイド法に依存していますが、ランダムな重心の選択に対する最初のアプローチが異なります。このアプローチは、ナイーブK平均法ほど「ランダム」ではなく、このため、後者よりもはるかに高速かつ効率的に収束する傾向があります。
作者: Stephen Njuki