SOM:調理法 - ページ 8 12345678 新しいコメント TheXpert 2011.05.11 13:54 #71 Sych: レポートの全文(ヘッダー)を見ることはできますか?下部をカットした状態です。 更新しました。 アレクセイモスク カッコいいんです。戦略とは?バーの本数(時間別)で取引が成立しているのか、そうでないのか? これで、各信号が別々に処理される。すなわち、歪んだニューロンが脱落すると開かれ、一定時間後に閉じられる。 Alexey Burnakov 2011.05.11 14:08 #72 了解です。スキュードとは、おそらく確率偏差が50%という意味でしょうか。そして、クロージング条件は各ニューロンに紐づいているのですね。何が歪んでいるのか?55%?60%? TheXpert 2011.05.11 14:25 #73 alexeymosc: スキュードとは、確率的な偏差値が50%であることを意味するのですね。そして、クロージング条件は各ニューロンに紐づいているのですね。何が歪んでいるのか?55%?60%? 約1.5倍で約6040個..: { if (positive/(negative + 1.0) > 1.5 && count > 3) { OpenBuy(Magic, TP, SL, TradeLot); } if (negative/(positive + 1.0) > 1.5 && count > 3) { OpenSell(Magic, TP, SL, TradeLot); } } 小さなバグを発見...すぐに元通りになりますよ。 Alexey Burnakov 2011.05.11 14:28 #74 素晴らしい 削除済み 2011.05.11 14:49 #75 TheXpert: 更新しました。 楽観的な意見もあるが、あまりない。 この数値は改善できます。 平均値有益な取引121.33負け組み-130.51 最大数れんしょう17 (1227.10)継続的損失(ロス)11 (-2390.10) ? つまり、利益の出るトレードに対して平均的な負けトレードを減らすか、継続的な負けを減らすか、どちらかです。 OOSであることは理解していますが、教えたものがどのような挙動を示すのか。 もしかしたら、発見されたエラーを修正することで結果が改善されるかもしれないので、興味深いところです。 TheXpert 2011.05.13 12:01 #76 皆さん、SOMに関する専門家のアドバイスが必要です。 具体的には、クラスタ間のパターン数の分布をどのように制御するかに興味があります。 Alexey Burnakov 2011.05.21 10:40 #77 こんにちは。 この1週間、まともにインターネットに接続していない。遅ればせながら書きます。 ここで読みました: http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf CCSのセルに入力ベクトルを最適に分布させる問題は、まず、CCSの適切な訓練に依存する。Kohonen氏は、トレーニングの反復回数は、ネットワークのニューロン数の少なくとも500倍でなければならないと書いています例えば、100ニューロン(10×10)のネットワークを学習させる場合、反復回数は少なくとも50,000回でなければならない。正直なところ、通常のPCでこのようなネットワークを学習させると、入力ベクトルが非常に大きい場合(例えば40個)、数日かかってしまう。Kohonenが提案したヒューリスティックは、少なくとも10,000回の反復学習が必要であるということです。しかし、オプションとして、入力ベクトルのサイズを小さくして、何が起こるかを見ることができます。 2点目は、SCSの学習に関連して、同じ記事から、入力ベクトルの大きさは学習反復回数に影響しない、つまり、すべてはPCのパワーに依存する、というものです。 第三に、論文で提案されているように、ニューロンの学習の半径は、ACS上の基本的な「トポロジー秩序」を設定するために、最初は非常に大きく(ACSの直径の半分以上でもよい)すべきです。その後、半径は反復回数に反比例して0まで小さくなり、それはたった一つのニューロンの重みの補正が行われるときとなります。同時に、トレーニングの最初に確立されたオリジナルのトポロジー秩序は壊れず、マップの局所的な領域で洗練されていく。そちらをご覧ください。 もう一つ、学習に関連することとして、学習のステップも最初大きく(1程度)、その後反復回数に反比例して減少することが望ましく、ステップの通過反復回数依存性の関数は、線形でも非線形でもよい。トレーニングの最後には、LCSを微調整するために、0.01以下の非常に小さなステップを長い間維持する。 記事では、学習用のデータの前処理についても触れていますが、音声認識や画像認識への応用では、このような前処理が必要です。私たちの場合は時系列 なので、別のところを掘る必要があります。SOMを時系列に適用することについては、これまでにもいろいろと議論されてきたと思います。 BBC 2011.11.14 16:02 #78 オートトレードでSOMが可能というのは、どのような根拠からなのでしょうか? 視野を何かに集中させるためには、それが何 であるかを知る必要があります。 過去のデータ(ネットワークに学習させたいもの)には、ほぼ無限の値動きの可能性があるのです。ネットワークは、何をすべきか、何に注意を払うべきか、どのように自分で判断すべきなのか。 周囲に無数のおもちゃがある子供を想像してください。数え切れないほどのおもちゃがあるにもかかわらず、(というか、だからこそ)子どもは、このおもちゃは車で、あのおもちゃはテディベアだと知ることはないのです。親御さんは、まずお子さんに「このおもちゃは車だよ」と教えてあげて、何度か他のおもちゃの中からこのおもちゃを探させるようにしてください。そうすれば、子どもは車を識別できるようになり、テディベアと混同することはなくなるでしょう。 SOMは、ネットが何をターゲットにしているかが分かって初めて起動し、視野を集中さ せることができる。これは、車のナンバーを識別したり、自動翻訳機が適切な単語やフレーズを検索することによって行われます。ただし、まず数字や言葉を認識させ、その上で自由に泳がせられる ようにする必要があります。 過去のデータの流れの中で、ネットワークに何を求めるのか/提供できるのか?何を期待してるんだ? 12345678 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
レポートの全文(ヘッダー)を見ることはできますか?下部をカットした状態です。
更新しました。
カッコいいんです。戦略とは?バーの本数(時間別)で取引が成立しているのか、そうでないのか?
了解です。スキュードとは、おそらく確率偏差が50%という意味でしょうか。そして、クロージング条件は各ニューロンに紐づいているのですね。何が歪んでいるのか?55%?60%?
スキュードとは、確率的な偏差値が50%であることを意味するのですね。そして、クロージング条件は各ニューロンに紐づいているのですね。何が歪んでいるのか?55%?60%?
約1.5倍で約6040個..:
小さなバグを発見...すぐに元通りになりますよ。
更新しました。
楽観的な意見もあるが、あまりない。
この数値は改善できます。
?
つまり、利益の出るトレードに対して平均的な負けトレードを減らすか、継続的な負けを減らすか、どちらかです。
OOSであることは理解していますが、教えたものがどのような挙動を示すのか。
もしかしたら、発見されたエラーを修正することで結果が改善されるかもしれないので、興味深いところです。
皆さん、SOMに関する専門家のアドバイスが必要です。
具体的には、クラスタ間のパターン数の分布をどのように制御するかに興味があります。
こんにちは。
この1週間、まともにインターネットに接続していない。遅ればせながら書きます。
ここで読みました: http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf
CCSのセルに入力ベクトルを最適に分布させる問題は、まず、CCSの適切な訓練に依存する。Kohonen氏は、トレーニングの反復回数は、ネットワークのニューロン数の少なくとも500倍でなければならないと書いています例えば、100ニューロン(10×10)のネットワークを学習させる場合、反復回数は少なくとも50,000回でなければならない。正直なところ、通常のPCでこのようなネットワークを学習させると、入力ベクトルが非常に大きい場合(例えば40個)、数日かかってしまう。Kohonenが提案したヒューリスティックは、少なくとも10,000回の反復学習が必要であるということです。しかし、オプションとして、入力ベクトルのサイズを小さくして、何が起こるかを見ることができます。
2点目は、SCSの学習に関連して、同じ記事から、入力ベクトルの大きさは学習反復回数に影響しない、つまり、すべてはPCのパワーに依存する、というものです。
第三に、論文で提案されているように、ニューロンの学習の半径は、ACS上の基本的な「トポロジー秩序」を設定するために、最初は非常に大きく(ACSの直径の半分以上でもよい)すべきです。その後、半径は反復回数に反比例して0まで小さくなり、それはたった一つのニューロンの重みの補正が行われるときとなります。同時に、トレーニングの最初に確立されたオリジナルのトポロジー秩序は壊れず、マップの局所的な領域で洗練されていく。そちらをご覧ください。
もう一つ、学習に関連することとして、学習のステップも最初大きく(1程度)、その後反復回数に反比例して減少することが望ましく、ステップの通過反復回数依存性の関数は、線形でも非線形でもよい。トレーニングの最後には、LCSを微調整するために、0.01以下の非常に小さなステップを長い間維持する。
記事では、学習用のデータの前処理についても触れていますが、音声認識や画像認識への応用では、このような前処理が必要です。私たちの場合は時系列 なので、別のところを掘る必要があります。SOMを時系列に適用することについては、これまでにもいろいろと議論されてきたと思います。
オートトレードでSOMが可能というのは、どのような根拠からなのでしょうか?
視野を何かに集中させるためには、それが何 であるかを知る必要があります。
過去のデータ(ネットワークに学習させたいもの)には、ほぼ無限の値動きの可能性があるのです。ネットワークは、何をすべきか、何に注意を払うべきか、どのように自分で判断すべきなのか。
周囲に無数のおもちゃがある子供を想像してください。数え切れないほどのおもちゃがあるにもかかわらず、(というか、だからこそ)子どもは、このおもちゃは車で、あのおもちゃはテディベアだと知ることはないのです。親御さんは、まずお子さんに「このおもちゃは車だよ」と教えてあげて、何度か他のおもちゃの中からこのおもちゃを探させるようにしてください。そうすれば、子どもは車を識別できるようになり、テディベアと混同することはなくなるでしょう。
SOMは、ネットが何をターゲットにしているかが分かって初めて起動し、視野を集中さ せることができる。これは、車のナンバーを識別したり、自動翻訳機が適切な単語やフレーズを検索することによって行われます。ただし、まず数字や言葉を認識させ、その上で自由に泳がせられる ようにする必要があります。
過去のデータの流れの中で、ネットワークに何を求めるのか/提供できるのか?何を期待してるんだ?