記事: ニューラルネットワークによる価格予測 - ページ 9 1234567891011121314151617 新しいコメント Victor Nikolaev 2007.11.20 16:25 #81 PraVedNiK。あるいは、単一ニューロンから通常のニューロンへ移行する時期なのかもしれません。ちょっと違うし、全体的に何もかもが違うんです。 Yurixx 2007.11.20 23:57 #82 Vinin さんは以前、NSを扱ったことがあり、チャンピオンシップではEAがNSの実装であるとまで書かれていましたね。つまり、私と比べれば、あなたは専門家なのです。この大きなテーマを理解するために、何を読めばいいのかアドバイスしてください。目標は、ネットワークの運用と設計の原理を理解するだけでなく、MQLを使ってネットワーク自体(このテーマを理解したら計画したい)とそのトレーニングに関連するすべてのインフラストラクチャの両方を書くことができるほど深く理解することです。 Victor Nikolaev 2007.11.21 03:42 #83 Yurixx: Vinin さんは以前、NSを扱ったことがあり、チャンピオンシップではEAがNSの実装であるとまで書かれていましたね。つまり、私と比べれば、あなたは専門家なのです。この大きなテーマを理解するために、何を読めばいいのかアドバイスしてください。目的 - ネットワークの原理を理解するだけでなく、MQL5を使ってネットワークそのもの(このテーマを理解したら計画したい)とそのトレーニングに関連するインフラ全体を書けるくらい深く理解することです。 私は自分のことを専門家だとは思っていませんが、必要であればいつでもネットワークを作ることができます。 ファイル: b.yssvntncr.lqchurmresnqqjxpqswididgpiydahyiujktzbarznbyv.zip 955 kb Борис 2007.11.21 07:17 #84 Vinin: PraVedNiK。あるいは、単一ニューロンから通常のニューロンへ移行する時期なのかもしれません。ちょっと違うし、全体的に何もかもが違うんです。 マルチレイヤーに変更する理由は ありますか?...実は、すべてがグラフィカルに理解できるんです。 パーセプトロンは2つのクラスを分ける線であり、緑のボールは「価格が上昇する可能性が高い」。 赤いのは 「Price ...Down」です。しかし、問題は、ボールが混ざってしまう雑な部分があることです。 がすべてちりばめられている。いくつかの巧妙な人々/含む - そしてこのフォーラム/、本を読んだ後 Shumsky氏らは、まさにこのような分断線をより多く作るために、多層膜に切り替えるべきだと提案するでしょう。 そのようにしてもしなくても、DiRoLnoDoLgo EAにフィルターを入れればいいのです。 高値[1]<高値[2] && 安値[1]<安値[2] && iOsMA...で、High[1]>High[2] && Low[1]>Low[2]&& iOsMA...です。, で、この痔のこぶの2/3程度を除去し、-LEFT! 図に見る そうすると、その後の区切り線が引きやすくなるんです。 これを少なくとも部分的に取り除くのがDiRoLnoDoLgoの 目的です。 部分的に痔を取り除く-前方-分析の結果/過去5ヶ月間/判明している。 過去5ヶ月のフォワード分析の結果は、売上総利益=+16桁、期待収益= +2桁(ほぼ)、収益性=30と、非常に良好でした。 削除済み 2008.01.16 16:58 #85 PraVedNiK: 多層膜に切り替える根拠は あるのでしょうか。実は、すべてグラフィック的な意味があるのです。 まさか、多層メッシュを使った分類性能の向上に疑問を持つ人がいるとは思いもよりませんでした。=) これについては、Jan LeCunが書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは文字認識という少し変わったテーマがあります。とにかく、とにかく、単層メッシュは8.4%と最悪の結果を示しました。しかし!多層のもの(2層、隠れ層に300ニューロン)の1つは、誤差が1.6%と非常に良い結果でした。つまり、1層でも追加すると、メッシュが格段に「強く」なるのです。 トレーニングサンプルのサイズを小さくすることは、とても良い選択とは思えません。もっと良い方法は、クラスの分離性を高めること、つまり入力データを変換して競合が起きないようにすることです(例えば、気配値の表示時間間隔を長くする)。 fxclubの本「Trading - your way to financial freedom」では、グリッドに複数の気配値のペアを送信することを推奨しているのを覚えています。 そう、単層グリッドを使うデメリットがもう一つあります。このグリッドを作ってトレーニングしたい人は、BackPropやその他いろいろなものが何なのかを学ぶ必要さえないのです。つまり、古いアーキテクチャのメッシュを使うことで、近い将来、新しいアーキテクチャの有効なメッシュが作られる確率が下がってしまうのです。=) Леонид 2008.01.16 19:17 #86 一般に、金融市場でニューラルネットワークを 長く使ってきた者として言えることは、主要なことはそこに書かれていないということです。もちろん、私はニューラルネットワークをプログラミングしているわけではありません。多くのことがかかっています。そして、まさにこのアプリケーションは、この記事では説明されていません - そして、これは「金融市場におけるニューラルネットワークの応用」の主要かつ基本的なトピックの1つです。多くのことがかかっている...。..... ... でも、これは私の個人的な意見ですが......。 Сергей Мурзинов 2008.01.17 02:24 #87 LeoV: 一般に、金融市場でニューラルネットワークを 長く使ってきた者として言えることは、主要なことはそこに書かれていないということです。もちろん、私はニューラルネットワークをプログラミングしているわけではありません。多くのことがかかっています。そして、まさにこのアプリケーションは、この記事では説明されていません - そして、これは「金融市場におけるニューラルネットワークの応用」の主要かつ基本的なトピックの1つです。多くのことがかかっている...。..... ... でも、これは私の個人的な意見ですが......。 はい。 ニューラルネットワークにほんの少し関わっている者(まだ12年目)として、ニューラルネットワークに長く関わっている人に言えるのは、ニューラルネットワークをどんなタスクに応用するかは、その設計(プログラミング)と切り離せないということです。主なものは、初期データ(これは別の曲です)と、最も重要な学習アルゴリズムという2つの前提条件です。ネットワークは何でもできる。重要なのは、正しく訓練することだ。 Yury Reshetov 2008.01.17 10:36 #88 juicy_emad: PraVedNiK。 多層膜に切り替える根拠は あるのでしょうか。実は、すべてグラフィック的な意味があるのです。 まさか、多層メッシュを使った分類性能の向上に疑問を持つ人がいるとは思いもよりませんでした。=) これについては、Jan LeCunが書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは文字認識という少し変わったテーマがあります。とにかく、とにかく、単層メッシュは8.4%と最悪の結果を示しました。しかし!多層のもの(2層、隠れ層に300ニューロン)の1つは、誤差が1.6%と非常に良い結果でした。つまり、レイヤーを1つでも増やすと、メッシュはより「強力」になるのです。 その通り、まったく異なる分野であるため、アプローチも異なります。標準的なフォントの文字の輪郭は不変なので、1つの例、例えば数ページで一度学習させれば、残りの本の文字も高い精度で認識できるようになるのは理にかなっている。 金融市場に関しても、すべてが常に変化し、絶え間なく動き続ける分野です。そして、それゆえに複雑な多層膜はここで台無しになってしまうのです。文字認識の分野で大げさに例えると、本のあるページで「A」という記号が「A」と解釈されるはずなのに、次のページでは同じ「A」がすでに「B」と解釈されているようなものである。 このため、金融商品の履歴データの異なるセクションで認識される同じパターンは、取引シグナルにおいて異なる解釈が可能です。つまり、あるセクションでは、その識別はロングポジションの開始とショートポジションの終了により適しており、他のセクションでは、その逆でショートポジションの開始とロングポジションの終了が適しています。 Сергей Мурзинов 2008.01.17 10:45 #89 Reshetov: juicy_emad です。 PraVedNiK。 多層式に切り替える根拠は あるのか...? 実は、すべてグラフィック的な意味があるんです: ... 訳だ と疑問を持つ人がいるとは思いもよらなかった。 マルチレイヤーメッシュを使用した改善について の分類特性です。=) ヤン・レクン氏が書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは記号認識という少し変わったテーマがあります。 文字認識とにかく、とにかく、単層メッシュは は8.4%と最悪の結果となりました。しかし!多層のものの一つ(二層。 隠れ層に300個のニューロンを持つ)は、非常に良い結果を示した - 1.6%の誤差。つまり、1層でも追加されると、グリッドが より一層「パワフル」になりました。 その通り、これは別のテーマ領域であるため、その分 別のアプローチで標準的なフォントの文字の形は同じである。 そのため、1つの例で一度ネットワークを学習させることは理にかなっています。 を、数ページのように、ニューラルネットワークが正確にできるように を、続きの登場人物に そして、そのネットワーク(記号を認識するための)は、フォントごとに書かれているのです。それとも、どの機械も同じように印刷するのでしょうか? それとも、同じように白くて上質な紙なのでしょうか。 いいえ、それも可変のタスクです。もしすべてがお書きの通りなら、ニューラルネットワークは必要ありません。単純な比較で十分です。 Yury Reshetov 2008.01.17 14:08 #90 Sergey_Murzinov: レシェトフ juicy_emad です。 PraVedNiK。 マルチレイヤーに切り替える根拠は あるのか...? 実は、すべてグラフィック的な意味があるんです: ... 訳だ と疑問を持つ人がいるとは思いもよらなかった。 マルチレイヤーメッシュを使用した改善について の分類特性です。=) ヤン・レクン氏が書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは記号認識という少し変わったテーマがあります。 文字認識とにかく、とにかく、単層メッシュは は8.4%と最悪の結果となりました。しかし!多層のものの一つ(二層。 隠れ層に300個のニューロンを持つ)は、非常に良い結果を示した - 1.6%の誤差。つまり、1層でも追加されると、グリッドが より一層「パワフル」になりました。 その通り、対象分野が違うので、その分 別のアプローチで標準的なフォントの文字の形は同じである。 そのため、1つの例で一度ネットワークを学習させることは理にかなっています。 を、数ページのように、ニューラルネットワークが正確にできるように を、続きの登場人物に そして、(シモバーを認識するための)ネットワークは、特定のフォントごとに書かれていることです。それとも、どの機械も同じように印刷するのでしょうか? それとも、同じように白くて上質な紙なのでしょうか。 いいえ、それも可変のタスクです。もしすべてがお書きの通りなら、ニューラルネットワークは必要ありません。単純な比較で十分です。 1.書いてあるのではなく、教えているのです。 2.同じ版の本は、どの機械でも同じように印刷されます。違っていたら、それは欠陥です。 3.同じ版の場合、用紙のフォーマットは同じです:例:「フォーマット70x100 1/16」。オフセット印刷です。プリントサイズ37.4." 用紙も規格に準拠したものを使用すること。読者の視覚を損なわないように、フォントのセットもバラエティに富んだものにしない。 いずれにせよ、ポリグラフのように標準がある分野と、金融市場のように標準がない分野では、パターン認識の課題はまったく異なるし、解の誤差の確率も異なる。 もし、金融市場のパターン認識アルゴリズムが、印刷物のパターン認識アルゴリズムと同じ頻度で間違っていたとしたら、もっと簡単な説明ができる。(このままでは明らかになるので、これ以上は必要ない)。 1234567891011121314151617 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
Vinin さんは以前、NSを扱ったことがあり、チャンピオンシップではEAがNSの実装であるとまで書かれていましたね。つまり、私と比べれば、あなたは専門家なのです。この大きなテーマを理解するために、何を読めばいいのかアドバイスしてください。目的 - ネットワークの原理を理解するだけでなく、MQL5を使ってネットワークそのもの(このテーマを理解したら計画したい)とそのトレーニングに関連するインフラ全体を書けるくらい深く理解することです。
私は自分のことを専門家だとは思っていませんが、必要であればいつでもネットワークを作ることができます。
PraVedNiK。あるいは、単一ニューロンから通常のニューロンへ移行する時期なのかもしれません。ちょっと違うし、全体的に何もかもが違うんです。
パーセプトロンは2つのクラスを分ける線であり、緑のボールは「価格が上昇する可能性が高い」。
赤いのは 「Price ...Down」です。しかし、問題は、ボールが混ざってしまう雑な部分があることです。
がすべてちりばめられている。いくつかの巧妙な人々/含む - そしてこのフォーラム/、本を読んだ後
Shumsky氏らは、まさにこのような分断線をより多く作るために、多層膜に切り替えるべきだと提案するでしょう。
そのようにしてもしなくても、DiRoLnoDoLgo EAにフィルターを入れればいいのです。
高値[1]<高値[2] && 安値[1]<安値[2] && iOsMA...で、High[1]>High[2] && Low[1]>Low[2]&& iOsMA...です。,
で、この痔のこぶの2/3程度を除去し、-LEFT! 図に見る
そうすると、その後の区切り線が引きやすくなるんです。
これを少なくとも部分的に取り除くのがDiRoLnoDoLgoの 目的です。
部分的に痔を取り除く-前方-分析の結果/過去5ヶ月間/判明している。
過去5ヶ月のフォワード分析の結果は、売上総利益=+16桁、期待収益= +2桁(ほぼ)、収益性=30と、非常に良好でした。
まさか、多層メッシュを使った分類性能の向上に疑問を持つ人がいるとは思いもよりませんでした。=)
これについては、Jan LeCunが書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは文字認識という少し変わったテーマがあります。とにかく、とにかく、単層メッシュは8.4%と最悪の結果を示しました。しかし!多層のもの(2層、隠れ層に300ニューロン)の1つは、誤差が1.6%と非常に良い結果でした。つまり、1層でも追加すると、メッシュが格段に「強く」なるのです。
トレーニングサンプルのサイズを小さくすることは、とても良い選択とは思えません。もっと良い方法は、クラスの分離性を高めること、つまり入力データを変換して競合が起きないようにすることです(例えば、気配値の表示時間間隔を長くする)。 fxclubの本「Trading - your way to financial freedom」では、グリッドに複数の気配値のペアを送信することを推奨しているのを覚えています。
そう、単層グリッドを使うデメリットがもう一つあります。このグリッドを作ってトレーニングしたい人は、BackPropやその他いろいろなものが何なのかを学ぶ必要さえないのです。つまり、古いアーキテクチャのメッシュを使うことで、近い将来、新しいアーキテクチャの有効なメッシュが作られる確率が下がってしまうのです。=)
一般に、金融市場でニューラルネットワークを 長く使ってきた者として言えることは、主要なことはそこに書かれていないということです。もちろん、私はニューラルネットワークをプログラミングしているわけではありません。多くのことがかかっています。そして、まさにこのアプリケーションは、この記事では説明されていません - そして、これは「金融市場におけるニューラルネットワークの応用」の主要かつ基本的なトピックの1つです。多くのことがかかっている...。..... ...
でも、これは私の個人的な意見ですが......。
一般に、金融市場でニューラルネットワークを 長く使ってきた者として言えることは、主要なことはそこに書かれていないということです。もちろん、私はニューラルネットワークをプログラミングしているわけではありません。多くのことがかかっています。そして、まさにこのアプリケーションは、この記事では説明されていません - そして、これは「金融市場におけるニューラルネットワークの応用」の主要かつ基本的なトピックの1つです。多くのことがかかっている...。..... ...
でも、これは私の個人的な意見ですが......。
はい。
ニューラルネットワークにほんの少し関わっている者(まだ12年目)として、ニューラルネットワークに長く関わっている人に言えるのは、ニューラルネットワークをどんなタスクに応用するかは、その設計(プログラミング)と切り離せないということです。主なものは、初期データ(これは別の曲です)と、最も重要な学習アルゴリズムという2つの前提条件です。ネットワークは何でもできる。重要なのは、正しく訓練することだ。
まさか、多層メッシュを使った分類性能の向上に疑問を持つ人がいるとは思いもよりませんでした。=)
これについては、Jan LeCunが書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは文字認識という少し変わったテーマがあります。とにかく、とにかく、単層メッシュは8.4%と最悪の結果を示しました。しかし!多層のもの(2層、隠れ層に300ニューロン)の1つは、誤差が1.6%と非常に良い結果でした。つまり、レイヤーを1つでも増やすと、メッシュはより「強力」になるのです。
その通り、まったく異なる分野であるため、アプローチも異なります。標準的なフォントの文字の輪郭は不変なので、1つの例、例えば数ページで一度学習させれば、残りの本の文字も高い精度で認識できるようになるのは理にかなっている。
金融市場に関しても、すべてが常に変化し、絶え間なく動き続ける分野です。そして、それゆえに複雑な多層膜はここで台無しになってしまうのです。文字認識の分野で大げさに例えると、本のあるページで「A」という記号が「A」と解釈されるはずなのに、次のページでは同じ「A」がすでに「B」と解釈されているようなものである。
このため、金融商品の履歴データの異なるセクションで認識される同じパターンは、取引シグナルにおいて異なる解釈が可能です。つまり、あるセクションでは、その識別はロングポジションの開始とショートポジションの終了により適しており、他のセクションでは、その逆でショートポジションの開始とロングポジションの終了が適しています。
訳だ
と疑問を持つ人がいるとは思いもよらなかった。
マルチレイヤーメッシュを使用した改善について
の分類特性です。=)
ヤン・レクン氏が書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは記号認識という少し変わったテーマがあります。
文字認識とにかく、とにかく、単層メッシュは
は8.4%と最悪の結果となりました。しかし!多層のものの一つ(二層。
隠れ層に300個のニューロンを持つ)は、非常に良い結果を示した
- 1.6%の誤差。つまり、1層でも追加されると、グリッドが
より一層「パワフル」になりました。
その通り、これは別のテーマ領域であるため、その分
別のアプローチで標準的なフォントの文字の形は同じである。
そのため、1つの例で一度ネットワークを学習させることは理にかなっています。
を、数ページのように、ニューラルネットワークが正確にできるように
を、続きの登場人物に
それとも、同じように白くて上質な紙なのでしょうか。
いいえ、それも可変のタスクです。もしすべてがお書きの通りなら、ニューラルネットワークは必要ありません。単純な比較で十分です。
訳だ
と疑問を持つ人がいるとは思いもよらなかった。
マルチレイヤーメッシュを使用した改善について
の分類特性です。=)
ヤン・レクン氏が書いているものを読むことをお勧めします。http://yann.lecun.com/exdb/mnist/index.html。 しかし、そこでは記号認識という少し変わったテーマがあります。
文字認識とにかく、とにかく、単層メッシュは
は8.4%と最悪の結果となりました。しかし!多層のものの一つ(二層。
隠れ層に300個のニューロンを持つ)は、非常に良い結果を示した
- 1.6%の誤差。つまり、1層でも追加されると、グリッドが
より一層「パワフル」になりました。
その通り、対象分野が違うので、その分
別のアプローチで標準的なフォントの文字の形は同じである。
そのため、1つの例で一度ネットワークを学習させることは理にかなっています。
を、数ページのように、ニューラルネットワークが正確にできるように
を、続きの登場人物に
それとも、同じように白くて上質な紙なのでしょうか。
いいえ、それも可変のタスクです。もしすべてがお書きの通りなら、ニューラルネットワークは必要ありません。単純な比較で十分です。
2.同じ版の本は、どの機械でも同じように印刷されます。違っていたら、それは欠陥です。
3.同じ版の場合、用紙のフォーマットは同じです:例:「フォーマット70x100 1/16」。オフセット印刷です。プリントサイズ37.4." 用紙も規格に準拠したものを使用すること。読者の視覚を損なわないように、フォントのセットもバラエティに富んだものにしない。
いずれにせよ、ポリグラフのように標準がある分野と、金融市場のように標準がない分野では、パターン認識の課題はまったく異なるし、解の誤差の確率も異なる。
もし、金融市場のパターン認識アルゴリズムが、印刷物のパターン認識アルゴリズムと同じ頻度で間違っていたとしたら、もっと簡単な説明ができる。(このままでは明らかになるので、これ以上は必要ない)。