MTSにおける人工知能の活用 - ページ 8

 

2 SergNF。

南極並みに話題から遠ざかっている。eugenkの投稿に釣られただけで、誰も支持していない。そして、エキスパートを見てみようと思った時、とても長く、AIがどこにあるのか、どう教えたらいいのか、緊張してしまいました。:-))

でも、初歩的な質問でも手に負えなくなると、我慢できずに邪魔をしてしまうんです。:-)

ここの技術は、残念ながらほとんど議論されていない。ほとんどが専門家だけです。しかし、その技術は確かに面白い。考える材料を得た。だから、このトピックは私にとってとても有益なものだった。

このビーズは薄いものなので、FXに応用することはできません。:-)))

 
もう見てられない。すべてナンセンスです。ぶっちゃけてすみません。 SergNFさん、ビーズってどこで手に入るんですか?
 
SergNF:

好きなインディケータ(外部であればiCustomで)を使って、その値を一定量(将来どのくらい予測したいか)BACKでファイルに出力し、オプションとして、「最初のバーで」Close/High/Low、またはこの間隔のHighest/Lowestを出力するものです。http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm の記事を並行して読むことで、分析し、応用を考えることができます。
SergNFさん、リンクありがとうございます。私も1年以上前にNSに手を出しました(TradingSolutionsで、どちらかというと直接的に):Jordan-Elmanネットワークを使って、1日先の高値・安値を予測しようとし、入り口に異なるMAを取り付けました。もちろん、原始的なものですが、ここで、何十種類もの非常に変わった不思議なMAを構築してきた自分にとって、多くの有益な結論を得ることができました...。

当時はニューラルネットワークの分類やコホネンマップなど考えもせず、NSはあまり意味がないと早合点してしまい、その後GAで実験するようになったのです。私は、NSに聖杯を求める多くのトレーダーが、真剣に勉強することなく歩んできた典型だと思います。これで、エリオット的に言えば、NSとの付き合い方の第1波(真剣な訓練なしの試行的な一方的な攻撃)と第2波(深い冷却)の段階を無事通過したと言えそうです。そろそろサードウェーブの時期か、へぇ〜。
 
sashken:
Pyh wrote:

追伸:Yurixxさんの意見に賛成です。専門家は非常に好奇心が強いと認めるべきだが、無礼は許されない。
あなたは私を納得させることができません。テストがバーのオープニング価格によって行われることは非常によく理解しています、しかし!?それはバーを開き、我々は(このEAのために)ちょうど開いたバーのAC値を含む4つのポイントでのAC値を見つける必要があります。バーのクロージャーのみで形成される場合、どこでACを得るのでしょうか?

あなた自身がバーが開いたと書いているのですから、バーの始値があるのです。それは(バーのオープン価格)バー形成中に変更されません(高、低、およびクローズを変更することがありますが、オープン - いいえ、バーがすでに開いているため)。 晴れていればいいのですが:)

それは、彼らにとっては明確なものではありません。Volume[0] == 1(つまり新しいバーの最初のティック)のとき、Сlose[0] == Open[0] == High[0] = Low[0] 、つまり最後のバーの終値が すでに形成されており、バーが閉じるまでティックで異なることに多くの人が気づいていません。そして、この非常に初歩的な無教養と、本来「適合」するはずのテストの質についての主張から。

運命に不満を持つラマーズたちの額に、消えないペンキで(もっといいのは、焼きごてで)こう書けばいいのだ。"Slose[0]は端末に来た最後のティックのBidであり、ストラテジーテスターのテレパシー能力ではない"。
 
eugenk1:
みんな、レシェトフがやったことはとても興味深いと思うよ。もちろん、人工知能があるわけではありません。AIは、少なくともニューラルネットワーク、少なくとも線形フィルタの適応とトレーニングを必要とします。しかし、私はむしろ指標の集団行動について語るべきだと考えています。それぞれに重要度や有用度を反映したウェイトが設定されています。そして、重みのある「投票」-「集計」があります。唯一、パラメータのあらゆる組み合わせを考慮し、4つの指標ではなく、14のパラメータを取ります。この方法で、本当の意味でのアダプティブ・システムを構築することが可能だと思います。正規化した(上に書いた)指標を仮想取引でそれぞれの質を推定するのです。嘘をついているトレーダーは、ウェイトが減って罰せられ(最大でマイナス、つまり「私のシグナルを正確に反対方向に解釈しなさい」という意味)、逆にうまく機能しているトレーダーはウェイトが増えて報われるのです。それにしても、このシステムは本当にインテリジェントと呼ぶにふさわしい......。4つのシンボルの代わりに10個のシンボルを取ると、すべての可能な組み合わせの数は1023になります。このような山を解析できる人間の頭脳がどこにあるのか!そして、このシステムは...
この方法は適応型と呼ばれるが、古典的な学習アルゴリズムは全く異なるものである。
  • neuronkaが嘘をついた場合、それは「スタブ」であり、iで示されるすべての入力に対してw[i] i=a[i]である。
  • が正解の場合、そのニューロンは「ニンジン」を得る:i で示されるすべての入力に対して w[i] += a[i] 。
そして、嘘がないかどうかチェックされ、また嘘をついたら、嘘をやめるまで、また素っ裸のお尻を「鞭」で叩かれるのです。
名前は忘れたが、このアルゴリズムには収束性があること、つまり遅かれ早かれ分離平面の許容できる方程式が見つかることを証明する定理もあるが、その場合は識別可能なオブジェクトがこれらのオブジェクトの特徴空間において線形分離可能である場合のみとされている。

しかし、買いと売りによる識別は線形分離可能ではないので、古典的な学習アルゴリズムでパルスを走らせても、ニューラルネットワークはエラーを起こします。
 
それでも、もしプログラム自身が開閉のタイミングを決めるのであれば、それは定義上、人工知能を持っていると言えるでしょう。
そして、Expert Advisorの最適 化のプロセスが、このシステムのトレーニングになるのです。
 
Itso:
それでも、もしプログラム自身が開閉のタイミングを決めるのであれば、それは定義上、人工知能を持っていると言えるでしょう。
そして、Expert Advisorの最適化のプロセスが、このシステムのトレーニングになるのです。
トレーダーがいつどこでオープンし、いつクローズするかを決めたとしても、それは知性があることを意味しない。 知恵遅れは、ボタンを押すように訓練することができる。しかし、このバカがボタンを押すという判断は、トレーディングの観点からは知的ではなく、主観的なものになる(例えば、ボタンの色が主観的に魅力的に判断されるのであって、株式価値ではない)。
 
Mathemat писал (а):
私は1年以上前にNSに手を出しました(TradingSolutionsで、かなり単純な方法で):ジョーダン-エルマンネットワークを使って、異なるMAを入力に送り込み、1日先のハイ・ローを予測しようとしました。

その通り、私はただニューロンをいじっていただけなんです。ニューラルネットワークは、識別には適しているが、外挿には絶対に適さない」、つまり、どの期間の値も予測できない、結果はプラスマイナス数キロメートルになってしまう、という数学的に根拠のある事実を、真剣に取り組んでいれば知っていたはずです。しかし、多くの場合、どのオブジェクトがどのクラスに属しているかを、一定の信頼性をもって識別することが可能である。

例えば、指標やオシレーターの値から、最も儲かるポーズ(買いか売りか)を探ってみるのである。そして、タスクが特定されているので、うまくいくかもしれません。しかし、ニューロニクスを使って、これらのポーズの利食い位置を計算しようとすると、テストでは成功するかもしれませんが、サンプル外では、利食い値は外挿であるため、成功する可能性は低いのです。

簡単に言うと、テレビでコンクリートの壁に釘を打とうとしていたんですね。

パーセプトロンプロジェクト終了後に得られた結果をもとに作成された、より詳細な結論や数学的計算は、本書で読むことができます。

Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

の翻訳が可能です。

ミンスキー・M.・パパート・S.著「ペルセトロン」:ミール社,1971年。- с. 261

子供たちよ、ふざける前に、そして、ふざけた結果に基づいて重要な結論を公表する前に、まず、このテーマに関する資料を勉強してみることである。第一に、害がないこと、第二に、誰もがとっくに知っているレーキを踏まずにすむことです。
 
Reshetov писал (а):
Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

の翻訳が可能です。

ミンスキー・M.・パパート・S.著「ペルセトロン」:ミール社,1971年。- с. 261

子供たちよ、ふざける前に、そして、ふざけた結果に基づいて重要な結論を公表する前に、まず、このテーマに関する資料を勉強してみることである。第一に、害がないこと、第二に、誰もが昔から知っているレーキを踏まずにすむことです。
ソースをご指摘いただきありがとうございます。また,ニューロの妥当性については,現在も進行中であり,あなたがニューロは内挿タスクには使えないと断定しているにもかかわらず,それを主張しています(レシェトフ,正確には内挿 であって外挿ではない,線形分離可能性についてあれほど賢明に語っているのなら,間違いなく知っているはずですが...).ところで、私の記憶違いでなければ、パーセプトロンによる線形非分離問題(例えばXOR)の解けないというミンスキーの定理は、ニューロへの関心を本当に冷え込ませました-ただし、彼らが多層ネットワークを考えるまでですが-)。
 
Mathemat:
Reshetov:
Minsky, M and Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

available translation:

Minsky M., Papert S. Perseptrons: パーセプトロン.- с.

諸君に忠告しておくが、戯れる前に、そして戯れから公的に重要な結論を導き出す前に、まずこのテーマに関する入手可能な文献に親しんでおくことだ。第一に、痛くないこと、第二に、熊手を踏まずにすむことです。
ソースをご指摘いただきありがとうございます。マトリックスについては、実は私もニューロ予測に関する出版物を通じてよく知っています。このような出版物はまだ進行中であり、ニューロが補間問題に適さないというあなたの断定的な判断にもかかわらず、ニューロの妥当性を主張さえしています(レシェトフ、まさに補間 あって外挿ではない。線形分離可能性についてそんなに賢明な推論をするならば、確実に知っておくべきことですが・・)。ところで、私の記憶違いでなければ、パーセプトロンによる線形非分離問題(例えばXOR)の解けないというミンスキーの定理は、ニューロへの関心を本当に冷え込ませた-ただし、多層ネットワークが発明されるまで)
記事は記事でも、幾何学的な感覚はどこにも行きません。そして、線形 分離可能の条件下で、ハエとカツの座標(特徴量)が線形平面でわかっていれば、線形フィルタによって ハエとカツを分離することができるということです。しかし、逆問題、つまり、ニューロンケに物体の名前をつけて、その座標を調べるという解決策はないのです。物体について分かるのは、分離面のどちら側にあるかということだけです。したがって、内挿・外挿は論外です。