記事"機械学習モデルの評価と変数の選択"についてのディスカッション - ページ 5

 
Vladimir Perervenko:

数字(-1、1(0))を説明する簡単な図面を描く ?

記事をよく読んでください?そして、その隣?とZZの使い方がわからない?

多分翻訳がよくないですか?

あなたのコメントをより正確に指定し、英語を向上させることができますか?


ZigZag このシーケンスは予測する必要は全くない。もしlag(ZigZag)=-1がわかっているなら、ZigZagは1でなければならない。

ラグ(ZigZag)はすべて過去に発生したもので、ジグザグを100%正確に予測することができます。100%正確に

ジグザグが-1か1かを予測できる。

しかし、リアルタイムではジグザグ点を知ることができないので、第3の状態(0)を計算しなければならない。

https://www.mql5.com/ja/articles/2773。

运用人工智能实现的 Thomas DeMark 次序 (TD SEQUENTIAL)
运用人工智能实现的 Thomas DeMark 次序 (TD SEQUENTIAL)
  • 2017.06.19
  • Mihail Marchukajtes
  • www.mql5.com
首先, 我们设定一个神经网络不能自行完成交易。这便是, 如果有一个神经网络, 并为它提供无限量的价格数据, 指标和其它他美味佳肴 — 获得永无终止的结果, 所以这个想法可以立即被丢弃。神经网络只能从侧面为策略 "服务": 协助制订决策, 过滤, 预测。能体现出一个完整策略的神经网络是无稽之谈 (至少我个人从未见过)。 首先, 用几句话来概括策略。次序是逆势策略。其中出现的信号不依赖于彼此。换言之, 可以在一行里收到买卖信号, 这令次序的使用极大地复杂化。就像任何其它策略一样, 它会产生假信号, 我们将要找出来。作者本人很好地描述了基于次序生成信号的原理。他的解释在这里稍作修改。仅应用了策略的第一部分, 使用 设置 和 交汇 信号。选择它们出于两个原因: 一是这些信号位于顶部和底部...
 
望ましい
 
2935071411 :
こんにちは

こんにちは。

ZZは本当に最後のバー(最後の頂点)で定義されていません。 ニューラル・ネットワークのトレーニングは最後の300本のバーがない ZZ値で行われます ZZが定義されているこれらのバーで。

スクリプトを注意深く見て、結論を急がないでください。 バカを見る可能性があります。

スクリプトを注意深く見て、結論を急がないこと。

 

リアルタイムで「直近300バー抜き」を 使うのか!

リアルタイムで使えるのか?


あなたの記事はすべて間違っています。なぜなら、あなたのターゲット定義が間違っているからです。あなたの指摘に従えば、300小節後にシンガルが起こるので、リアルタイムではすべて機能しません。

あなたの指摘に従えば、300小節後にシンガルが発生します。

 
freewalk:

リアルタイムで「直近300バー抜き」を 使うのか!

リアルタイムで使えるのか?


あなたの記事はすべて間違っています。なぜなら、あなたのターゲット定義が間違っているからです。あなたの指摘に従えば、300小節後にシンガルが起こるので、リアルタイムではすべて機能しません。

あなたの指摘に従えば、シンガルは300小節後に起こるでしょう。


あなたは著者のビジョンを本当に理解していないし、自分の想像に甘すぎるし、あなたの言っていることの愚かさは、自分自身に重ね合わされているだけだ。


ウラジーミル・ペレヴェンコへ:素晴らしい記事をありがとうフリーウォーク」のこのバカげたこと、すべての中国人が彼を好きなわけではない。

 
Vladimir Perervenko:
次のブランチでお答えします。

こんにちは、ウラジミール、


この質問に関するあなたの回答は見つかりませんでした。また、Digの値が何なのかもわかりません!

 
hzmarrou :


親愛なる皆さん、


ZZ関数の 変数で 定義されている--Dig--は何を意味するのか、どなたか教えてください。もしそうなら、この定数の値はどうすればいいのでしょうか?

Dig--小数点以下の桁数。たぶん5か3。

返信が遅れて申し訳ない。質問を見ていませんでした。議論は多くの枝に散らばっている。私はそれを追跡する時間がありません。

すみません。

 

この記事はボリュームがあり、労をねぎらった。

しかし、疑問がある:

1.各バーにラベル付けされた選択されたターゲットで層別化を使っている。代表的でない2つのサンプルを混合すると、通常、結果が改善されるが、それは歪む。

2- 構築されたモデルに基づく特徴選択、特に最初の分割ランダムと貪欲法を考慮すると、モデル構築法のための特徴削減法である。貪欲な方法は常に正しく安定しているとは限りません。この場合、少なくとも異なるサブサンプルを使用する必要があるでしょう。

2番目の方法は最後まで理解できませんでした。ランダムな最初の予測因子と同じで、それからリーフを構築しようとするのでしょうか、それともツリーを構築して最良のリーフを残し、それを評価に使用するのでしょうか?