トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 992

 
マキシム・ドミトリエフスキー

私たちは何も偽らない、それが面白さなのです、念のため。

そうなんですか?考えてみれば、自分の書き込みを読んであげる?まあ、マキシムよりカッコいいのは卵だけなんですけどね)。
 
ユーリイ・アサウレンコ
そうなんですか?と思えば、読むべきあなたの投稿?まあ、マキシムよりカッコいいのは卵だけなんですけどね。

まあ概要はこんなもんでしょう、気取らずに適当に反応してるんです。

私があなたにした質問は、すべて極めて論理的なものでした。

 
マキシム・ドミトリエフスキー

まあそれは概要で、気取った寛容さを持たずに適当に反応してるだけなんだけどね。

私があなたにした質問は、すべて極めて論理的なものでした。

主婦を数えて仕事をするよりも、親愛なる友よ、自分自身に目を向ける方が良いのではないでしょうか?))
 
ユーリイ・アサウレンコ
主婦を数えて仕事をするよりも、親愛なる友よ、自分自身に目を向けたほうがいいのではないか?))

ちょうど、妥当性に関するメッセージのために、良い諺を

 
マキシム・ドミトリエフスキー

せっかくだからいい諺を

先ほど、マキシムよりカッコいいのは卵だけと言いましたが。)) プロクはないですが、問題ありません。ここにいる人にはほとんど用はないのです))全ては空から空への達人です))
マキシム、1位にもなれないのか))第2位))

 
こんにちは。

NSを履歴でトレーニングするには、私のPCではパワーが足りません。

全データを多段配列にして学習を開始すると、端末がハングアップしてしまいます。

量子コンピュータが必要です。
 
ユーリイ・アサウレンコ
そして、TC構築の一般原則を隠しているわけではありません。合理的な範囲内で。A_K2が教えてくれたのですが、もう半年も萌え続けています)。

由利さん、もう一度言いますが、原理は正しいです。

でもね、その、クールなアイデアも、今の私のようにシグナル(パスポートなど)がなかったり、ネガティブだったりすると、人からの反応は得られないんです。私の例で言うと、ポジティブバランスが取れていないような気がします。いや~、誰も興味ないですよね。

このテーマも同様です。

まあ、「空のエクイティ」など誰も持っていないわけで、それだけですぐにテーマが通俗化し、面白みがなくなる。

結論は、すべての被写体に「信号を持つ人間」がいなければならないということだ。ポジティブな1枚!そして、人生が始まる。

私たちはこの人を待っているのです。私たちは希望し、信じています。

 
アレクサンドル・イワノフ
こんにちは。

NSを履歴でトレーニングするには、私のPCではパワーが足りません。
全データを多段配列にして学習を開始すると、端末がハングアップしてしまいます。
量子コンピュータが必要です。

さて、まず、NSにゴミを詰め込まないこと(何でもかんでも詰め込むのはよくない)。

第二に、新しい「t-sne」からPCA、フーリエ変換、ウェーブレットなど、多くの次元データ削減アルゴリズムが存在します。彼らの力を借りれば、100点満点のうち5点をnsで入力しても、ほぼ同じクオリティにすることができます。

 
mytarmailS:

まあまず、NSにゴミを詰まらせないこと(何でもかんでも頭に突っ込む必要はない)。

次に、データの次元削減のためのアルゴリズムとして、「PCA」、フーリエ変換、ウェーブレットなど、新しい「t-sne」から多くのものがあります。彼らの力を借りれば、100nsの入力を5倍にして、ほぼ同じ品質で作ることができます。

上記はいずれも諸事情により対象外です。ツネを試されましたか?私の質問は修辞的なものです。

ベイズPCA、Autoencoder、varbvsパッケージ、そしてbounceRパッケージが最も適していると思います。

もちろん、もっと簡単な方法があり、そのすべてがこのサイトの記事で詳しく説明されています。

グッドラック

 
ウラジミール・ペレヴェンコ

挙げたものはすべて、さまざまな理由で適用できないものばかりです。ツネを使ってみましたか?という問いかけは、レトリックです。

ベイズPCA、Autoencoder、varbvsパッケージ、そして最近ではbounceRパッケージが最も適していると考えています。

もちろん、もっと簡単な方法があり、そのすべてがこのサイトの記事で詳しく説明されています。

グッドラック

該当しない理由

なぜ修辞的なのか

理由: