If the target type is not binary, then every object with target value and weight is replaced with two objects for the metric calculation: Target values must be in the range [0; 1]. If the target type is not binary...
def test_models(result):
pr_tst = get_prices(FULL_DATE, STOP_DATE)
X = pr_tst[pr_tst.columns[1:]]
X.columns = [''] * len(X.columns)
#test the learned model
p = 0for i in range(len(result)):
p += result[i][2].predict_proba(X)
p = p/len(result)
p2 = [x[0]<0.5for x in p]
pr2 = pr_tst.iloc[:len(p2)].copy()
pr2['labels'] = p2
R2 = tester(pr2, MARKUP, plot=True)
test_models(res)
どれですか?
F1、MCCの方が良さそうだ。
全リストはこちら
https://catboost.ai/docs/concepts/loss-functions-classification.html
F1、MCCの方が良いようだ
全リストはこちら
https://catboost.ai/docs/concepts/loss-functions-classification.html
もう一度言う。
まあ、そうだね。
もう少し積み重ねる。ああ、積み重ねることは意味がある。どの程度かはまだ未解決だけどね。
素晴らしい記事と巨人の仕事!
混合モデルに入力する前に、データセットの方向が変わった後に立っているラベルを削除した。
観察によると、より多くのモデルが良い結果を出している。
testerとterminalのベストテストの結果:
一般的に、美しい作品だ。私はこれを使ってすべてのターゲットをテストし、ゴミ箱に捨てました)))
素晴らしい記事であり、至難の業だ!
混合モデルに入力する前に、データセットの方向が変わった後に立っているラベルを削除した。
観察によると、より多くのモデルが肯定的な結果を得ている。
テスターと端末での最良のテスト結果:
一般的に、美しい仕事です。このテスターの助けを借りて、ターゲットにしたものをすべてチェックし、ゴミ箱に捨てました)))
はい、クラスタリングの前に落とすことができます
フィードバックをありがとう :)
Z.Ы一度にすべてのモデルをテストすることができます、平均。プレー。すべてのモデルのためのパーサーはまだ作られていません、まだ疑問です。しかし、時にはいくつかのモデルのアンサンブルは本当に改善されます。
ZYZY.テーマの発展として、同じメトリックR2によって訓練されたモデルの異なる組み合わせの列挙を行うことができます。そして最良のアンサンブルを維持する。モデルが多ければ、遺伝学でも可能だ。私は2015年から2020年までのEURUSDのH1データを取り、3つのセットに分けました:
私は自分のコードを再チェックしましたが、何か間違っているかもしれません。いずれにせよ、この結果について何かおわかりになるかもしれません。よろしく、Rasoul
私は2015年から2020年までのEURUSDのH1データを取り、3つのセットに分けました:
自分のコードを再チェックしたが、何か間違っているかもしれない。いずれにせよ、この結果について何かお分かりになるかもしれません。よろしく、Rasoul
csvファイルでデータをアップロードする方法を教えてください。
この方法で試してみましたが、読み込まれませんでした。
ファイルの形式は
時間,終値
2020,11,15,1.3587
2020,11,16,1.3472
csvファイルでデータをアップロードする方法を教えてください。
pr = pd.read_csv('pr.csv', sep=';')つまり、ターミナルからデータをロードし、ファイルに保存する例です。そして、それをcolab
こんにちは、Rasoul。トレーニングセットのサイズを小さくしてみてください。様々な設定によりますが、重要なコツは、学習サイズを小さくすることで、新しいデータに対する汎化がより良くなることです。次回はこの効果について説明しようと思います。
それはいいね。この論文の適用範囲について、特に異なるIOメソッドへの適用について、記事に書いてもらえるとうれしい。なぜかNSには70/30を推奨している。そして論理的には、IMHOは50/50の方がより安定した結果が得られるはずだ。
これは良いことだ。この論文の適用範囲、特にMOの異なる手法への適用範囲について、記事中に言及してもらえるとうれしい。なぜかNSでは70/30が推奨されている。そして論理的には、IMHOは50/50の方がより安定した結果が得られるはずだと考えている。
能動的学習と受動的学習がある。受動的学習とは、データを手作業でマークアップ し、それに基づいてトレーニングすることである。この場合、データはたくさんあるはずだが、正しいマークアップの問題がある。つまり、"教師 "はデータをマークアップし、従来通り、同じ分布からデータを抽出し、うまく汎化できるようにしなければならない。この点では、訓練生の何割がテストを受けてもほとんど違いはない。それは単なるモデル・チェックであり、データを手動でどれだけうまくラベリングできたかのチェックなのだ。
能動学習では、モデルは最適な方法でデータをマークアップするように学習する。この記事は、まさにそのようなGMMによる分割のケースである。つまり、教師ありの学習と教師なしの学習の両方が使われる。この場合、モデルは小さく分割されたデータで学習し、残りのデータ自体を最適な方法で分割しなければならない。これは比較的新しいアプローチである(2017年頃から)。次の記事で詳しく見てみたい。
文章中に「データ」が多すぎる。)