記事「データサイエンスと機械学習(第02回):ロジスティック回帰」についてのディスカッション 新しいコメント MetaQuotes 2022.08.04 17:06 新しい記事「データサイエンスと機械学習(第02回):ロジスティック回帰」はパブリッシュされました: データ分類は、アルゴトレーダーとプログラマーにとって非常に重要なものです。この記事では、「はい」と「いいえ」、上と下、買いと売りを識別するのに役立つ可能性のある分類ロジスティックアルゴリズムの1つに焦点を当てます。 線形モデルはロジスティック関数「(sigmoid/p) =1/1+e^t」に渡されます。ここで、tは線形モデルであり、結果は0~1の値です。これは、データポイントがクラスに属する確率を表します。 線形モデルのyを従属として使用する代わりに、その関数は「p」が従属として使用されるように示されます。 p = 1/1+e^-(c+m1x1+m2x2+....+mnxn) 、複数の値の場合 前述のように、シグモイド曲線は無限大の値をバイナリ形式(0または1)の出力に変換することを目的としています。しかし、0.8にデータポイントがある場合、値が0であるか1であるかはどのように判断できるでしょうか。ここで役立つのがしきい値です。 しきい値は勝ち負けの確率を示し、0.5(0と1の中心)にあります。 0.5以上の値は1に丸められるため、勝者と見なされます。0.5未満の値は0に丸められるため、敗者と見なされます。この時点で線形とロジスティック回帰の違いがわかります。 作者: Omega J Msigwa 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
新しい記事「データサイエンスと機械学習(第02回):ロジスティック回帰」はパブリッシュされました:
データ分類は、アルゴトレーダーとプログラマーにとって非常に重要なものです。この記事では、「はい」と「いいえ」、上と下、買いと売りを識別するのに役立つ可能性のある分類ロジスティックアルゴリズムの1つに焦点を当てます。
線形モデルはロジスティック関数「(sigmoid/p) =1/1+e^t」に渡されます。ここで、tは線形モデルであり、結果は0~1の値です。これは、データポイントがクラスに属する確率を表します。
線形モデルのyを従属として使用する代わりに、その関数は「p」が従属として使用されるように示されます。
p = 1/1+e^-(c+m1x1+m2x2+....+mnxn) 、複数の値の場合
前述のように、シグモイド曲線は無限大の値をバイナリ形式(0または1)の出力に変換することを目的としています。しかし、0.8にデータポイントがある場合、値が0であるか1であるかはどのように判断できるでしょうか。ここで役立つのがしきい値です。
しきい値は勝ち負けの確率を示し、0.5(0と1の中心)にあります。
0.5以上の値は1に丸められるため、勝者と見なされます。0.5未満の値は0に丸められるため、敗者と見なされます。この時点で線形とロジスティック回帰の違いがわかります。
作者: Omega J Msigwa