記事「ニューラルネットワークが簡単に(第24部):転移学習用ツールの改善」についてのディスカッション

 

新しい記事「ニューラルネットワークが簡単に(第24部):転移学習用ツールの改善」はパブリッシュされました:

前回の記事では、ニューラルネットワークのアーキテクチャを作成および編集するためのツールを作成しました。今日はこのツールでの作業を続けて、より使いやすくします。これは、私たちのトピックから一歩離れていると思われるかもしれませんが、うまく整理されたワークスペースは、結果を達成する上で重要な役割を果たすと思われないでしょうか。

当連載の前回の記事では、転移学習テクノロジーを利用するツールを作成しました。作業の結果、すでに訓練済みのモデルを編集できるツールを手に入れました。このツールを使用すると、事前訓練したモデルから任意の数のニューラル層を取得できます。もちろん、制限条件はあり、取得できるのは最初のデータ層から始まる連続した層のみです。このアプローチの理由は、モデルの訓練時に使用されるものと同様の初期データのみでうまく機能するというニューラルネットワークの性質にあります。

さらに、作成されたツールは訓練済みのモデルを編集できるだけではありません。完全に新しいものを作成することもできます。これにより、プログラムコードでモデルアーキテクチャを記述する必要がなくなり、ツールを使用してモデルを記述するだけで済みます。次に、作成したニューラルネットワークをファイルからアップロードすることで、モデルを追跡して使用します。これにより、プログラムコードを変更することなく、さまざまなアーキテクチャを試すことができます。プログラムの再コンパイルさえ必要ありません。モデルファイルを変更するだけです。

このような便利なツールは、できるだけ使いやすいべきです。したがって、この記事では、その使いやすさを改善しようとします。

作者: Dmitriy Gizlyk

 
ニューラルネットワークは単純 である(500988939928177231827361823461827631827361827361827361284762834762834762の一部)。最後の部分を読む頃には、あなたは89歳になっている可能性が高く、ニューラルネットワークはもはや関係ないだろう。
そして真面目な話、「ニューラルネットワークは単純だ」というのは、この長さの記事がせいぜい2つある場合だ。mt5がハングアップして、もう1年も「neural networks are simple 」という記事の通知を受け取っていると思うと、そうは思えない。
 
Dmitry Iglakov #:
ニューラルネットワークは単純 である(500988939928177231827361823461827631827361827361827361284762834762834762の一部)。最後の部分を読む頃には、あなたは89歳になっている可能性が高く、ニューラルネットワークはもはや関係ないだろう。 そして真面目な話、「ニューラルネットワークは単純だ」というのは、このサイズの記事がせいぜい2つある場合だ。mt5がハングアップして、もう1年も
「ニューラルネットワークは シンプル だ」という記事の通知が来ていると思うと、そうは思えない。

Neural Networks are Simple "のアイデアは、誰にでもアクセスできる技術を紹介することだ。そう、このシリーズはかなり長い。しかし、実用的な使い方は2回目の記事から読者に提供される。そして、個別の記事ごとに新たな可能性が語られている。そして、記事を読んだ後すぐにそれらを開発に取り入れることも可能だ。それを使うかどうかは、読者それぞれの個人的な問題である。次の記事を待つ必要はない。トピックのボリュームについては、科学は発展しており、日々新しいアルゴリズムが登場していると言える。その応用がトレードで実を結ぶ可能性は十分にある。

 
UFOが飛来し、この記事を掲載した。

そして、このシリーズの各記事についても言えることがある。トピックに潜れば潜るほど、このような記事の深さと価値に気づく。初心者に大切なのは、記事の中にバランスの成長を示す美しいグラフが出てこないからといって諦めないことだ。著者はそれをスムーズに導いてくれる。

Dmitry ありがとう。
 
前回のモデルを読み込むと、いつも「ファイルが破損しています」と表示されます。