機械学習とニューラルネットワーク

 

MQL5が、機械学習をはじめとするさまざまな計算タスクで使用される行列とベクトルの演算をサポートするようになりました。皆様のお役に立てるような資料を選びて共有するために、このスレッドを作成しました。機械学習技術は、ニューラルネットワークに基づいています。

ニューラルネットワークとは、人間の脳の活動を模倣しようとする数学的モデルであり、相互に接続されたノードで構成され、互いに信号を送信し、その信号に基づいて意思決定をおこないます。

機械学習の過程で、コンピュータはデータを利用して、新しいデータを使って結果を予測するモデルを訓練します。機械学習は、医療、ビジネス、材料科学など、さまざまな分野で応用されています。

深層学習(ディープラーニング)とは、機械学習の一分野であり、多層ニューラルネットワークを用いてデータ処理の問題を解決するものです。深層学習モデルは、高い精度でデータを探索し、従来の機械学習アルゴリズムでは通常困難な、複雑な階層構造から自動的に特徴を抽出することができます。

ディープニューラルネットワークは、通常、入力データを順次処理する複数の層で構成されています。各層は、データを処理し、その結果を次の層に転送するニューロンの集合です。モデル訓練の考え方は、訓練データセットの誤差を最小化するために、ニューラル層間の接続の重みを調整するということです。ディープニューラルネットワークの訓練に最も広く使われている方法の1つがバックプロパゲーション(誤差逆伝播)です。このアルゴリズムにより、異なる層で使用する重みの変化がモデルの誤差にどのように影響するかを判断し、その情報をもとに勾配降下に基づく重みの調整をおこなうことができます。

深層学習は、 ロジスティック回帰や決定木のような古典的な機械学習手法と比較して、より精度の高いモデルを作成することが可能です。ただし、学習には大規模なデータセットと膨大な計算資源が必要であり、分野によってはこれが問題となることがあります。

深層学習は、コンピュータビジョン、自然言語処理、音声処理、レコメンダーシステムなど、さまざまな分野で応用されています。近年、深層学習は画像認識や自然言語処理の問題で圧倒的な成果を上げています。

このスレッドでは、これらの技術の仕組みを理解するのに役立つビデオを紹介します。


MQL5のドキュメンテーション: 行列とベクトルのメソッド
MQL5のドキュメンテーション: 行列とベクトルのメソッド
  • www.mql5.com
行列とベクトルのメソッド - MQL5 リファレンス - MetaTrader 5 のためのアルゴリズムの/自動化されたトレーディング言語のリファレンス
 

1. ディープラーニング革命



ディープラーニング革命

この短いビデオでは、超人的な能力の実現、新素材の発見、希少資源の節約における人工知能 (AI) の革新的な役割に焦点を当てています。

これらの技術により、視覚障害のある人が顔を認識してテキストを読むことができるようになり、目の不自由な人が子供たちに読み聞かせをするのにも役立ちます。自動運転車のおかげで、地図がなくても僻地を自由に探索できるようになりました。

このビデオは、より良い意思決定を行い、複雑な問題を解決する人々の能力を強化する上での AI テクノロジの役割を強調しています。

The Deep Learning Revolution
The Deep Learning Revolution
  • 2016.06.09
  • www.youtube.com
More info at: http://www.nvidia.com/deep-learning Deep learning is the fastest-growing field in artificial intelligence, helping computers make sense of infi...
 

2.深層学習ニューラルネットワークにおける情報処理過程の可視化

一連の短いビデオ: 説明しようとするよりも見た方がよい.












 

3. [ディープラーニング |ビデオ 1] ニューラル ネットワークとは



しかし、ニューラルネットワークとは何ですか? | |第 1 章、深層学習

このビデオでは、視聴者にニューラル ネットワークを紹介し、その仕組みを説明しています。ニューラル ネットワークには複数のニューロン層が含まれており、各層は重みとバイアスによって前後の層のニューロンに接続されています。ニューロンの活性化は、前の層のニューロンの活性化の加重和によって決定され、シグモイド関数によって圧縮されます。

  • 00:00:00 ニューラル ネットワークがどのように脳にインスパイアされ、手書きの数字を認識するためにどのように使用できるかを説明するニューラル ネットワークの紹介。ビデオでは、入力層、隠れ層、出力層など、ニューラル ネットワークの構造についても説明しています。

  • 00:05:00 このパートでは、ニューラル ネットワークの階層構造がインテリジェントに動作すると期待できる理由を説明します。ネットワークの中間層にある各ニューロンは、全体像を構成する複数のサブコンポーネントの 1 つに対応していると言われています。たとえば、ループ画像が入力層に入力されると、ニューロンが活性化されます。これにより、ネットワークは画像を構成するさまざまなコンポーネントを組み立て、最終的に画像に表されている数字を認識することができます。

  • 00:10:00 ニューラル ネットワークの重みとバイアスがその動作を決定しますが、学習とはこれらの値を調整して目的の動作を実現するプロセスです。ニューラル ネットワークはニューロンの層で構成され、各層は重みとバイアスによって前後の層のニューロンに接続されます。ニューロンの活性化は、前の層のニューロンの活性化の加重和によって決定され、シグモイド関数によって圧縮されます。この最終的なベクトルは、次のレイヤーに供給されます。

  • 00:15:00 このビデオでは、著者がニューラル ネットワークとは何か、またそのしくみについて説明しています。彼はまた、シグモイド関数を紹介し、対応する加重和を 0 と 1 の間で圧縮するためにどのように使用されるかを説明します。
But what is a neural network? | Chapter 1, Deep learning
But what is a neural network? | Chapter 1, Deep learning
  • 2017.10.05
  • www.youtube.com
What are the neurons, why are there layers, and what is the math underlying it?Help fund future projects: https://www.patreon.com/3blue1brownWritten/interact...
 

4. [ディープラーニング |ビデオ 2] Gradient Decent、ニューラル ネットワークの学習方法



勾配降下法、ニューラル ネットワークの学習方法 |第 2 章、深層学習

このビデオでは、勾配降下法がニューラル ネットワークの学習をより効果的に行う方法について説明します。

  • 00:00:00ニューラル ネットワークや他の多くの機械学習アルゴリズムの学習方法の中心にある勾配降下のアイデアを紹介します。ビデオでは、手書き数字認識ネットワークがコスト関数、重み、およびバイアスを使用してパラメーター化される方法を示します。ネットワークのパフォーマンスはサンプル トレーニング データセットで評価され、ネットワークが数値を認識する能力が向上するにつれて、コスト関数はますます正確になります。

  • 00:05:00勾配降下法はニューラル ネットワークをトレーニングするための強力なツールであり、コスト関数を効果的に最小化するには、コスト関数の出力が滑らかでなければならないことを覚えておくことが重要です。

  • 00:10:00勾配降下アルゴリズムと人工ニューロンの動作について説明します。勾配降下法は、小さなステップで勾配を下って移動しながら、コスト関数の極小値を見つけるために使用されます。このプロセスは、ネットワークが適切な解に到達するまで繰り返されます。次に、ビデオは、数値を認識するように訓練されたニューロンのネットワークを使用した勾配降下法の例を示しています。ネットワークは完璧ではありませんが、印象的なのは、これまでに見たことのない画像を処理できることです。

  • 00:15:00勾配降下法は、ニューラル ネットワークのトレーニングに使用される手法です。第 1 部では、ランダムにラベル付けされたデータでトレーニングされたディープ ニューラル ネットワークが、適切にラベル付けされたデータと同じ精度を達成することを確認しました。 2 番目の部分は、ニューラル ネットワークが正しいラベルを持つデータセットでトレーニングされた場合、そのコスト関数の極小値が同じ品質であることを示しています。

  • 00:20:00勾配降下法がニューラル ネットワークでどのように機能するか、およびネットワークがより効果的に学習するのにどのように役立つかを示します。
Gradient descent, how neural networks learn | Chapter 2, Deep learning
Gradient descent, how neural networks learn | Chapter 2, Deep learning
  • 2017.10.16
  • www.youtube.com
Enjoy these videos? Consider sharing one or two.Help fund future projects: https://www.patreon.com/3blue1brownSpecial thanks to these supporters: http://3b1...
 

5. [ディープラーニング |ビデオ 3] バックプロパゲーションは実際に何をしているのか?



バックプロパゲーションは実際に何をしているのでしょうか? | |第 3 章、深層学習

バックプロパゲーション アルゴリズムは、ニューラル ネットワークで学習を支援するために使用されます。このアルゴリズムは、ネットワークの重みとバイアスに依存するコスト関数の勾配を計算します。次に、勾配を使用して、ネットワークの重みとバイアスを調整します。

  • 00:00:00 バックプロパゲーションは、ニューラル ネットワークのトレーニングの中心です。このアルゴリズムは、ネットワークの重みとバイアスに依存するコスト関数の勾配を計算します。次に、勾配を使用して、ネットワークの重みとバイアスを調整します。

  • 00:05:00 バックプロパゲーションは、ディープ ラーニング ネットワークでニューロンの活性化を促進する教師あり学習アルゴリズムです。このアルゴリズムは、前の層のニューロンの重みとバイアスを調整して、この変化がそれぞれの重みのサイズに比例するようにします。バックプロパゲーションは、2 番目の層のニューロンの重みとバイアスに必要な変更を伝播するのにも役立ちます。

  • 00:10:00 バックプロパゲーションは、ニューラル ネットワークの重みとバイアスを調整するために使用されます。これは、データをランダムにミニバッチに分割し、ミニバッチに基づいて重みとバイアスを更新する確率的勾配降下アルゴリズムです。このアルゴリズムは、真の勾配降下法よりも計算が高速で、コスト関数の局所的最小値に収束できます。
What is backpropagation really doing? | Chapter 3, Deep learning
What is backpropagation really doing? | Chapter 3, Deep learning
  • 2017.11.03
  • www.youtube.com
What's actually happening to a neural network as it learns?Help fund future projects: https://www.patreon.com/3blue1brownAn equally valuable form of support ...
 

6. [ディープラーニング |ビデオ 4] バックプロパゲーション微積分



バックプロパゲーション計算 |第 4 章、深層学習

このビデオでは、重みとバイアスによって定義された層ごとに 1 つのニューロンを持つ単純なネットワークを使用して、ディープ ラーニングのバックプロパゲーション アルゴリズムの背後にある数学について説明します。重みの変化がコストにどのように影響するかを理解するためにチェーン ルールが導入され、小さな重みの変化に対するコストの感度は、コスト関数、活性化関数、および重み付き合計の導関数によって検出されます。以前の重みとバイアスに対する感度を見つけるために、チェーン ルールの拡張で以前のアクティベーションの感度を繰り返し計算することにより、感度が考慮されます。このアプローチは、レイヤーごとに複数のニューロンを使用しても同様であり、各重みにはレイヤー内の位置を追跡するための独自のインデックスがあります。

  • 00:00:00 最初の部分では、深層学習における逆伝播に必要な数学的装置について詳しく説明します。このビデオは、3 つの重みと 3 つのバイアスによって定義された層ごとに 1 つのニューロンを持つ単純なネットワークの例を示しています。目標は、コスト関数がこれらの変数に対してどの程度敏感であるか、およびコスト関数を削減するためにどのような調整が最も効果的かを理解することです。重み変数の変化がコスト関数にどのように影響するかを理解するために、チェーン ルールが導入されます。重みの小さな変化に対するコスト関数の感度は、コスト関数の導関数、活性化関数、および加重和を使用して計算されます。

  • 00:05:00  2 番目の部分では、ニューラル ネットワークの重みとバイアスに関連する感度の概念を紹介します。重みとバイアスに関するコスト関数の導関数は、チェーン ルールを拡張することで求められるため、感度を考慮する必要があります。感度は、一緒に発火して相互に通信するニューロンの数と考えることができますが、導関数では、すべてのトレーニング例で式を平均する必要があります。チェーン ルール拡張の以前のアクティベーションの感度が計算され、以前の重みとバイアスに対する感度を繰り返し計算するために使用されます。ニューラル ネットワークの層に複数のニューロンがある場合でも、アプローチはあまり変わりません。ただし、レイヤー内の位置を追跡するには、各重みに追加のインデックスを付けてインデックスを付ける必要があります。
Backpropagation calculus | Chapter 4, Deep learning
Backpropagation calculus | Chapter 4, Deep learning
  • 2017.11.03
  • www.youtube.com
Help fund future projects: https://www.patreon.com/3blue1brownAn equally valuable form of support is to simply share some of the videos.Special thanks to the...
 

人工知能フルコース |初心者のための人工知能チュートリアル |エデュレカ

上記では、人工ニューラル ネットワークの紹介に最適な資料を紹介しました。 Edureka によるこのビデオでは、AI の概念に関する包括的かつ詳細な知識を、実際の例とともに紹介します。


便宜上、一般的なタイムラインと、各部分の詳細なタイムラインを提供します。適切な瞬間に直接移動し、便利なモードで視聴して、何も見逃すことはありません。

  1. 00:00:00 - 01:00:00パート 1 では、人工知能について紹介し、その歴史、さまざまな分野と概念、ディープ ラーニングを使用して現実世界の問題を解決する方法について説明します。また、さまざまな種類の人工知能と、AI を開発するための一般的なプログラミング言語についても説明しています。

  2. 01:00:00 - 02:00:00パート 2 では、さまざまな種類の人工知能と、それらを使用してさまざまな種類の問題を解決する方法について説明します。線形回帰を使用して特定の温度範囲の平均最高気温を予測する方法と、ロジスティック回帰を使用して結果が 1 または 0 になる可能性を予測する方法について説明します。また、デシジョン ツリー アルゴリズムと、それを使用してデシジョン ツリーを構築する方法についても説明します。最後に、ランダム フォレストを使用して、より正確で安定した予測を作成する方法について説明します。

  3. 02:00:00 - 03:00:00パート 3 では、Edureka の講師である Michael Kennedy が、K-means クラスタリング アルゴリズムの仕組みと、それを使用して巨大なデータセットを少数の意味のある値に圧縮する方法について説明します。彼はまた、強化学習は、エージェントが未知の環境で目標を達成することを学習するのに役立つ別の種類の機械学習であると説明しています。

  4. 03:00:00 - 04:00:00パート 4 では、親ノード、子ノード、およびさまざまなタイプの道路の情報ゲインを計算する方法を学習します。右辺のエントロピーを計算するとゼロになり、不確実性がないことがわかります。道路が平坦な場合、車の速度は速く、この情報に不確実性がないことを示しています。道路が急勾配の場合、車の速度が遅くなったり速くなったりすることがあります。これは、情報が特定の種類の道路に固有のものではないことを示しています。

  5. 04:00:00 - 04:50:00パート 5 では、Edureka インストラクターの Kirill Eremenko が、プログラミング、データ、および機械学習の基礎をカバーする、人工知能の包括的な概要を提供します。彼は、ニューラル ネットワークがどのように機能し、それらを使用して株価を予測する方法について説明しています。また、データの準備、パーティショニング、スケーリングなど、ニューラル ネットワークのトレーニングに必要な手順についても説明します。最後に、各隠れ層のニューロン数、バイアス サイズ、コスト関数など、AI システムのモデル アーキテクチャ パラメーターについて説明します。


ビデオ コースの一部の詳細なタイムライン

パート1

  • 00:00:00 Edureka の Zulaikha は、AI の歴史、それに関連するさまざまな分野と概念、AI がどのように誕生したか、機械学習の限界、深層学習の必要性について語っています。彼女はまた、深層学習の概念を紹介し、実世界の問題を解決するためにどのように使用できるかを示しています。最後に、彼女は次のモジュールである自然言語処理について話します。

  • 00:05:00 人工知能は、視覚認識、音声認識、意思決定、言語間の翻訳など、通常は人間の知性を必要とするタスクを実行できるインテリジェント マシンを作成するための科学と工学です。コンピューティング能力とアルゴリズムの最近の進歩により、人工知能をより効果的に日常生活に統合することが可能になりました。大学、政府、新興企業、および主要なテクノロジー企業は、AI が未来であると信じているため、AI にリソースを注ぎ込んでいます。人工知能は、研究分野としても経済としても急速に発展しています。

  • 00:10:00 人工知能は、金融からヘルスケア、ソーシャル メディアまで、さまざまな分野で使用されています。 AI は非常に重要になり、Netflix のような企業でさえ AI を使用しています。

  • 00:15:00 人工知能は 3 つの段階に分かれており、現在は弱い AI の段階にあります。汎用人工知能、つまり強力な AI の実現にはまだほど遠いですが、これが実現すれば、人類の歴史におけるマイルストーンとなるでしょう。

  • 00:20:00 このセクションでは、さまざまな種類の人工知能を紹介し、AI 用のさまざまなプログラミング言語について説明します。 Python は AI 開発に最適な言語と考えられており、R も一般的な選択肢です。他の言語には、Python、Lisp、Prolog、C++、MATLAB、Julia、JavaScript などがあります。

  • 00:25:00 Python は柔軟で使いやすいプログラミング言語で、人工知能の分野で人気が高まっています。機械学習は、機械が予測を改善するためにデータから学習できるようにする手法です。

  • 00:30:00 機械学習は人工知能のサブセットであり、アルゴリズムを使用して自動的に学習し、経験に基づいて改善します。機械学習プロセスの主要コンポーネントは、機械学習アルゴリズムを使用してトレーニングされるモデルです。

  • 00:35:00 アルゴリズムとモデルの違いは、アルゴリズムは与えられた入力に基づいてモデルが行う必要があるすべての決定をマッピングするのに対し、モデルは機械学習アルゴリズムを使用して入力から有用な洞察を抽出し、非常に正確な結果が得られます。次に、予測変数があります。これは、出力を予測するために使用できるデータの特徴です。したがって、同じ例では、高さが応答変数になります。応答変数は、ターゲット変数または出力変数とも呼ばれます。これは、予測子変数を使用して予測しようとしている変数です。したがって、応答変数は、予測子変数を使用して予測する必要がある関数または出力変数です。次に、トレーニングデータと呼ばれるものがあります。機械学習の過程で、データの「トレーニング」や「テスト」という用語に出くわすことがよくあります。トレーニング データは、機械学習モデルの構築に使用されるデータです。そのため、機械学習の過程でデータを機械にロードすると、データは 2 つの部分に分割されます。データを 2 つのサブセットに分割することは、データ分割とも呼ばれます。入力データを取得し、それを 2 つの部分に分割します。

  • 00:40:00 データ収集は、機械学習で最も時間のかかるステップの 1 つであり、手動でデータを収集する必要がある場合は、かなりの時間がかかります。しかし幸いなことに、広範なデータセットを提供する多くのリソースがオンラインにあります。あなたがしなければならないのは、データをダウンロードするだけでよいWebスクレイピングです。私が紹介できるサイトの 1 つが Cargill です。したがって、機械学習が初めての場合でも、データ収集などについて心配する必要はありません。 Cargill などの Web サイトにアクセスして、データセットをダウンロードするだけです。

  • 00:45:00 教師あり学習は、適切にラベル付けされたデータを使用して機械をトレーニングする手法です。教師あり学習は、教師が生徒に数学の概念を理解させる方法に似ています。

  • 00:50:00 教師あり学習では、トレーニング データセットには、トムとジェリーの画像など、オブジェクトがどのように見えるかに関する情報が含まれています。機械学習アルゴリズムは、このラベル付けされたデータセットでトレーニングされ、画像を識別および分類する方法を学習します。教師なし学習では、機械学習アルゴリズムはラベル付きデータを受信せず、代わりにラベルなしデータでトレーニングします。強化学習では、エージェントが環境に配置され、アクションを実行し、これらのアクションに対して受け取った報酬を観察することによって、行動することを学習します。

  • 00:55:00 機械学習は、教師あり学習、教師なし学習、強化学習の 3 つの主なタイプの学習で構成されます。教師あり学習はラベル付けされたデータの学習に使用され、教師なし学習はラベル付けされていないデータの学習に使用され、強化学習は行動と報酬の学習に使用されます。機械学習で解決できる問題には、回帰、分類、クラスタリングの 3 種類があります。回帰、分類、およびクラスタリングの問題を解決するために使用できるアルゴリズムは多数ありますが、最も一般的に使用されるのは、線形回帰、ロジスティック回帰、サポート ベクター マシン、単純ベイズです。


パート2

  • 01:00:00 人工知能は、分類、回帰、およびクラスタリングの問題を解決するために使用できます。線形回帰などの教師あり学習アルゴリズムを使用して、入力データに基づいて住宅価格指数などのターゲット変数を予測します。

  • 01:05:00 線形回帰は、独立変数 x の値に基づいて連続従属変数 y を予測するために使用される教師あり学習アルゴリズムです。線形回帰は、最適な線形適合を使用して y と x の間の関係を構築することから始まり、線形回帰直線の傾きと y シフトを計算します。

  • 01:10:00  Edureka インストラクターの Michael Kennedy は、世界中のさまざまな日に記録された気象条件のデータ セットに対する線形回帰を示しています。彼は、必要なライブラリをインポートしてデータを読み取る方法、データポイントをプロットして変数間の線形関係を見つける方法を示しています。また、警告メッセージについても説明し、このデモンストレーションの主な目的は天気予報であることを説明しています。

  • 01:15:00 このレッスンでは、線形回帰を使用して、特定の温度範囲の平均最高気温を予測する方法について説明します。モデルは、データセットをトレーニング セットとテスト セットに分割し、適切な線形回帰クラスをインポートすることによってトレーニングされます。チュートリアルの後、インストラクターは、データに対応するラインの傾きと y シフトを計算する方法を示します。

  • 01:20:00 回帰アルゴリズムを使用してテスト データセットのパーセンテージ スコアを予測する方法を説明しています。このビデオでは、結果をプロットして実際の値と比較する方法も示しています。

  • 01:25:00 ロジスティック回帰は、従属変数がカテゴリ変数になるように、つまり、出力がカテゴリ変数になるように、独立変数 x が与えられたときに従属変数 y を予測するために使用される手法です。ロジスティック回帰の結果は常にカテゴリカルであり、ロジスティック回帰で使用される基本的な手法は線形回帰と非常によく似ています。

  • 01:30:00 ロジスティック回帰を使用して、式 Pr(X = 1) = beta0 + beta1*X を使用して、結果が 1 または 0 になる確率を予測します。ロジスティック関数 (S カーブ) により、0 と 1 の間の範囲が確実に尊重されます。

  • 01:35:00 デシジョン ツリー アルゴリズムは、理解しやすい教師あり学習アルゴリズムです。これは、ルート ノード (最初の分割が行われる場所)、内部ノード (決定が行われる場所)、およびリーフ ノード (結果が格納される場所) で構成されます。ノード間の分岐は矢印で表され、アルゴリズムは、ターミナル ノードに到達するまでツリーを介してデータをトラバースすることによって機能します。

  • 01:40:00 「ID3」アルゴリズムは、決定木の生成に使用されるアルゴリズムです。このアルゴリズムを使用するために必要な手順は、(1) 最適な属性を選択する、(2) その属性をルート ノードの決定変数として割り当てる、(3) 決定変数の値ごとに子を作成する、および (4)葉ノードの分類にラベルを付けます。データが正しく分類されると、アルゴリズムは停止します。そうでない場合、アルゴリズムはツリーを反復処理し続け、予測変数またはルート ノードの位置を変更します。最良の属性は、データを異なるクラスに最も効果的に分離する属性です。エントロピーと情報ゲインを使用して、データを最もよく分離する変数を決定します。ルート ノードでデータを分割するために、情報ゲインの最大の尺度が使用されます。

  • 01:45:00 初心者向けの人工知能に関するこのビデオ チュートリアルでは、親ノード、子ノード、およびさまざまな種類の道路の情報ゲインを計算する方法を学びます。右辺のエントロピーが計算され、ゼロであることが判明しました。これは、不確実性がないことを示しています。道路が直線の場合、車両の速度は高く、この情報に不確実性がないことを示します。道路が急勾配の場合、車速が遅くなったり速くなったりすることがあります。これは、情報が特定の種類の道路に固有のものではないことを示しています。

  • 01:50:00 エントロピーを使用してデシジョン ツリーの情報ゲインを計算する方法について説明しています。親ノードのエントロピー、子ノードの加重平均、および各予測変数の情報ゲインを計算します。道路タイプ変数のエントロピーはゼロです。これは、データセットに不確実性がないことを意味します。道路タイプ変数の情報ゲインは 0.325 です。これは、データセットに道路タイプ変数に関する情報がほとんど含まれていないことを意味します。障害変数の情報ゲインはゼロです。これは、障害変数が決定木に影響を与えないことを意味します。レート制限変数の情報ゲインは 1 です。これは、レート制限変数がデシジョン ツリーに最大の影響を与えることを意味します。

  • 01:55:00 ランダム フォレストでは、いくつかの決定木が構築され、それらが組み合わされて、より正確で安定した予測が作成されます。ブートストラップを使用して小さなデータセットを作成し、それを使用して決定木をトレーニングします。ランダム フォレストは、オーバーフィッティング (トレーニング データの記憶) を減らすため、新しいデータの予測において決定木よりも正確です。


パート3

  • 02:00:00 このビデオでは、ランダム フォレストを使用して決定木を作成する方法を説明しています。最初に、2 つまたは 3 つの変数がランダムに選択され、決定木の各ノードで使用されます。次に、それぞれの情報ゲインとエントロピーが計算されます。このプロセスは、次の分岐ノードごとに繰り返され、選択された予測変数に基づいて出力クラスを予測する決定木が作成されます。最後に、最初のステップに戻り、元の変数のサブセットに基づいて新しい決定木を作成します。このプロセスは、複数の決定木が作成されるまで繰り返され、それぞれが異なる予測変数に基づいて出力クラスを予測します。最後に、out-of-bag データセットを使用してモデルの精度を評価します。

  • 02:05:00 このビデオでは、Edureka のインストラクターである Michael Kennedy が、ランダム フォレストの仕組みについて説明しています。最初に、正確な予測を保証するためにブートストラップ データ セットが作成されます。次に、予測子のランダムなセットを使用して決定木が作成されます。このプロセスは、モデルが作成されるまで何百回も繰り返されます。モデルの精度は、out-of-bag サンプリングを使用して計算できます。

  • 02:10:00  K 最近隣アルゴリズムは、隣接するデータ ポイントの特徴に応じて、新しいデータ ポイントをターゲット クラスまたは出力クラスに分類する教師あり学習アルゴリズムです。

  • 02:15:00  KNN アルゴリズムは、データを使用して新しい入力データ ポイントの出力を予測する教師あり学習アルゴリズムです。これは、隣接するデータ ポイントに対するフィーチャの類似性に基づいており、パラメトリックではありません。 KNN アルゴリズムは遅延型で、判別関数を学習する代わりにトレーニング セットを記憶できます。

  • 02:20:00 Edureka インストラクターの Alan C が、KNN と SVM 分類アルゴリズムの基本について説明します。各アルゴリズムには独自の長所があり、SVM は非線形データを処理できるため、分類の一般的な選択肢です。
  • 02:25:00  Pythonを使った各種分類アルゴリズムの利用を検討中。まず、データが読み取られ、ラベルに従って果物の種類にグループ化されます。次に、さまざまなアルゴリズムが実装され、データに対してテストされます。最後に、結果を示して説明します。

  • 02:30:00 機械学習における視覚化の重要性について議論し、箱ひげ図、ヒストグラム、およびスケーラーの使用について説明します。また、データをトレーニング セットとテスト セットに分割することの重要性についても説明しています。

  • 02:35:00 このビデオでは、分類問題におけるロジスティック回帰、デシジョン ツリー、およびサポート ベクター マシンの使用について説明しています。ロジスティック回帰分類器は、トレーニング データセットでは良好な結果を示しましたが、テスト データセットでは精度が低くなりました。デシジョン ツリー分類子は、トレーニング データセットではより正確でしたが、テスト データセットではパフォーマンスが低下しました。サポート ベクター マシンは、トレーニング データセットとテスト データセットの両方で良好な結果をもたらしました。

  • 02:40:00 K-means クラスタリング アルゴリズムは、類似のアイテムまたはデータ ポイントをクラスタにグループ化するために使用される教師なし機械学習アルゴリズムです。特定の対象者に特定の製品を宣伝するなど、ターゲットを絞ったマーケティングに使用されます。

  • 02:45:00 エルボ法は、特定の問題に対する k の最適値を見つけるために使用される単純な方法です。エルボ法は、k のさまざまな値の二乗誤差の合計を計算し、それらを視覚化することから始めます。 k が増加すると、エラーが減少します。これは、クラスターが多いほど歪みが少ないことを示しています。 k の最適値は、エラーの減少が遅くなり、「エルボー」形状を形成するグラフ上のポイントにあります。

  • 02:50:00 エルボ法は、K-means アルゴリズムの最適な K 値を選択する簡単な方法です。この方法では、K のさまざまな値の二乗誤差の合計を計算し、それらをグラフにプロットすることから始めます。 K が増加すると、エラーが減少します。これは、クラスターが多いほど歪みが少ないことを示しています。 K-means の最適な K 値は、歪みが大幅に減少するポイントにあります。このメソッドは、標準ライブラリ関数を使用して簡単に実装できます。このビデオでは、scikit-learn データセットのサンプル画像を使用して、エルボー メソッドのデモを行います。

  • 02:55:00 このビデオでは、K-means クラスタリング アルゴリズムの仕組みと、それを使用して大規模なデータセットを少数の意味のある値に圧縮する方法について説明しています。また、強化学習は、エージェントが未知の環境で目標を達成する方法を学習するのに役立つ、別の種類の機械学習であると考えています。


パート 4

  • 03:00:00 Counter Strike などのビデオ ゲームの強化学習エージェントは、現在の状態と環境に応じて最適なアクションを実行することで、報酬を最大化しようとします。たとえば、エージェントがトラに近づいた場合、殺される可能性を考慮して、期待される報酬を引き下げることがあります。アクション、状態、報酬、ガンマなどのこれらの概念については、次のスライドで詳しく説明します。

  • 03:05:00 このビデオでは、Edureka インストラクターの Adriano Ferreira が、探索と利用の概念、マルコフの意思決定を解決するための数学的アプローチ、および最短経路問題について説明しています。次に、貪欲な戦略を使用して問題を解決するための戦略を選択する方法の例と、探索戦略を使用して戦略を選択する方法の例を示します。

  • 03:10:00 エドゥレカの講師が強化学習の基本を、ポリシーベース、バリューベース、アクションベースの3つの主な方法を含めて説明します。次に、重要な強化学習アルゴリズムである Q ラーニング アルゴリズムのデモを行います。 Q ラーニングの目標は、報酬が最も高い状態を見つけることです。Q ラーニングで使用される用語には、状態とアクションが含まれます。

  • 03:15:00 人工知能の仕組みや、経験から学習できるエージェントの作成方法など、人工知能の基本について説明します。このビデオでは、エージェントの現在の状態と将来の報酬を決定するために、報酬行列と一様 Q 行列がどのように使用されるかを説明しています。ガンマは、探索とエージェントの使用を制御するために使用されます。

  • 03:20:00 このビデオでは、エージェントの行列 Q がメモリを格納する方法や更新方法など、人工知能の基本的な概念について説明しています。次に、NumPy および R ライブラリを使用して Python で同じことを行う方法に進みます。

  • 03:25:00 このビデオでは、コードを使用して報酬マトリックスと Q マトリックスを作成し、ガンマ パラメーターを設定する方法を初心者に教えることで、人工知能 (AI) システムを作成する方法を示しています。次に、このビデオでは、AI システムを 10,000 回繰り返してトレーニングする方法と、ランダムな状態を選択して目標の状態 (5 番目の部屋) に到達するようにシステムをテストする方法を示します。

  • 03:30:00 機械学習は、コンピューターがデータから学習するのを支援する研究分野です。ただし、高次元データを処理することはできません。機械学習のもう 1 つの制限は、測定数の増加に伴い計算能力の要件が増大することです。

  • 03:35:00 画像には多くのピクセルが含まれており、多くの傲慢なデータが含まれているため、人工知能を画像認識に使用する能力は限られています。アルゴリズムの有効性は、プログラマーがデータをどれだけ深く分析したかに依存するため、特徴抽出は機械学習ワークフローの重要な部分です。深層学習は、私たちの脳の働きを模倣し、適切な機能に集中することを自己学習できるため、プログラマーからのガイダンスはほとんど必要ありません。

  • 03:40:00 ディープ ラーニングは、データ内の特徴階層を効率的に学習できる一連の機械学習手法です。ディープ ラーニングは、人間の脳と同じように機能する人工ニューロンのニューラル ネットワークで構成されています。層の数と各層のパーセプトロンの数は、タスクまたはアプリケーションに完全に依存します。

  • 03:45:00 活性化関数の計算で重みがどのように使用されるかを説明します。次に、この活性化関数は、出力 (1 つ) を作成するために特定の入力 (X one) がどれだけ使用されるかを決定します。

  • 03:50:00 多層パーセプトロンは単層パーセプトロンと同じ構造ですが、1 つ以上の隠れ層があります。重みは最初にランダムに割り当てられます。エラーを最小限に抑えるには、重みを正しくする必要があります。逆伝播は、重みを更新してエラーを減らす方法です。

  • 03:55:00 Edureka のインストラクター Emmanuel が、バックプロパゲーションを使用してモデルの出力を計算する方法を聴衆に説明します。まず、モデルのどこが不正確かを示す誤差を計算します。次に、誤差逆伝播を使用して、誤差を最小限に抑える方法で重みを更新します。エラーが高いままの場合、重みの更新を停止し、グローバル損失の最小値を見つけてから停止します。


パート5

  • 04:00:00 バック プロパゲーションは、ネットワークの重みを調整して出力層のエラーを減らすために使用される数学的手法です。勾配降下法は、ネットワークの順方向伝搬パフォーマンスを最適化するために使用されます。リカレント ニューラル ネットワークは、一連のデータのパターンを認識するために使用できる人工ニューラル ネットワークの一種です。

  • 04:05:00 ディープ ニューラル ネットワークがどのように機能し、それらを使用して株価を予測する方法について説明します。順方向ニューラル ネットワーク、多層パーセプトロン、再帰型ニューラル ネットワークの基礎について説明します。

  • 04:10:00 データの準備、パーティショニング、スケーリングなど、ニューラル ネットワークのトレーニングに必要な手順について説明します。プレースホルダーと初期化子の使用についても説明します。

  • 04:15:00 各隠れ層のニューロン数、バイアス次元、コスト関数など、人工知能システムのモデル アーキテクチャ パラメータについて説明します。次に、活性化関数が隠れ層をどのように変換するか、および出力がどのように転置され、コストがかかるかについて説明します。

  • 04:20:00 Edureka インストラクターの Kirill Eremenko が、ニューラル ネットワーク、オプティマイザー、イニシャライザーの役割など、ディープ ラーニングの基本について説明します。また、ミニバッチ トレーニングのしくみと、エポックを使用してニューラル ネットワークをトレーニングする方法についても説明します。

  • 04:25:00 モデルの予測値を、y に保存されている実際に観測されたターゲットと比較することで、深層学習のデモを行います。その後、TensorFlow を使用して重み係数とバイアス係数を更新します。次に、モデルはテスト データでトレーニングされ、その予測が実際の値と比較されます。 10 エポック後、モデルの精度は実際の値に非常に近いことが示されています。

  • 04:30:00 テキスト マイニングまたはテキスト分析は、自然言語テキストから意味のある情報を抽出するプロセスです。テキスト マイニングは、NLP を使用してテキスト マイニングとテキスト データ分析を実行する広大な分野です。 NLP はテキスト マイニングの一部であり、マシンがデータを 0 と 1 として理解するのに役立ちます。自然言語処理は、コンピューターやスマートフォンが私たちの言語を話し言葉と書き言葉の両方で理解するために使用するものです。テキスト マイニングおよび自然言語処理アプリケーションの例には、スパム検出、予測型入力、感情分析などがあります。

  • 04:35:00 自然言語処理におけるトークン化、ステミング、見出し語化の重要性について説明しています。トークン化は文を単語に分割し、ステミングは単語を基本形に減らし、見出し語化は単語を補題にリンクすることを説明しています。ストップ ワードは、重要な単語に焦点を当てるために削除される一般的な単語です。

  • 04:40:00 この Edureka チュートリアルでは、NaiveBayesClassifier を使用して自然言語処理を実行する方法を説明しています。これは、このタスクを達成するために必要なすべての関数を含むライブラリです。次に、映画レビュー データセットに対して感情分析を実行することで、プロセスを示します。分類子は、どのレビューが肯定的で、どのレビューが否定的であるかを特定することができました。

  • 04:45:00 Edureka 機械学習エンジニア プログラムには、Python プログラミング、機械学習、自然言語処理 (NLP)、グラフィカル モデリング、ディープ ラーニング、Spark をカバーする 200 時間以上の対話型学習を備えた 9 つのモジュールが含まれています。カリキュラムには、教師ありアルゴリズムと教師なしアルゴリズム、統計と時系列、ディープ ラーニング、Spark が含まれます。機械学習エンジニアの平均年収は 134,000 ドルを超えています。

  • 04:50:00 プログラミング、データ処理、機械学習の基礎を含む、人工知能の包括的な紹介が提示されます。この入門モジュールを完了すると、学生はこれらのトピックの理解を深めることを目的とした追加のコースに進むことができます。
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
  • 2019.06.02
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-training This ...
 

MIT ディープ ラーニング入門コースは、ディープ ラーニングの基本原理を迅速かつ集中的に学習できるように設計されています。

MIT ディープ ラーニング入門コースは、コンピューター ビジョン、自然言語処理、生物学、およびその他の分野でのアプリケーションを使用して、ディープ ラーニングの基本原理を迅速かつ集中的に学習できるように設計されています。このコースでは、学生はディープ ラーニング アルゴリズムの基本的な知識と、TensorFlow でニューラル ネットワークを構築するための実践的な経験を得ることができます。このプログラムは、スタッフと業界スポンサーによって評価されるプロジェクト提案コンテストで最高潮に達します。生徒は微積分 (つまり、微分を取ることができる) と線形代数 (つまり、行列を掛けることができる) に精通していることを前提としていますが、コースが進むにつれて他のすべてについて説明されます。 Python の使用経験は役に立ちますが、必須ではありません。



講義 1. MIT 深層学習入門 | 6.S191

このビデオでは、MIT アレクサンダー アミニが、パーセプトロンの説明とともにディープ ラーニングの基礎を紹介します。彼は続けて、ニューラル ネットワークをゼロから構築する方法を示し、TensorFlow と呼ばれるライブラリを使用してプロセスを簡素化します。彼は、出力層を持つ単層および 2 層のニューラル ネットワークを作成する方法について説明して、ビデオを終了します。

  • 00:00:00 この 1 週間のディープ ラーニング入門コースでは、学生はこの分野の基礎を学び、ディープ ラーニング ソフトウェア ラボを使用して実践的な経験を積むことができます。コースはフェイクですが、動画と音声は実際にディープラーニング技術を使用して生成されています。これにより、インストラクターはディープ ラーニングの高品質で現実的な例を示すことができます。

  • 00:05:00 このビデオでは、関連する用語や概念など、ディープ ラーニングの基本を紹介しています。クラスは技術的な講義とソフトウェア ラボに分かれており、最終的なプロジェクトでは創造的で革新的なアイデアに焦点を当てています。ビデオの最後には、コースの講師の概要と、質問がある場合の連絡方法が説明されています。

  • 00:10:00 ディープ ラーニングの主な目的は、データから特徴を学習することです。これは、ニューロンの階層層を使用してディープ ニューラル ネットワークをトレーニングすることによって行われます。これにより、大規模な並列化が可能になり、階層機能を検出する機能も実現します。

  • 00:15:00 この講義では、シグモイド活性化関数や relu 関数など、深層学習の背後にある技術的概念について学びます。また、最新のニューラル ネットワークで活性化関数を使用して非線形性を導入する方法についても説明します。最後に、パーセプトロン方程式を使用して、入力データ ポイントの重み付けされた組み合わせを計算する方法を示します。

  • 00:20:00 アレクサンダー アミニは、パーセプトロンについて説明しながら、深層学習の基礎を紹介します。彼は続けて、ニューラル ネットワークをゼロから構築する方法を示し、TensorFlow と呼ばれるライブラリを使用してプロセスを簡素化します。彼は、出力層を持つ単層および 2 層のニューラル ネットワークを作成する方法について説明して、ビデオを終了します。

  • 00:25:00 このセクションでは、深層学習のしくみと、学生がクラスに合格するか不合格になるかを予測するニューラル ネットワークの構築方法について説明します。ネットワークが正しくトレーニングされていないため、予測される通過確率が正しくありません。

  • 00:30:00 このビデオでは、Alexander Amini が深層学習の基礎と、勾配降下法を使用してニューラル ネットワークを最適化する方法について説明しています。彼は、ディープ ラーニングには、データに基づいて予測を改善するためにネットワークをトレーニングすることが含まれると説明しています。目標は、ネットワークの誤差を平均してすべてのデータ セットにわたって最小化する重み (w) を見つけることです。

  • 00:35:00 深層学習におけるバックプロパゲーションは、損失を減らすために各重みをどのように変更する必要があるかを判断するために、ニューラル ネットワークの入力まで勾配を伝搬するプロセスです。実際には、小さすぎず大きすぎない学習率を使用すると、極小値が回避され、それでも大域的最適値に向かって収束します。

  • 00:40:00  Alexander Amini が、勾配降下法、適応学習率、およびバッチ処理を使用してディープ ニューラル ネットワークをトレーニングする方法について説明します。また、オーバーフィッティングの危険性とそれを軽減する方法についても説明しています。

  • 00:45:00 このレクチャーでは、ニューラル ネットワークの基本的な構成要素、パズルを完成させてトレーニングする方法、および損失関数の使用方法について主に説明しました。次の講義では、Ava は、rnn を使用したディープ シーケンス モデリングと、Transformer と呼ばれる新しいエキサイティングなタイプのモデルについて話します。
MIT Introduction to Deep Learning (2022) | 6.S191
MIT Introduction to Deep Learning (2022) | 6.S191
  • 2022.03.11
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 1Foundations of Deep LearningLecturer: Alexander AminiFor all lectures, slides, and lab materials: http://i...
 

MIT 6.S191 (2022): リカレント ニューラル ネットワークとトランスフォーマー



講義 2. MIT 6.S191 (2022): リカレント ニューラル ネットワークとトランスフォーマー

MIT 講義のこのセクションでは、シーケンス モデリングを紹介し、ボールの軌道の予測などの例を使用して、シーケンス データを処理することの重要性を説明します。シーケンス モデリングを処理する手段としてリカレント ニューラル ネットワーク (RNN) が紹介され、講義では、RNN が内部メモリ (または状態) を使用して、現在および将来の予測を知らせる過去の履歴を取得する方法について説明します。また、この講義では、RNN を経時的にアンロールして重み行列をより明確にする方法についても説明し、設計上の問題とシーケンス モデリングの基準を紹介します。このビデオでは、勾配消失問題などの RNN の一般的な問題にも対処し、モデルが入力の最も重要な部分に再発することなく対応できるようにする潜在的な解決策として注意の概念を紹介しています。講義は、生物学やコンピューター ビジョンなど、言語処理を超えた領域に自己注意メカニズムをどのように適用できるかについての議論で締めくくられます。

  • 00:00:00 ビデオのこのセクションでは、シーケンス モデリングの概念と、シーケンシャル データを含むタスクの処理におけるその重要性について説明します。講師は、ボールの軌道を予測する簡単な例から始めます。ボールの以前の位置データを追加すると、予測が大幅に改善されます。シーケンシャル データは、音声、テキスト、心電図信号、株価など、さまざまな形で私たちの周りにあふれています。次に講師は、フィードフォワード モデルとシーケンス モデルの違いを説明し、シーケンス モデリングが必要な実際のアプリケーションの例を示します。シーケンス モデリングの基本的な理解を深めるために、講師はパーセプトロンの概念を再検討し、シーケンシャル データを処理するためにそれを変更する方法を段階的に示します。

  • 00:05:00 このセクションのビデオでは、リカレント ニューラル ネットワーク (RNN) の概念と、それらがシーケンシャル データを処理する方法について説明します。特定のタイム ステップでの RNN の出力は、そのタイム ステップでの入力だけでなく、前のタイム ステップのメモリにも依存します。このメモリは、シーケンスで以前に発生したことの以前の履歴をキャプチャし、前の各時間ステップから転送されます。このビデオでは、RNN が内部メモリ (または状態) を使用してこのメモリの概念をキャプチャする方法と、特定のタイム ステップでの出力が現在の入力と過去のメモリの両方の関数である方法について説明しています。このビデオでは、これらのタイプのニューロンを再帰関係として定義および描写する方法についても説明しています。

  • 00:10:00 講義のこのセクションでは、インストラクターがニューラル ネットワークにおける再帰関係の概念と、それが再帰型ニューラル ネットワーク (RNN) の背後にある重要なアイデアを形成する方法について説明します。 RNN は、現在の入力と前の状態の両方の組み合わせとして機能する再帰関係を適用することによって、各タイム ステップで更新される内部状態 h of t を維持します。この関数のパラメーターは、トレーニング中に学習される一連の重みによって表されます。 RNN は、シーケンス内のすべての単語と時点を処理した後、出力を予測します。出力ベクトル t の y は、内部状態を重み行列に渡し、非線形性を適用することによって生成されます。この講義では、RNN ループがどのようにそれ自体にフィードバックし、時間をかけて展開できるかを視覚的に表現します。

  • 00:15:00 このセクションでは、スピーカーは、RNN を経時的にアンロールして、入力に適用される重み行列をより明示的にする方法を説明します。重み行列は、すべての個々のタイム ステップで再利用されます。スピーカーには、RNN をゼロから実装する方法の例も含まれており、RNN モデルのフォワード パスを定義する call 関数を定義しています。講演者は、さまざまなアプリケーションにおける RNN の有用性を強調し、心に留めておくべき具体的な設計基準のセットを動機付けます。

  • 00:20:00 このセクションでは、スピーカーは、可変長シーケンスの処理、長期的な依存関係の追跡、順序の維持と推論、およびシーケンス間でのパラメーターの共有を含む、シーケンス モデリングの設計上の問題と基準について説明します。スピーカーは、ニューラル ネットワークに入力できる数値ベクトルとして言語を表すための埋め込みの重要性を説明します。その一例は、バイナリ ベクトルが単語のアイデンティティを示すワンホット埋め込みです。講演者は、ニューラル ネットワークなどの機械学習モデルを使用して埋め込みを学習することも提案しています。全体として、これらの概念は、再帰型ニューラル ネットワークと新たなトランスフォーマー アーキテクチャの基礎として機能します。これについては、講義の後半で説明します。

  • 00:25:00 このセクションでは、学習された埋め込みの概念が導入されています。これは、単語の意味をより有益なエンコーディングにマッピングし、同様の意味を持つ類似の単語が同様の埋め込みを持つことを可能にします。リカレント ニューラル ネットワーク (RNN) は、可変シーケンス長を処理し、長期的な依存関係をキャプチャしてモデル化し、秩序感覚を保持できるため、文の次の単語の予測などのシーケンス モデリング タスクに役立ちます。時間による逆伝播アルゴリズムは、RNN をトレーニングするための手段として導入されます。これには、各タイム ステップで誤差を逆伝播し、行列の乗算を実行するため、計算上の問題が発生する可能性があります。

  • 00:30:00 このセクションでは、再帰型ニューラル モデルにおける勾配の爆発と勾配の消失の問題について説明し、勾配の消失の問題を軽減する 3 つの解決策を示します。勾配消失問題により、ニューラル モデルが長期的な依存関係よりも短期的な依存関係を優先し、不正確な予測につながる可能性があります。ここで説明する 3 つの解決策は、適切な活性化関数を選択すること、重みをインテリジェントに初期化すること、およびさまざまなゲートを通る情報の流れを選択的に制御できる長短期記憶ネットワーク (LSTM) などのより複雑な反復単位を使用することです。 LSTM ネットワークは、相互作用する複数のゲートを使用して、関連する情報を維持し、無関係な情報を排除します。

  • 00:35:00 ビデオのこのセクションでは、講師が再帰型ニューラル ネットワーク (RNN) の基礎とそのアーキテクチャについて説明します。これには、ゲート構造の重要性や勾配消失問題の緩和が含まれます。次に、シーケンス内の次の音符を予測して新しい音楽を生成し、感情分類をツイートするなど、RNN の使用方法の具体例を示します。講師は、エンコーディングのボトルネック、非効率性、エンコーディングでの潜在的な情報損失など、RNN の限界についても強調しています。

  • 00:40:00 このセクションでは、長いシーケンスを処理する際の再帰型ニューラル ネットワーク (RNN) の制限、特に再帰関係によって引き起こされるボトルネックについて説明します。注意の概念は、この問題の潜在的な解決策として導入され、モデルが入力の最も重要な部分を識別して注意できるようにします。注意は、特にトランス アーキテクチャのコンテキストにおいて、最新のニューラル ネットワークの新しい強力なメカニズムとして説明されています。自己注意の背後にある直感は、画像の重要な部分を識別し、それらの領域から高い注意を払って特徴を抽出する人間の能力を考慮することによって開発されます。

  • 00:45:00 このセクションでは、検索の概念と、トランスフォーマーなどのニューラル ネットワークにおける自己注意との関係について説明します。アイデアは、位置の概念を持つ埋め込みを利用して、入力シーケンスの最も重要な機能に繰り返しなく注意を払うことです。このプロセスには、同じ位置埋め込みの 3 つの異なる変換である、クエリ、キー、および値の特徴の抽出が含まれます。アテンション メカニズムはクエリとキーの間の重複を計算し、抽出された値はこの計算に基づいています。これにより、ネットワークは入力の最も関連性の高い部分を識別して注意を払うことができます。

  • 00:50:00 ビデオのこのセクションでは、インストラクタがニューラル ネットワークで注意メカニズムがどのように機能するかを説明します。注意メカニズムは、入力のさまざまな領域に支払われる注意の重み付けを計算します。これは、内積を使用してクエリとキー ベクトル間の類似性を計算し、それをスケーリングすることによって実現できます。次に、softmax 関数を使用して、各値が 0 から 1 の範囲になるようにスカッシュします。結果のマトリックスは、入力コンポーネント間の関係を反映するアテンションの重み付けです。この重み付けマトリックスは、注目度の高い特徴を抽出するために使用され、複数の個々の注意ヘッドを使用して、入力のさまざまな側面に注意を向けることができます。このアテンション メカニズムは強力なツールであり、特に言語処理など、さまざまなアプリケーションを持つトランスフォーマー アーキテクチャで使用されています。

  • 00:55:00 このセクションでは、スピーカーは、タンパク質構造予測のための Alpha Fold 2 ニューラル ネットワーク アーキテクチャを使用した生物学や、Vision Transformers を使用したコンピューター ビジョンなど、言語処理を超えた領域に自己注意メカニズムを適用する方法について説明します。 .講演者はまた、シーケンス モデリング タスクに関する以前の議論を要約し、RNN がシーケンス データの処理にどのように強力であるか、自己注意メカニズムが反復を必要とせずにシーケンスを効果的にモデル化する方法についても説明します。講義の残りの時間は、学生がコースの Web サイトからラボをダウンロードし、コード ブロックを実行してラボを完了することができるソフトウェア ラボ セッションに専念します。
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
  • 2022.03.18
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 2Recurrent Neural NetworksLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: h...
 

MIT 6.S191: 畳み込みニューラル ネットワーク



講義 3. MIT 6.S191 (2022): 畳み込みニューラル ネットワーク

このビデオでは、画像内の特徴を検出するために使用される機械学習アルゴリズムの一種である畳み込みニューラル ネットワークを紹介します。このビデオでは、使用する特徴の数を減らすことで、ネットワークが画像をより正確に分類できることを説明しています。このビデオでは、cnn を使用して画像内の多数のオブジェクトを検出および位置特定する方法についても説明しています。

  • 00:00:00 このビデオでは、Alexander Amini が、ディープ ラーニングがコンピューター ビジョンとアプリケーションにどのように革命をもたらしたか、またデータ顔認識がその一例であると説明しています。

  • 00:05:00 このセクションでは、コンピューター ビジョンを使用して画像を認識および分類する方法について説明します。また、画像内の特徴を検出する方法と、特徴を使用して画像を分類する方法についても説明しています。

  • 00:10:00 このパートでは、畳み込みニューラル ネットワークを使用して画像内の特徴を検出する方法について説明します。このビデオでは、画像を平坦化すると空間構造が失われ、ネットワークが特徴を学習するのが難しくなることを説明しています。このビデオでは、重みのパッチを使用することで、ネットワークが空間構造を保持し、特徴を学習しやすくすることも説明しています。

  • 00:15:00 畳み込みニューラル ネットワークは、画像内の特徴を検出するために使用される機械学習アルゴリズムの一種です。このアルゴリズムは、画像上で小さなパッチをスライドさせ、パッチに存在する特徴を検出することで機能します。次に、一連の例でネットワークをトレーニングすることによって、パッチの重みが決定されます。

  • 00:20:00 畳み込みニューラル ネットワークは、画像から特徴を抽出するために使用できる機械学習アルゴリズムの一種です。畳み込みの目的は、入力として 2 つの画像を取得し、ピクセル間の空間関係を保持する 3 番目の画像を出力することです。

  • 00:25:00 このビデオでは、プレゼンターが畳み込みニューラル ネットワークがニューラル ネットワークにどのように実装され、どのように構造化されているかを説明しています。また、畳み込みニューラル ネットワークの 3 つの主要な操作 (畳み込み、非線形性、およびプーリング) がどのように機能するかについても説明しています。

  • 00:30:00 このビデオでは、i 番目の出力で他のノードに接続されている機械学習パイプラインのノードである畳み込みニューラル ネットワークを紹介します。畳み込み層は、層の出力の空間配置を定義するパラメーターによって定義されます。畳み込み層の目的は、ある畳み込み層から次の層へと階層的な特徴を学習することです。これは、特徴抽出、空間ダウンスケーリング、最大プーリングの 3 つのステップを縦に積み重ねることによって行われます。最後に、このビデオは、最初のエンドツーエンドの畳み込みニューラル ネットワークのコードを示しています。

  • 00:35:00  Alexander Amini が、畳み込みニューラル ネットワークを画像分類タスクに使用する方法について説明します。彼は、より多くの特徴を使用することで、縮小された車の画像をより正確にタクシーとして分類できると説明しています。彼はまた、cnn を使用して、画像内のさまざまな場所にある場合でも、画像内の多数のオブジェクトを検出してローカライズする方法についても説明しています。

  • 00:40:00  MIT 6.S191: Convolutional Neural Networks コースでは、他の方法よりもはるかに遅く脆弱なオブジェクト検出のヒューリスティックについて説明しています。これらの問題の解決策として、単純なヒューリスティックに頼るのではなく、領域を学習しようとするより高速な rcnn メソッドが提案されています。

  • 00:45:00 このビデオでは、Alexander Amini が畳み込みニューラル ネットワーク、その起源、およびアプリケーションについて説明しています。彼はまた、幅広いタスクや分野に対する cnn の影響についても取り上げています。
MIT 6.S191 (2022): Convolutional Neural Networks
MIT 6.S191 (2022): Convolutional Neural Networks
  • 2022.03.25
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 3Convolutional Neural Networks for Computer VisionLecturer: Alexander AminiJanuary 2022For all lectures, sl...
理由: