00:05:00 このセクションでは、インストラクターは、1 ÷ 1 プラス e からマイナス x であるシグモイド関数と、シグモイドの微分がそれ自体である重要な特性について説明します。ニューラルネットに結果がどれほど間違っているかを伝えるパフォーマンス関数についても説明します。彼らは、好みの関数を 1/2 D に選択しました。これは、望ましい出力から実際の出力の 2 乗を引いたものです。この理由は、パフォーマンスの導関数が負であり、計算が容易になるためです。次に、インストラクターは、シグモイド関数を他の関数に変更し、バックプロパゲーション関数、特に新しい重みの計算に何が起こるかを分析することについて話します。これには、目的の結果に向かって重みを段階的に変更することが含まれます。
00:20:00 このセクションでは、インストラクターが、シグモイド関数とパフォーマンス関数を変更すると、ニューラル ネットワークで使用される方程式にどのように影響するかについて説明します。彼は、シグモイド関数が変更された場合、変化するのはデルタ F 方程式だけであり、シグモイド関数の新しい導関数に置き換えられると説明しています。同様に、性能関数を交換する場合は、Delta F 式のみを調整する必要があります。次に、インストラクターは、ニューラル ネットワークのしきい値の重みと通常の重みの違いと、それらがネットワークの全体的な機能にどのように影響するかを説明します。
00:25:00 このセクションでは、スピーカーは、ニューラル ネットワークを視覚化する方法と、問題を効果的に解決するために意味のある表現を持つことがいかに重要であるかについて話します。彼は、加算器ノードがどのように機能するか、およびその導関数は 1 つにすぎないことを説明しています。彼はデルタ F とデルタ a の公式を示し、パート B のプロセスを説明します。パート B では、ニューラル ネットワークの出力を計算し、1 ステップの逆伝播を実行して新しい重みを見つけます。彼は生徒たちに疑問を明確にするために質問をするように頼みます。
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterWe begin by discussing neural net fo...
00:05:00 このセクションでは、デカルト座標の直線の方程式と、それがサポート ベクター マシンの方程式 W dot X plus B = 0 にどのように関係するかについて説明します。このビデオでは、境界を作成するための各ポイントの重要性を決定するためにアルファが使用されること、および正のアルファが負のアルファに等しいことを説明しています。このビデオでは、W と B を解くときに使用する方程式も提供し、解を決定する際にサポート ベクターが重要であることに言及しています。プレゼンターは、サポート ベクターは境界線上のベクターであり、目標はそれらを一周することであることを明確にします。
00:15:00 このセクションでは、スピーカーはサポート ベクター マシンで W と B を見つける方法を説明します。点を方程式に代入する古い方法を使用する代わりに、話者は方程式を y = mx + b の形式に変換するという安価な戦略を導入します。 y = x - 1 と設定することにより、スピーカーはこれを使用して新しい方程式 y = -w1/w2 - b/w2 を見つける方法を示します。この形式を使用して、話し手は無限に多くの可能な方程式があり、w1/w2 は -1 のスカラー倍数であり、B/w2 は 1 のスカラー倍数であることを示します。
00:35:00 このセクションでは、スピーカーは、カーネル関数を使用して、通常の空間で 2 つのベクトルのドット積を見つける方法を説明します。これにより、ベクトル自体を直接使用する必要がなくなります。ベクトル X と Z をカーネルに入れることにより、結果の関数は、2 つのベクトルの内積を置き換える Z の Phi でドット化された X の Phi を返します。スピーカーはカーネル関数の例を示し、聴衆に対応するファイ関数を見つけてクイズを解決するように要求します。講演者はまた、SVM のアルファの計算は複雑になる可能性がありますが、カーネル関数を使用すると、ベクトルを直接操作する必要がなくなる便利なショートカットになることにも注意してください。
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterWe start by discussing what a suppor...
00:15:00 ビデオのこのセクションでは、スピーカーは吸血鬼の分類と、どの分類子が間違っている可能性が高いかについて説明します。スピーカーは、必然的に不正確な否定的な分類子につながる特定の肯定的な分類子があることに注意します。次にスピーカーは、いくつかの分類子をリストし、最も夢見ている中で、個人はそのうちの 6 つしか使用しないだろうと主張します。講演者は視聴者に、どの分類子が役立つと思うかについて意見を求め、使用する価値があると思われる分類子を丸で囲みます。有用と考えられる分類器は、分類器 E や F など、間違いが少ないものです。
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterThis mega-recitation covers the boos...
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Mark SeifterThis mega-recitation covers a questi...
With more board configurations than there are atoms in the universe, the ancient Chinese game of Go has long been considered a grand challenge for artificial...
2017 NIPS Keynote by DeepMind's David Silver. Dr. David Silver leads the reinforcement learning research group at DeepMind and is lead researcher on AlphaGo....
このビデオでは、AlphaGo Zero の技術的な詳細を探っています。AlphaGo Zero は、人間のデータセットを使用せずにセルフプレイで完全にトレーニングされた AI システムです。このシステムは、残差ネットワーク アーキテクチャと 2 つの研究アプローチを使用して、価値と強い動きを予測しました。このビデオでは、ゲームの結果を予測する機能や、囲碁のよく知られている手から離れたシステムの発見と移動など、行われた改善点が強調されています。ただし、システムの実世界への適用は、完全なシミュレーターの必要性によって制限されており、このアプローチを他の分野に適用することは困難です。
00:00:00 このセクションでは、以前のバージョンに対する AlphaGo Zero の改善点の技術的な詳細について説明します。最初の大きな変更点は、AlphaGo Zero が完全にセルフプレイでトレーニングし、プロの囲碁プレイヤーのデータセットを使用しないことです。また、これまでゲームで手作りされていた機能は一切使用せず、代わりにボードの状態を観察することで完全に学習します。ネットワーク アーキテクチャは完全に残余のアーキテクチャに変更され、個別のポリシー ネットワークと評価ネットワークを持つ代わりに、両方を実行する単一の大規模ネットワークに結合されました。モンテカルロのロールアウトは、単一のネットワークを使用して価値予測を行い、強力な動きを生み出す、より単純な 2 つの調査アプローチに置き換えられました。全体として、これにより、19 x 19 x 16 の 2 進数のボード表現、残差ネットワーク、および特徴ベクトルから生成される値表現とポリシー ベクトルが得られました。
00:05:00 このセクションでは、ネットワーク アーキテクチャを使用して、AlphaGo がどのように良い手をプレイするようにトレーニングされたかを説明します。これにより、良い手が出る確率が高くなり、悪い手が出る確率が低くなります。 AlphaGo の最初のバージョンは、プロの囲碁の動きのデータセットに対する教師あり学習を使用してトレーニングされた後、セルフプレイを使用してステージを微調整しました。しかし、新しいバージョンの AlphaGo Zero は、データセットを一切使用せず、モンテカルロ木探索を使用して完全にセルフプレイで学習し、自重トレーニング プロセスを安定させます。検索ツリーを展開し、モンテカルロ木検索を使用することで、システムはどの動きが強く、どの動きが弱いかを推定できます。最後に、このビデオは、このプロセスが完全なシミュレーターを備えた囲碁のようなゲームに固有のものであることを強調しており、このアプローチの現実世界への適用を困難にしています.
00:10:00 このセクションでは、スピーカーは、AlphaGo のネットワーク アーキテクチャで行われた改善を示すさまざまなグラフについて説明します。 1 つのグラフは、現在のボードの位置に基づいてゲームの結果を予測する AlphaGo Zero ネットワークの能力を示しており、以前のバージョンよりも大幅に改善されています。講演者はまた、通常の畳み込みアーキテクチャから残差ネットワークへの移行によって大幅な改善がもたらされたことにも言及しています。さらに、AlphaGo Zero がどのように囲碁のよく知られている動きを発見し、次に進んだかをグラフで示しています。全体として、講演者は Google DeepMind チームの結果に感銘を受けており、視聴者にコメント セクションで質問するよう促しています。
In this episode I dive into the technical details of the AlphaGo Zero paper by Google DeepMind.This AI system uses Reinforcement Learning to beat the world's...
00:40:00 このセクションでは、Monte Carlo Tree Search (MCTS) を使用してモデルをトレーニングする方法を説明します。目標は、MCTS 分布や各状態の報酬など、プレイ中に得られたすべての情報を保存することです。報酬は、その状態のプレーヤーのゲームの最終結果によって異なります。データを収集したら、それを使用して、ポリシーと MCTS 分布と値 V と最終的な報酬 Z の差を最小化する損失関数を使用してモデルをトレーニングします。バックプロパゲーションを使用して、モデルのシータ。全体として、このプロセスは、モデルがゲームのプレイ方法をよりよく理解し、最適化するのに役立ちます。
03:05:00 チュートリアルのこのセクションでは、講師は Connect Four のようなより複雑なゲームでモデルをトレーニングするための CPU と GPU のサポートを追加します。 torch.device() を使用してデバイスを定義し、torch.cuda.is_available() をチェックして、CPU または CUDA デバイスのどちらを使用するかを決定します。また、デバイスをテンソル状態スタックと静的ファイルの読み込みに追加します。インストラクターは Tic-Tac-Toe でモデルをトレーニングおよびテストし、モデルが違法な動きを認識することを学習したことを示します。次に、行数、列数、およびアクション サイズを使用して Connect Four のゲームを定義します。
03:10:00 このセクションのビデオ チュートリアルでは、ソース コードを更新して Connect Four ゲームを作成する手順を説明します。ゲームは、空の配列と、勝つために必要な石の数を表す 4 の行変数に保存されたドットで初期化されます。 get next state メソッドが更新され、特定の列を見て、その列の最も深い空のフィールドを見つけて石を配置することで、行を取得します。有効な動きを取得するメソッドが更新され、利用可能な動きの一番上の行がチェックされます。勝利メソッドのチェックは、Tic Tac Toe ゲームからコピーされ、両方の対角線をチェックするように調整されています。次の状態を取得するメソッドは、列の変数の代わりにアクション変数を使用するように更新されています。更新されたコードは、動作することを確認するためにテストされます。
In this machine learning course, you will learn how to build AlphaZero from scratch. AlphaZero is a game-playing algorithm that uses artificial intelligence ...
このビデオでは、チャットボットがより強力になる可能性に向けて Google がどのように準備しているか、およびこれが Google のビジネス モデルにどのような影響を与えるかについて説明しています。 Microsoft は、ユーザーがより人間らしい方法で Bing と通信できるようにするチャットボットに取り組んでいると報告されており、この機能は現在画像が存在しない検索に役立ちます。 Microsoft は、オープン AI と緊密に連携しているため、この機能が明示的または不適切なビジュアルを生成しないと述べています。そのため、Bing はチャット GPT と Dali 2 機能を統合して大幅な見直しを行っているようです。
00:00:00 Google は 1998 年に別の家の隣に家を借りていました。卓球台は別の家にありました。
00:05:00 このビデオでは、Google がチャットボットがより強力になる可能性と、これが Google のビジネス モデルにどのように損害を与える可能性があるかについてどのように懸念しているかについて説明しています。伝えられるところによれば、Google はこれに対抗するための計画に取り組んでおり、共同創設者である Larry Page と Sergey Brin は、この問題について話し合うための会議に招待されています。
00:10:00 このビデオでは、Google が Microsoft と競合しているように見えます。Microsoft はオープン AI にさらに 100 億ドルを投資しています。しかし、これはオープン AI 運動の最善の利益にはならない可能性があります。AI が実際に開始する機会を得る前に、AI であることの死につながる可能性があるからです。また、Google は 20 の AI プロジェクトに取り組んでいると報告されており、そのうちのいくつかはチャット GPT に似ており、Microsoft は同社に 3 億ドルを投資しています。これがどのように展開するかは不明ですが、Google は安全性の問題を後回しにし、AI 製品を解き放つことを余儀なくされるようです.
00:15:00 ビデオは、Microsoft がユーザーがより人間的な方法で Bing と通信できるようにするチャットボットに取り組んでいるという噂について語っています。また、この機能は、画像が現在存在しない検索に役立つことにも言及しています。最後に、ビデオでは、この統合により、ユーザーがテキストを入力して画像を生成できるようになる方法について説明しています。これは、現在画像が存在しない検索に特に役立ちます。 Microsoft は、オープン AI と緊密に連携しているため、この機能が明示的または不適切なビジュアルを生成しないと述べています。そのため、Bing はチャット GPT と Dali 2 機能を統合して大幅な見直しを行っているようです。発売されたら、みんなの注目を集めること間違いなしです。
Google's newly announced BARD AI system is mentioned at 12:25In this episode we see why Google has called a code red because of ChatGPT but why? Why is ChatG...
00:45:00 このセクションでは、スピーカーは AI トレーニングと独学における合成データ生成の役割について説明します。既存のデータの可用性を過小評価してはいけませんが、AI が学習と問題解決のために独自のデータを生成する可能性は、将来の可能性です。近い将来、AI システムの信頼性を向上させ、重要な意思決定を信頼できるようにすることに重点が置かれます。 GPT-4 などの AI モデルが数学の問題を確実に解決し、クリエイティブなコンテンツを作成できる可能性は非常に魅力的ですが、ユーザーの意図を理解して対応する際の精度と明確さを向上させるためには、まだやるべきことがあります。
00:50:00 このセクションでは、Jensen Huang と Ilya Sutskever が、今日の AI におけるニューラル ネットワークの驚くべき成功について説明します。 20 年前と同じニューラル ネットワークの概念であるにもかかわらず、同じ基本的なトレーニング アルゴリズムを使用してさまざまな方法で大規模なデータ セットをトレーニングするため、より深刻で強力なものになっています。 Open AI での Alexnet と GPT に関する Sutskever の重要な業績は注目に値するものであり、Huang は問題を分析し、大規模な言語モデルの最先端を説明する彼の能力を高く評価しています。 2 人は追いつき、AI 分野の進歩に驚嘆します。
メガR4。ニューラルネット
メガR4。ニューラルネット
このビデオでは、表現、入力と出力の混乱、シグモイド関数とパフォーマンス関数、重みとバイアス、バックプロパゲーション、シグモイド関数とパフォーマンス関数の変更、しきい値の重み、視覚化、ニューラル ネットワークの可能性など、ニューラル ネットワークのさまざまな側面について説明します。インストラクターは、クイズに必要なさまざまな式と、デルタを再帰的に計算および調整する方法について説明します。彼はまた、単純な問題を解決するために必要なニューラル ネットワークの種類についても説明し、メリーランド大学でのゲーム プレイ コンテストでのニューラル ネットワークの最近の実世界への適用について言及しています。最後に、彼はニューラル ネットワークが研究の限界と複雑さのために支持されなくなった一方で、クイズにはまだ役立つと述べています。
メガR5。サポート ベクター マシン
メガR5。サポート ベクター マシン
このビデオでは、サポート ベクター マシン (SVM) について説明しています。SVM は、他のデータ ポイントとは異なるサポート ベクターを見つけることによって、データの分割線または決定境界を決定します。また、カーネルがベクトルを直接操作せずに内積を計算できるようにするカーネル関数の使用も含まれます。教授は、最も広い道路に最適な W を提供するアルファを見つけるという目標と、W が SVM の決定境界である方法を明確にします。学生は SVM の背後にある直感について質問し、Alpha に基づく最適化によって、より優れたデータ分類への最も広い道が開かれます。 SVM カーネルは、プロセスの最適化にも役立ち、より効率的になります。
メガR6。ブースティング
メガR6。ブースティング
ビデオ「Mega-R6.Boosting」では、講演者が機械学習におけるブースティングの概念を説明し、エラーを最小限に抑えるために正しい分類器を選択するプロセスを実演します。彼らは、特定の性質に基づいて吸血鬼を識別する例を示し、最も効果的な分類子を選択する方法について説明します。選択した分類子を使用して、データ ポイントに適用される最終的な分類子を作成し、正しく分類された数を決定します。スピーカーはまた、いつプロセスを停止するかを選択することが重要であることを強調し、完全な正確さを達成することは常に実現可能ではないことを認めています.
メガR7。ニアミス、アーチ学習
メガR7。ニアミス、アーチ学習
動画では、ヒヤリハット学習の概念を紹介し、光源の種類とその特徴を学習します。 Arch Learning アプローチでは、require リンク、forbid リンク、climb-tree、extend set、closed interval、drop link などの 6 つのヒューリスティックを使用してモデルを改良します。このビデオでは、セットの拡張、ツリーの登り、閉区間、リンクのドロップなど、機械学習で使用されるさまざまな手法について説明します。講演者はまた、アーチ学習モデルの脆弱性と順序付けに対する脆弱性に関連する問題についても話し、矛盾した情報に対する一貫性のない反応につながります。このビデオでは、Mega-R7 の一般化の概念と、それが以前のモデルとどのように異なるかについても説明しています。さらに、情報のサブセットを表現する能力の観点から、アイルランドの学習と格子学習の間のトレードオフについて説明し、実装の詳細が異なる複数のモデルを使用してシステムを教えます。
AlphaGo - 映画 |受賞歴のある完全なドキュメンタリー
AlphaGo - 映画 |受賞歴のある完全なドキュメンタリー
囲碁で人間のプレイヤーに勝つように設計された AlphaGo コンピューター プログラムの開発に関するドキュメンタリー。この映画は、プログラムが 5 ゲームの試合で世界チャンピオンの人間のプレーヤーに勝利する様子を追っています。一部の視聴者は、AlphaGo の勝利は、私たちが知っている人類の終わりを告げるかもしれないと感じています.
Deepmind AlphaZero - 人間の知識なしでゲームをマスターする
Deepmind AlphaZero - 人間の知識なしでゲームをマスターする
このビデオでは、DeepMind の深層強化学習アーキテクチャである AlphaZero の開発について説明します。AlphaZero は、統合されたポリシーと値のネットワークを利用して、事前の人間のデータがなくても巨大な状態空間を持つゲームで成功します。 AlphaZero のアルゴリズムでは、ニューラル ネットワークをトレーニングして、モンテカルロ ツリー検索全体によって選択されたアクションを予測し、知識を繰り返し抽出して、時間をかけてより強力なプレーヤーを生成します。このアルゴリズムは印象的な学習曲線を示し、わずか数時間のトレーニングで以前のバージョンを上回り、以前の検索エンジンよりも少ない位置を評価するにもかかわらず、驚くべきスケーラビリティを示しました。このビデオでは、人間と機械の最良のアプローチを組み合わせ、汎用強化学習の可能性を示す AlphaZero の能力についても説明しています。
AlphaGo - AI が史上最も難しいボードゲームをマスターした方法
AlphaGo - AI が史上最も難しいボードゲームをマスターした方法
このビデオでは、AlphaGo Zero の技術的な詳細を探っています。AlphaGo Zero は、人間のデータセットを使用せずにセルフプレイで完全にトレーニングされた AI システムです。このシステムは、残差ネットワーク アーキテクチャと 2 つの研究アプローチを使用して、価値と強い動きを予測しました。このビデオでは、ゲームの結果を予測する機能や、囲碁のよく知られている手から離れたシステムの発見と移動など、行われた改善点が強調されています。ただし、システムの実世界への適用は、完全なシミュレーターの必要性によって制限されており、このアプローチを他の分野に適用することは困難です。
ゼロからの AlphaZero – 機械学習チュートリアル
ゼロからの AlphaZero – 機械学習チュートリアル
00:00:00 - 01:00:00 ビデオ「AlphaZero from Scratch – Machine Learning Tutorial」では、Python と PyTorch を使用して AlphaZero アルゴリズムを構築およびトレーニングし、超人的なレベルで複雑なボード ゲームをプレイする方法を、Tic の例とともにユーザーに説明しています。 -tac-toe と Connect 4. アルゴリズムの重要なコンポーネントの 1 つはモンテカルロ ツリー検索です。これには、最も有望なアクションの選択、ツリーの拡張、およびゲームのシミュレーションが含まれ、結果はトレーニング用に逆伝播されます。このチュートリアルでは、モンテカルロ リサーチ アルゴリズム中のノードの拡張、セルフプレイのプロセス、ポリシーと MCTS 分布の差、および価値と最終的な報酬の差を最小化する損失関数を使用してモデルをトレーニングする方法を示します。ビデオは、Tic-tac-toe ゲームを作成し、while ループでテストして終了します。
01:00:00 - 02:00:00 AlphaZero をゼロから構築するチュートリアルのこのセクションでは、講師が Tic-tac-toe ゲームのモンテカルロ木探索 (MCTS) アルゴリズムの実装を実演します。このアルゴリズムは、MCTS の新しいクラスを通じて実装されます。このクラスには、選択、展開、シミュレーション、および逆伝播フェーズの反復反復のループを定義する検索メソッドが含まれています。このビデオでは、AlphaZero ニューラル ネットワークのアーキテクチャの実装についても説明します。これには、ポリシー用と値用の 2 つのヘッドが含まれ、スキップ接続を使用した残差ネットワークが使用されます。ポリシー ヘッドはソフトマックス関数を使用して最も有望なアクションを示し、バリュー ヘッドは現在の状態がどの程度良好であるかを推定します。講演者は、ResNet クラスの開始ブロックとバックボーンの実装についても説明し、AlphaZero モデルを使用して Tic-Tac-Toe で特定の状態のポリシーと値を取得する方法について説明します。
02:00:00 - 03:00:00 「AlphaZero from Scratch」チュートリアルでは、機械学習による AlphaZero アルゴリズムの構築について説明しています。プレゼンターは、MCTS アルゴリズムの更新、セルフプレイ、トレーニング方法から、確率分布への温度の追加、モデルの重み減衰と GPU サポート、ルート ノードへのノイズの追加などの改善まで、幅広いトピックをカバーしています。このチュートリアルでは、ノードの状態をエンコードする方法、ポリシーと値の出力を取得する方法、ソフトマックス、有効な動き、ディリクレ ランダム ノイズを使用してポリシーを微調整して探索を追加する方法を示すことで、これらの機能の実装を順を追って説明します。有望な行動は見逃されません。
03:00:00 - 04:05:00 機械学習を使用してゼロから AlphaZero を作成するこの YouTube チュートリアルでは、インストラクターはさまざまなトピックについて説明しますより複雑なゲーム、Connect Four ゲームを作成するためのソース コードの更新、並列化による AlphaZero 実装の効率の向上、セルフプレイ ゲーム用の Python での 2 つの新しいクラスの作成、状態のエンコードによる効率の向上、モンテカルロ ツリー検索アルゴリズムの実装AlphaZero の場合、並列化された fs0 を使用して Connect Four のモデルをトレーニングします。このチュートリアルでは、効率的かつ効果的な AlphaZero 実装の作成に焦点を当てた、各トピックに関する段階的なガイダンスを提供します。プレゼンターは、Kegel 環境パッケージを使用して Connect Four 環境を作成する方法を示し、トレーニング済みの AlphaZero モデルに基づく MCTS 検索アルゴリズムを使用する 2 つのエージェントでゲームを実行および視覚化します。また、プレゼンターはコードに小さな修正を加え、トレーニング済みのモデルに基づく予測に MCTS アルゴリズムを使用して、プレイヤー 1 をエージェントとして定義します。チュートリアルは、プレゼンターが、各チェックポイントの jupyter ノートブックを含む GitHub リポジトリと、Tic-tac-toe と Connect Four の最後のモデルを含む weights フォルダーを提供することで終了し、Mu Zero に関するフォローアップ ビデオがあれば作成することに関心を示しています。それへの関心。
パート1
パート2
パート3
パート 4
ChatGPT で Google がパニック [AI 戦争が始まった]
ChatGPT で Google がパニック [AI 戦争が始まった]
このビデオでは、チャットボットがより強力になる可能性に向けて Google がどのように準備しているか、およびこれが Google のビジネス モデルにどのような影響を与えるかについて説明しています。 Microsoft は、ユーザーがより人間らしい方法で Bing と通信できるようにするチャットボットに取り組んでいると報告されており、この機能は現在画像が存在しない検索に役立ちます。 Microsoft は、オープン AI と緊密に連携しているため、この機能が明示的または不適切なビジュアルを生成しないと述べています。そのため、Bing はチャット GPT と Dali 2 機能を統合して大幅な見直しを行っているようです。
カンファレンス JENSEN HUANG (NVIDIA) と ILYA SUTSKEVER (OPEN AI). AI TODAY AND VISION OF THE FUTURE
カンファレンス JENSEN HUANG (NVIDIA) と ILYA SUTSKEVER (OPEN AI). AI TODAY AND VISION OF THE FUTURE
NVIDIA の CEO である Jensen Huang と OpenAI の共同創設者である Ilya Sutskever が、カンファレンスで人工知能 (AI) の起源と進歩について話し合います。 Sutskever は、深層学習がどのように明らかになったか、圧縮による教師なし学習が感情に対応するニューロンの発見にどのようにつながったか、ニューラル ネットワークの事前トレーニングがどのように人間と AI のコラボレーションによる指示と改良につながったかを説明しています。また、GPT-4 とマルチモダリティ学習の進歩と限界、および合成データ生成の役割と AI システムの信頼性向上についても説明します。 20 年前と同じコンセプトであるにもかかわらず、2 人とも AI 研究の進歩に驚嘆しています。