ムーアの法則の終焉をめぐる世界同時不況 - ページ 7 1234567891011121314...19 新しいコメント Alexey Busygin 2016.07.16 06:24 #61 Vladimir:GPU=グラフィックス・プロセッシング・ユニット(主にNvidia社製)CPU=中央演算処理装置(インテル社またはAMD社製)どちらもプロセッサーです。わからないのか?GPUをカードと呼ぼうが何だろうが、最新モデルなら3000コアのプロセッサーなんですよ。パソコンであればGPUです。 CPUとGPUは別物 CPUはCPU、そういうことです。 Dmitry Fedoseev 2016.07.16 06:32 #62 Vladimir:憂鬱ではなく、自分と他人の未来への恐怖...。 なぜ恐れるのか?何が問題なのか?新しいコンピューターがないから何?すべてが以前と同じになり、新しく追加されたリソースをすべて消費してしまう、透明でなく、ピカピカのインターフェイスのWindowsを見ることはないでしょう。 Dmitry Fedoseev 2016.07.16 06:33 #63 Vladimir:GPU=グラフィックス・プロセッシング・ユニット(主にNvidia社製)CPU=中央演算処理装置(インテル社製またはAMD社製)どちらもプロセッサーです。わからないのか?GPUをカードと呼ぼうが何だろうが、最新モデルなら3000コアのプロセッサーなんですよ。パソコンであればGPUです。 CPUについて語る。カードはこれでもか、これでもか、というほどシンプルなカードで、CPUはそのままです。3000コアのCPUはどこにある? Alexey Busygin 2016.07.16 06:42 #64 Dmitry Fedoseev: トークはCPUについてです。カードがこうなっても、簡単なカードがこうなっても、CPUは存在するのです。3000コアのCPUはどこにある? それも気になるところです。 Vladimir 2016.07.16 08:16 #65 Dmitry Fedoseev: トークはCPUについてです。カードがこうなっても、簡単なカードがこうなっても、CPUは存在するのです。3000コアのCPUはどこにある? 論点がよくわからない。CPUはより多くのコアを持つように進化してきたと主張しましたね。私もそう思いますし、3000コアのGPUの例も挙げました。そして、同じコア数のCPUが存在しない理由を知りたいということですね?また、GPUの何が嫌なのでしょうか?CPUが同じ場合と異なる場合があります。もし多くのコアが必要なら、対応するGPUを買って、その上でプログラミングをすればいいのです。しかし、多くのコアを必要としないのであれば、議論する意味はありません。私が思うに、マルチコアの道を歩むプロセッサの開発は、2004年から2005年にかけて始まったと思います。だから、ムーアの法則が終わった後も、目新しさを感じることはないだろう。今コアが必要ないのであれば、2020年以降も必要ないでしょう。 Dmitry Fedoseev 2016.07.16 08:18 #66 Vladimir: 論点がよくわからない。プロセッサはコア数を増やすことで進化してきたと主張されていましたね。私もそう思いますし、3000コアのGPUの例も挙げました。そして、同じコア数のCPUが存在しない理由を知りたいということですね?また、GPUの何が嫌なのでしょうか?CPUが同じ場合と異なる場合があります。もし多くのコアが必要なら、対応するGPUを買って、その上でプログラミングをすればいいのです。しかし、多くのコアを必要としないのであれば、議論する意味はありません。私が思うに、マルチコアの道を歩むプロセッサの開発は、2004年から2005年にかけて始まったと思います。だから、ムーアの法則が終わった後も、目新しさを感じることはないだろう。今コアが必要ないのであれば、2020年以降も必要ないでしょう。 扁桃腺を切り取った逸話を思い出す...。...オートジェネで...zpを通して。 Vladimir 2016.07.16 16:38 #67 Dmitry Fedoseev: 扁桃腺を切り取った逸話を思い出す...。オートゲノムと...ZPを経てGPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?プログラマーが頭を悩ませて、プログラムのどの部分をパラレル化するか決め、特別なパラレル化コードを書くなど、問題は同じだ。ほとんどのプログラマーは苦もなく、シングルコアのプログラムをひねもすことなく書いています。コアが足りないのか、マルチコアを使ったプログラムなのか、何が問題なのでしょうか?私は後者だと思います。3000コアのCPUを与えても、3000コア用と4コア用のプログラムを書く難易度に差はないので、シングルコア用のプログラムを書くことになります。必要なのは、並列化できるコードの断片を自動的に検出できる新しいコンパイラである。しかし、やはりこのようなコンパイラの作成が進むかどうかは、ハードウェアではなく、プログラマーがそのようなコンパイラを書こうとする意欲に依存する。このスレッドを通して、私は、半導体技術の進歩やトランジスタの小型化・低消費電力化により、2020年以降に新しいハードウェアを作る可能性が低くなっていることを述べています。新しい材料やトランジスタは、まだまだ先の話だ。インテルは2016年に10nm技術でKnight Hill世代のプロセッサを作ろうとし、その世代を2017年後半まで延期しました。サムスンもアプリのプロセッサの10nm技術に問題を抱えています。すでに10nmサイズでは、14nmと比較して、トランジスタのサイズと消費電力がわずかに減少するだけです。放熱が大きな問題になる。技術の飛躍が必要です。技術の指標のひとつに、トランジスタ1個あたりの価格がある。つまり、28nm以前はその価格が下がっていて、それ以降は指数関数的に上昇し始めたわけです。多くの企業が28nmで止めたのは、価格が高かったからです。そのため、10nm技術、7nm、そして最後の5nmと進むと、熱の問題だけでなく、価格も高くなります。 Dmitry Fedoseev 2016.07.16 17:01 #68 これでパラレルの場合は問題ありませんが、CPUを使う場合のみです。C#では3秒で終わります。むしろ、多くのコアを必要としないことがポイントです。普通の平均的なプログラムであれば、並列化してもそれほど問題はない。多コアにすれば、いろいろなプログラムが動くかもしれないというメリットだけで、本当は必要ないんです。 TheXpert 2016.07.16 18:24 #69 Vladimir:GPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?GPUで効率的なプログラムを書くのは本当に大変なんです。実際、デバイス間、デバイスと人間の間のインタラクションという点では、まだまだ未開拓の領域があるのです。クラウドの領域があり、そこにあらゆるものを詰め込み、分散化させ一般的にインテリジェントアシスタントやデバイスの分野があります。オーグメンテッドリアリティ、バーチャルリアリティの領域があります。つまり、ムーアの法則があるからこそ、不景気にはならず、新しい開発方法が模索されるのです。不況になるのは別の理由 СанСаныч Фоменко 2016.07.16 18:29 #70 Vladimir:GPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?プログラマーが頭を悩ませて、プログラムのどの部分をパラレル化するか決め、特別なパラレル化コードを書くなど、問題は同じだ。ほとんどのプログラマーは苦もなく、シングルコアのプログラムをひねもすことなく書いています。コアが足りないのか、マルチコアを使ったプログラムなのか、何が問題なのでしょうか?私は後者だと思います。3000コアのCPUを与えても、3000コア用と4コア用のプログラムを書く難易度に差はないので、シングルコア用のプログラムを書くことになります。必要なのは、並列化できるコードの断片を自動的に検出できる新しいコンパイラである。しかし、やはりこのようなコンパイラの作成が進むかどうかは、ハードウェアではなく、プログラマーが「このコンパイラを書きたい」と思うかどうかにかかっている。Rは記述されているような問題はない。1.ほとんどの場合、計算が複雑なアルゴリズムのプログラムを書く必要はない。すべてが書かれており、計算上複雑なアルゴリズム(例えば、最適化やブーストなど)が並列性を認めている場合、これはすでに実装されているのです。しかも、どこかで探さなくてもいいんです。開発者は問題の内容から出発し、その内容にツールを当てはめ、すべてをツールに最大限実装していくのです。このツールは、より手間のかからないツールにするために、非常に強力なヘルプシステムを備えています。2.例えば、ループの一部を並列に実行する必要がある場合、並列化ツールが用意されています。このような構文や使用条件を説明する場合、無駄な時間を費やす必要はないのです。3.このプログラムは、与えられたコンピュータのコアだけでなく、近隣のコンピュータも読み込むことができます。これは、利用可能なコンピュータからの、いわば雲をつかむような話ではない。あなたのおっしゃる問題は、鉄から普遍的なアルゴリズム言語を経て、問題に到達していないことに起因しています。逆に、問題から道具の選択まで行ってしまうと、ハードウェアの話は全く必要なくなるかもしれません。つまり、ギガヘルツはプログラムの実行効率にはほとんど関係ないというのが、冒頭の結論です。この15年間、ギガヘルツの増加に気づかなかったように、まさにこのギガヘルツの増加の終了に気づかないのでしょう。 1234567891011121314...19 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
GPU=グラフィックス・プロセッシング・ユニット(主にNvidia社製)
CPU=中央演算処理装置(インテル社またはAMD社製)
どちらもプロセッサーです。わからないのか?GPUをカードと呼ぼうが何だろうが、最新モデルなら3000コアのプロセッサーなんですよ。パソコンであればGPUです。
憂鬱ではなく、自分と他人の未来への恐怖...。
なぜ恐れるのか?何が問題なのか?
新しいコンピューターがないから何?すべてが以前と同じになり、新しく追加されたリソースをすべて消費してしまう、透明でなく、ピカピカのインターフェイスのWindowsを見ることはないでしょう。
GPU=グラフィックス・プロセッシング・ユニット(主にNvidia社製)
CPU=中央演算処理装置(インテル社製またはAMD社製)
どちらもプロセッサーです。わからないのか?GPUをカードと呼ぼうが何だろうが、最新モデルなら3000コアのプロセッサーなんですよ。パソコンであればGPUです。
トークはCPUについてです。カードがこうなっても、簡単なカードがこうなっても、CPUは存在するのです。3000コアのCPUはどこにある?
トークはCPUについてです。カードがこうなっても、簡単なカードがこうなっても、CPUは存在するのです。3000コアのCPUはどこにある?
論点がよくわからない。プロセッサはコア数を増やすことで進化してきたと主張されていましたね。私もそう思いますし、3000コアのGPUの例も挙げました。そして、同じコア数のCPUが存在しない理由を知りたいということですね?また、GPUの何が嫌なのでしょうか?CPUが同じ場合と異なる場合があります。もし多くのコアが必要なら、対応するGPUを買って、その上でプログラミングをすればいいのです。しかし、多くのコアを必要としないのであれば、議論する意味はありません。私が思うに、マルチコアの道を歩むプロセッサの開発は、2004年から2005年にかけて始まったと思います。だから、ムーアの法則が終わった後も、目新しさを感じることはないだろう。今コアが必要ないのであれば、2020年以降も必要ないでしょう。
扁桃腺を切り取った逸話を思い出す...。オートゲノムと...ZPを経て
GPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?プログラマーが頭を悩ませて、プログラムのどの部分をパラレル化するか決め、特別なパラレル化コードを書くなど、問題は同じだ。ほとんどのプログラマーは苦もなく、シングルコアのプログラムをひねもすことなく書いています。コアが足りないのか、マルチコアを使ったプログラムなのか、何が問題なのでしょうか?私は後者だと思います。3000コアのCPUを与えても、3000コア用と4コア用のプログラムを書く難易度に差はないので、シングルコア用のプログラムを書くことになります。必要なのは、並列化できるコードの断片を自動的に検出できる新しいコンパイラである。しかし、やはりこのようなコンパイラの作成が進むかどうかは、ハードウェアではなく、プログラマーがそのようなコンパイラを書こうとする意欲に依存する。このスレッドを通して、私は、半導体技術の進歩やトランジスタの小型化・低消費電力化により、2020年以降に新しいハードウェアを作る可能性が低くなっていることを述べています。新しい材料やトランジスタは、まだまだ先の話だ。インテルは2016年に10nm技術でKnight Hill世代のプロセッサを作ろうとし、その世代を2017年後半まで延期しました。サムスンもアプリのプロセッサの10nm技術に問題を抱えています。すでに10nmサイズでは、14nmと比較して、トランジスタのサイズと消費電力がわずかに減少するだけです。放熱が大きな問題になる。技術の飛躍が必要です。技術の指標のひとつに、トランジスタ1個あたりの価格がある。つまり、28nm以前はその価格が下がっていて、それ以降は指数関数的に上昇し始めたわけです。多くの企業が28nmで止めたのは、価格が高かったからです。そのため、10nm技術、7nm、そして最後の5nmと進むと、熱の問題だけでなく、価格も高くなります。
GPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?
GPUで効率的なプログラムを書くのは本当に大変なんです。
実際、デバイス間、デバイスと人間の間のインタラクションという点では、まだまだ未開拓の領域があるのです。
クラウドの領域があり、そこにあらゆるものを詰め込み、分散化させ
一般的にインテリジェントアシスタントやデバイスの分野があります。
オーグメンテッドリアリティ、バーチャルリアリティの領域があります。
つまり、ムーアの法則があるからこそ、不景気にはならず、新しい開発方法が模索されるのです。不況になるのは別の理由
GPU用よりもCPUの並列コア用にプログラムを書く 方が簡単なのでしょうか?プログラマーが頭を悩ませて、プログラムのどの部分をパラレル化するか決め、特別なパラレル化コードを書くなど、問題は同じだ。ほとんどのプログラマーは苦もなく、シングルコアのプログラムをひねもすことなく書いています。コアが足りないのか、マルチコアを使ったプログラムなのか、何が問題なのでしょうか?私は後者だと思います。3000コアのCPUを与えても、3000コア用と4コア用のプログラムを書く難易度に差はないので、シングルコア用のプログラムを書くことになります。必要なのは、並列化できるコードの断片を自動的に検出できる新しいコンパイラである。しかし、やはりこのようなコンパイラの作成が進むかどうかは、ハードウェアではなく、プログラマーが「このコンパイラを書きたい」と思うかどうかにかかっている。
Rは記述されているような問題はない。
1.ほとんどの場合、計算が複雑なアルゴリズムのプログラムを書く必要はない。すべてが書かれており、計算上複雑なアルゴリズム(例えば、最適化やブーストなど)が並列性を認めている場合、これはすでに実装されているのです。しかも、どこかで探さなくてもいいんです。開発者は問題の内容から出発し、その内容にツールを当てはめ、すべてをツールに最大限実装していくのです。このツールは、より手間のかからないツールにするために、非常に強力なヘルプシステムを備えています。
2.例えば、ループの一部を並列に実行する必要がある場合、並列化ツールが用意されています。このような構文や使用条件を説明する場合、無駄な時間を費やす必要はないのです。
3.このプログラムは、与えられたコンピュータのコアだけでなく、近隣のコンピュータも読み込むことができます。これは、利用可能なコンピュータからの、いわば雲をつかむような話ではない。
あなたのおっしゃる問題は、鉄から普遍的なアルゴリズム言語を経て、問題に到達していないことに起因しています。逆に、問題から道具の選択まで行ってしまうと、ハードウェアの話は全く必要なくなるかもしれません。
つまり、ギガヘルツはプログラムの実行効率にはほとんど関係ないというのが、冒頭の結論です。この15年間、ギガヘルツの増加に気づかなかったように、まさにこのギガヘルツの増加の終了に気づかないのでしょう。