1995年頃、CPU速度が75 MHzのコンピュータを使用していたことを覚えています。
それから数年後の1997年頃に211 MHzのものがありました。
それから数年後、2000年頃に1.8 GHzのようなものがあり、その後2003年頃に約3 GHzのものがあった。
現在、ほぼ8年後、それらはまだ3 GHzで最大になっています。これはムーアの法則によるものですか?
最初に、ムーアの法則は法則ではなく、単なる観察であることを思い出してください。速度とは関係ありません。直接ではありません。
元々は、[期間]ごとにコンポーネントの密度がほぼ2倍になるという単なる観測でした。つまり、速度とは関係ありません。
副作用として、それは物事をより速く(同じチップ上のより多くのもの、距離がより近く)、そしてより安く(必要なチップが少なく、シリコンウエハーあたりのチップがより多く)なります。
ただし、制限があります。チップ設計がムーアの法則に従い、コンポーネントが小さくなると、新しい効果が現れます。コンポーネントが小さくなると、サイズに比べて表面積が大きくなり、電流が漏れ出すため、チップにより多くの電力を送り込む必要があります。結局、あなたはチップを熱くするほど十分なジュースを失い、あなたが使うことができるより多くの電流を浪費します。
確かではありませんが、これはおそらく現在の速度制限であり、コンポーネントが非常に小さいため、電子的に安定させることが困難です。これを助けるための新しい材料がありますが、非常に新しい材料(ダイヤモンド、グラフェン)が現れるまで、未加工のMHz速度制限に近づきます。
とはいえ、CPU MHzはコンピュータの速度ではなく、馬力が車の速度ではないのと同じです。 top MHzの数値を速くせずに物事を速くする方法はたくさんあります。
LATE EDIT
ムーアの法則は常にプロセスを参照しており、一定の繰り返し時間枠でチップの密度を2倍にすることができます。現在、20 nm未満のプロセスが停止している可能性があります。 新しいメモリは古いメモリと同じプロセスで出荷されています 。はい、これは単一のポイントですが、将来の前兆かもしれません。
ANLATE LATE EDITArs Technica記事、それ以外はすべて死んでいると宣言しています 。 50年間あなたと一緒にいて楽しかったです。
クロック速度が速いほど、コヒーレントな信号を生成するために必要な電圧降下が大きくなります。電圧を上昇させる必要があるほど、より多くの電力が必要になります。必要な電力が多いほど、チップが放出する熱が多くなります。これにより、チップの劣化が速くなり、速度が低下します。
ある時点で、温度の上昇は別のコアを追加する場合よりも高くなるため、クロック速度を上げることはもはや価値がありません。これが、コアの数が増える理由です。
コアを追加することにより、熱は直線的に上昇します。つまりクロック速度と消費電力の間には一定の比率があります。コアを高速化することにより、熱サイクルとクロックサイクルの間に2次の関係があります。 2つの比率が等しい場合、別のコアを取得する時間です。
これはムーアの法則とは無関係ですが、問題はトランジスタの数ではなく、クロックサイクルの数に関するものであるため、この説明はより適切なようです。ただし、ムーアの法則にはそれ自体の制限があることにも注意してください。
EDIT:より多くのトランジスタは、より多くの作業がクロックサイクルごとに行われることを意味します。これはたまに見過ごされがちな非常に重要なメトリックであり(2 GHzのCPUが3 GHzのCPUよりも優れている可能性があります)、これは今日の革新の主要な領域です。したがって、クロック速度は安定していますが、単位時間あたりにより多くの処理を実行できるという意味で、プロセッサはより高速になっています。
編集2:ここに は、関連トピックに関する詳細情報を含む興味深いリンクです。これは役に立つかもしれません。
EDIT 3:合計クロックサイクル数(コアの数*コアあたりのクロックサイクル)とは無関係に、並列処理の問題が発生します。プログラムがその命令を並列化できない場合、より多くのコアがあるという事実は何も意味しません。一度に1つしか使用できません。これは、現在よりもはるかに大きな問題でした。今日のほとんどの言語は、以前よりはるかに多くの並列処理をサポートしており、言語のコア部分となっている言語(主に関数型プログラミング言語)もあります( Erlang を参照) Ada および Go の例)。
ムーアの法則では、トランジスタの数は18か月ごとに2倍になると予測されていました。以前は、これによりクロック速度が2倍になる可能性がありました。 3 GHz前後になると、ハードウェアメーカーは、光速の制限にぶつかることに気づきました。
光速が299,792,458メートル/秒であることを覚えていますか?つまり、3 GHzのマシンでは、ライトは各クロックサイクルで約3分の1メートル移動します。それは空中を移動する光です。電気はそれよりも遅く、ゲートとトランジスタはさらに遅く、その時間内に実行できることはあまりないことを考慮に入れてください。その結果、実際にはクロック速度が少し低下し、代わりにハードウェアが複数のコアに移行しました。
Herb Sutterは、2005年の「Free Lunch is Over」の記事でこれについて話しました。
シリコンベースのチップは、文字通り溶け始める前に、5 GHz程度の一般的なクロック制限があります。 ガリウムヒ素 (GaAs)を使用する研究がありました。これにより、チップは数百GHzのように、より高いクロックレートを持つことができますが、どこまで到達したかはわかりません。
しかし、ムーアの法則は、パフォーマンスやクロック速度ではなく、チップ上のトランジスタに関係しています。その点で、同じチップ上にある複数のプロセッシングコアに分岐することで、ムーアの法則を順守していると言えます。
ムーアの法則に関するウィキペディアの記事 によると、2015年まで続くと予想されています。
同じクロック速度でより高速なプロセッサを使用できる別の方法を知りたい場合は、クロックパルスごとに実行できる命令の数も関係しています。その数は年々着実に増加しています。
1秒あたりの命令のタイムラインは、クロックサイクルあたりの命令数の優れたグラフです。
私はEEや物理学の専門家ではありませんが、1981年からおよそ3〜4年ごとにコンピューターを購入してきました(81年に最初にシンクレアZX81を購入し、3年後にCommadore 64を購入しました。 1987年に複製)なので、私はこの主題について30年の「フィールドデータ」を持っています。
'87年の最初のIBMクローンを開始点として使用した場合(640kのRAMと32MBのハードドライブ)、18か月ごとに2を掛けると、10GBのRAMが得られます。 _今日、1 TBのハードドライブ。 DAMN CLOSE !!!! RAMが多すぎて、今日の私の机の上にあるものよりも少しHDが少なすぎます。
この「法則」は明らかに、将来のコンピュータ能力の指数関数的成長の一般的な予想として意図されていたことを考えると、それが本質的に30年間にわたってどれほど正確であるかに率直にショックを受けました。 「民間の宇宙旅行」、「パーソナルロボット」、「ホバーカー」だけが同様の指数関数的成長を見せていたとすれば。残念。
しかし、厳密にユーザーの観点からすると、ムーアの法則は今のところ急速に進んでいるようです。
モデレーターは複数の回答を要約します:
ムーアの法則はマイクロチップ内のトランジスタの数を明示的に扱っていますが、これは指数関数的な速度で進歩するはるかに大規模なテクノロジーの世界における1つのベンチマークにすぎません。
クロック速度でハングアップすることは要点を逃しています。 PassMark CPUベンチマークを確認するだけで、次のようになります: http://www.cpubenchmark.net/high_end_cpus.html 、コンピューターが毎日非常に強力になっていることを確認します。
チップ上のトランジスタの数は、今日のコンピュータ能力を強化する上での1つの要素にすぎません。
私はムーアではないし、彼のことも知らないが、彼の法則は、より広い意味で、計算能力の指数関数的増加を予測する試みだったと推測している。彼は、「コンピューターの電力は数年ごとに2倍になる」というはるかに「あいまいで証明が難しい」という主張とは対照的に、「チップ上のトランジスタの数」を具体的で最も重要な定量的尺度として選択しています。彼の理論を証明するには、簡単に測定できる何かが基準として明らかに必要でした。しかし、私はここで外に出て、彼がコンピュータのあらゆる側面を扱うより大きな傾向を予測していたことを提案します。
プロセッサーをシリコンで高速化することもできます(ただし、それほど高速ではありません)が、現時点では、プロセッサー(またはそのコア)を小さくして、より多くのものをダイに詰め込む方が安く/効率的です。トランジスタのスイッチング速度に関しては、 グラフェンブローシリコンを水から排出する などの新しい材料ですが、まだ製造プロセスを習得する必要があります。我慢してください、おそらくもっと遅くなるでしょう。