Nvidiaの最新のGPUが3月18日から20日のイベントで発表されました。
色々なメディアが報道しているので、詳細はそちらを見てもらえればよいのですが、ポイントは
GB200の性能はH100と比較してAI学習時には4倍、AI推論時には30倍、電力効率の観点では25倍になった。
という、大きな性能向上です。H100はほんの2年前に出たGPUですので、ムーアの法則がGPUでは成立しているように思えます。
イベントのほんの少し前、3月12日に、Meta社から同社のAIのハードウェアインフラを公開した記事がありました。
ここで語られているのは、24000基のH100を持つクラスターが2つ稼働しているということですが、AI学習で4倍のGPUが出たために、新しいものを使えば6000基で済み、さらに電力効率が25倍なので電気代が大幅に下げることができるということになります。
Meta社はもちろん、継続的に投資を行っていくと思いますが、このように後から投資した方が投資効率が上がってしまうという、投資する方からすると困った状況になっています。
しかし、この勢いで進化を続ければ、10年で1000倍ほどの性能向上が見込めますので、6基のGPUによって今Meta社が持っている大規模なクラスターに匹敵するシステムを構築できてしまいます。
遅くても20年ほど経てば、今のGPT-4以上のAIがスマホの中に納まってしまうことになりそうです。
ハードウェアの進化によって、よりパーソナルなAIが実現可能になります。
どんな世界が待っているのか、楽しみですね。