1. HOME
  2. 研究ブログ
  3. こらむ
  4. 研究ブログ【コラム】#271

研究ブログ

様々な相場情報や関連記事

こらむ

研究ブログ【コラム】#271

こらむ・マグロ所長

エヌビディアとグーグル優れているのはどちらのスパコンか。

どうも、こんにちは。

 

 

 

マグロ所長です。

 

 

 

人工知能(AI)用スーパーコンピューターのランキングが今年も6月に発表されていました。日本が富岳で3連覇したことは有名ですね。

 

 

 

そんな中で米グーグルと米エヌビディアがそれぞれ最も優秀な成績を収めたと主張しあっています。

 

 

 

MLPerfは非営利団体(NPO)の米MLコモンズ(2020年12月にMLPerfコンソーシアムから改称)が策定する機械学習のベンチマークです。機械学習の性能を訓練(トレーニング)と推論に分けてそれぞれ計測できるよう複数のベンチマークを用意されています。

 

 

 

8種類のタスクとは、画像分類モデルの「ResNet」、医療用画像セグメンテーションモデルの「3D U-Net」、軽量物体検出モデルの「SSD」、重量物体検出モデルの「Mask R-CNN」、音声認識モデルの「RNN-T」、言語モデルの「BERT」、レコメンデーションモデルの「DLRM」、強化学習モデルの「Minigo」のトレーニングで計測するみたいです。

 

 

 

グーグルは7月1日に公開したブログで、同社の機械学習専用プロセッサーであるTPU v4を搭載したクラスターによる結果が、6種類のタスクのうち4種類でエヌビディアの結果を上回り、2種類のタスクでエヌビディアを下回ったと主張しています。

 

 

 

しかしながら、エヌビディアは6月30日に公開したブログで、8種類のタスクの全てで結果を記録したのは同社の機械学習用GPU(画像処理半導体)、A100を搭載したクラスターだけだったと主張しています。

 

 

 

結局どっちもどっちということです。言語モデルの「BERT」がかなり加速的に巨大化しているようです。

 

 

 

米オープンAIが20年6月に公開し、人間が書いたようなフェイクニュースを生成することで話題に。こうした言語モデルの巨大化を支えているのがAIスパコンの進化です。

 

 

 

TPUのプロセッサーコアが2048個あれば、パラメーターが4兆個あるモデルをトレーニング可能だとグーグルが話しています。

 

 

 

グーグルも独自に専用チップのTPUを出していますが実際にはエヌビディアのGPUのほうが優秀な気はしますね。

 

 

 

グーグルも自社では音声AI「グーグルアシスタント」や自動翻訳といったサービスに欠かせない研究基盤なので今後も投資を続けていき、ライバルではエヌビディアとマイクロソフトでしょうね。

 

 

 

マイクロソフトのAIスパコン「パイオニア」も米エヌビディアの最新GPU(画像処理半導体)を約1300個使っているようです。

 

 

 

電気自動車(EV)メーカーの米テスラも6月、エヌビディアの最新GPUを約5700個搭載し、1秒間に180京回のAI計算ができるスパコンを利用していることを明らかにしています。

 

 

 

ここまで来るとエヌビディアがすごいとなるんですよね。ちなみにエヌビディアのライバルAMDは中国と手を組んで深センにスパコンの計画があるみたいですね。

 

 

 

以上マグロでした。

研究ブログ