NVDA情報局(フラグ)

投資家目線でNVDAを買い煽るためのメモです

NVDAの対応の速さ

f:id:booniebichon:20161003133424j:plain

・5年前にDL分野の成長に賭ける決断をして、あらゆる経営リソースを All IN した。そして、着実に業績を伸ばして、結果につなげている。

・その間にかなりの収入をもたらしてきていたOEMバージョンの Tegra事業を大幅に切り捨てている。(スマホ向け低付加価値チップの量販)

・それをトップラインの成長を維持しつつ!も、遂行してきている。

・すでに巨大な事業規模に達していたもかかわらず、大胆な事業再編を行い、常に変化し続けることができる経営能力。書いてしまうとチープだが、実行するのは想像を絶する困難が伴う。

・日本の大組織には絶対に真似できない神業的所業だ。しかも実績が伴っている。

・未だにいろいろ理屈を並べて、不採算、低成長事業を持て余し、株主価値を棄損しまくっている日本の大企業と比較せよ。

 

 

まずは自動運転向け事業をグラボ事業と同じ規模まで育ててほしい!しNVDAも当然そのつもりだろう。

 

整理すると 

Pascal                                  → Volta

Parker(Drive PX-2, Tegra SoC)   → Xavier   (Tegra SoC)

Tesla P(GP100)                         → Tesla V(GV100)

だよね。

 ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

 

(引用)

〇 NVIDIAの新アーキテクチャGPU「Volta」

XavierはPascalに続く次世代アーキテクチャ「Volta」のGPUを搭載し、Drive PX2の機能を1チップに収めた製品である。16nmプロセスで製造され、70億トランジスタを集積する。そして、8個のカスタムARMコアと512個コアのVolta GPUを集積する。また、新設計のCFA(Computer Vision Accelerator、デュアルの8K HDRビデオプロセサを搭載する。なお、サンプル出荷は2017年第4四半期とのことである。


16nmプロセスを使い70億トランジスタを集積。8コアのカスタムARMコアと512コアのVolta GPUを搭載

512コアで20TOPS(Tera-Ops)のディープラーニング性能と書かれており、1コアあたり約40GOPSという計算になる。INT8演算の性能であるが、クロックを1GHzとすると40GOPS/sとなり、標準の32bit演算を10個並列実行しなければならない。

まあ、1.25GHzクロックで8個の並列当たりが妥当なところであろうが、それでも現在のPascalコアの8倍のSIMD演算器が必要である。

基調講演で、Pascalより大きなコアという発言があり、Voltaはコアを大きくして、演算の並列度を高めていると思われる。

 

〇 ディープラーニングの推論と学習

ディープラーニングと言っても、推論(Inference)と学習(Learning)では大きく事情が異なる。

推論は「多数の入力の積和計算」が中心である。

32bit浮動小数点(FP32)でなくとも半分の精度のFP16や、最近では8ビット整数でも大丈夫と言われている。

一方、学習は「推論で出した結果と正解の誤差」から、誤差が小さくなるように「各入力の重みを調整」していく。そして、所望の結果が得られるまで、この作業を繰り返す。

 

学習の場合、計算の誤差が大きいと、収束しなかったり、収束に長い時間が掛かったりする。このため「学習にはFP32の精度が必要」であり、「繰り返しの回数も多い」ので、何日も掛かることも珍しくない。

 

GoogleのTPU LSIや、MicrosoftFPGAを使ったアクセラレータ、NVIDIAのP4 GPUなどは、推論を高速化することができるが、学習には使えない。

 

GoogleMicrosoftの場合は、学習は1回であるが、膨大なWebユーザが推論を使うので、推論の回数が膨大である。したがって、推論の性能を上げることが重要である。

 

一方、学習の性能も重要である。しかし「各入力の重みをどれだけ変えるかの計算」には、各入力の重みの変更が「全部の誤差にどれだけ影響するかという微分係数」を計算し、「すべての微分係数を1カ所に集めて計算する」必要があり、並列化が難しい。

 

〇 8ビット整数の演算で推論性能を改善したP4とP40 GPU

NVIDIAGPUは基本的に32ビットの浮動小数点数を扱う構造となっている。32ビットのレジスタには、8ビットの整数なら4つ(A0、A1、A2、A3)を入れられる。

 

P4とP40 GPUでは、これを利用して、(A0×B0+A1×B1+A2×B2+A3×B3)+C→Dを計算する命令を新設している。

 

FP32の計算は、乗算と加算で2演算であるが、INT8を使うこの命令では8演算を実行できる。したがって、ディープラーニングの推論処理を行う場合は、4倍の演算性能が得られる。

  

 ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

 

(引用)

Xavierは70億(7Billion)トランジスタを搭載するだろう。70億というトランジスタ数は、NVIDIAディスクリートGPUでは「GeForce GTX 1080(GP104)」の72億に匹敵する。

 

高性能GPUクラスのトランジスタ数だ。SoCでは、AppleiPhone 7に搭載されている「Apple A10 Fusion」の33億の2倍以上だ。


Xavierは16nmプロセスで製造される。同じ16nmプロセスノードで製造されているGP104のダイは314平方mm、A10のダイは125平方mmなので、Xavierのダイは250平方mm以上になる可能性が高い。

 

バイルや組み込み向けのSoCは、従来は100平方mm以下のダイサイズが一般的で、AppleのA10の100平方mmを超えるサイズのチップは限られる。NVIDIAも、モバイルをメインターゲットとしていたTegra 4までは、ダイサイズを80平方mm台までに抑えていた。しかし、Xavierは、自動車市場での高性能プロセッサへの需要に対応するため、ダイを大型化するとみられる。

 

〇 Denver CPUコアを進化させたカスタムコアを搭載
Xavierは、8個のカスタムARMv8 CPUコア、512コアのVolta GPUコアを搭載する。また、デュアルの8K HDR対応のビデオプロセッサ、そして新設計のコンピュータビジョンアクセラレータを搭載する。

 

性能は、ディープラーニングの「推論(inference:インファレンス)」で多用されるようになりつつあるINT8(8-bit整数)オペレーションで、20 TOPS(trillion operations per second)、CPUの整数演算では160 SPECINT。

 

1チップで、2個のSoCと2個のGPUを搭載したDrive PX2と同等以上の性能。ディープラーニング性能ではどちらも20TOPS

 

NVIDIAは、自社独自のマイクロアーキテクチャのARMv8 CPUコア Denverを持っている。

 

Denverは「Tegra K1(Logan)」の64-bit版に搭載され、最新のTegraである「Parker」にも搭載されている。

 

Tegra K1ではデュアルコア、ParkerではDenverが2コアにCortex-A57が4コアの「ヘテロジニアスマルチコア構成」となっている。ARMのbig.LITTLEに似た、高性能のDenverと、相対的に低電力のコアの組み合わせだ。ParkerのDenverコアは、マイクロアーキテクチャ的にはほぼ初代のDenverと同じだが、Denverの大きな特徴である動的な最適化が大幅に強化されているという。

 

XavierのCPUコアも、あるNVIDIA関係者によるとDenverコアだという。「Denverは我々が開発した最初のARMコアだった。(XavierのCPUコアは)そのファミリーツリーに連なるCPUコアだ。しかし、単なるDenverの再利用ではなく、多くの新機能が加えられている。Denverの拡張というより進化型のCPUコアだ」。

 

8コアという構成からは、Xavierが高性能コアと低電力コアのヘテロジニアス構成を取っている可能性が高い。SPECINTの値を見る限り、それなりに高性能に振った構成となっている。

 

ディープラーニングパフォーマンスが異常に高いXavier
Xavierの最大の謎は、ディープラーニング関連の性能だ。これが異常に高い。

 

ディープラーニングは、大きく分けてニューラルネットワークモデルを構築する「トレーニング(training)」フェイズと、トレーニングの結果を使った認識を行なう「インファレンス(inference:推論)」フェイズがある。

 

〇トレーニングは主にデータセンター側の処理だが、インファレンスは車載など端末側となるため、電力の制約が厳しい。そのため、現在は、インファレンスフェイズのデータ量を減らすために、INT8を使う流れになりつつある。

 

NVIDIAは、この流れに対応していち早くインファレンスフェイズ側のGPUに、INT8の特殊なパイプラインを組み込んだ。具体的には、Tesla P4(Pascal GP104)に新命令「dp4a」を組み込んだ。これは、上位のTesla P40(Pascal GP102)にも組み込まれている。この「dp4a」という新命令は、8-bit整数のベクトル積和算命令だ。


〇新Tesla P4/40にはINT8アクセラレーションが加わっている
NVIDIAGPUレジスタは32-bit長だが、そこに8-bit整数のデータを4個格納する。

 

2つのレジスタの4個ずつの8-bit整数値を乗算し、その結果のINT32(32-bit整数)を加算し、さらにもう1レジスタの値を加える。

 

1命令で、4乗算と4加算の合計8演算を実行する、8演算/サイクルスループットの命令となっている。

 

FP32(32-bit浮動小数点)では、積和算で2演算/サイクルスループットなので、INT8はFP32の4倍のスループットとなる。


〇 分化しつつあるNVIDIA GPU

データセンター向けGPUにはFP16、クライアント側GPUにはINT8

 

NVIDIAのINT8 SIMDの実装

 

NVIDIAはトレーニングフェイズ側の「Tesla P100(Pascal GP100)」などのGPUや、モバイル向けのGPUには、FP16(16-bit浮動小数点)を実装している。トレーニングフェイズ側でも、データ精度を下げたFP16の利用が進んでいるからだ。

 

ただし、FP16は、ディープラーニングだけでなく、モバイルグラフィックスなどの用途も想定しているため、通常の加算や乗算、積和算をサポートする汎用的なものだ。それに対して、INT8の実装は、ディープラーニングのインファレンスに的を絞った実装となっている。


〇 NVIDIAのFP16 SIMDの実装

大きな枠で見ると、GPUはもともとは128-bitの4-way SIMD演算ユニットから出発した。しかし、GPUコンピューティングへと舵を切るに当たって、演算精度をFP32に統一してシンプル化することで、フロー制御などを簡略化した。

 

ところが、ここへ来て、ディープラーニングなどの新要素のために、GPUは再び多精度対応へと転換し始めている。FP16もINT8も、32-bitのスカラパイプライン(実際にはSIMDだが、プレディケーションによって分岐をサポートする)の中で、SIMD制御を行なう。

 

SIMDからSIMT(Single Instruction, Multiple Thread)へと転換したGPUが、再びSIMDを取り込み始めている。

 

ディープラーニングへの最適化がさらに進むVolta世代

NVIDIAは、Xavierのディープラーニングの性能を20TOPSと発表している。これがINT8精度だとして、INT8サポートのNVIDIA GPUと比較するとTesla P4(GP104)の22TOPSに近い。

 

Tesla P4は、2,560個のFP32演算ユニットを搭載し、ピーク1,063MHzで動作する。2,560コアが、それぞれ4-wayのINT8を実行することで、22TOPSをはじき出している。

 

それに対してXavierのGPU部は512コア構成とされている。Tesla P4と比較するとコア数は約5分の1だ。XavierのGPUコアが、Tesla P4と似たようなINT8の実装で、1GHzで動作するとしたら、4TOPS程度にしかならない計算だ。そのため、XavierのINT8のアクセラレーションは、現在のPascalとは異なる実装となっている可能性が高い。

 

想定の1つは、Volta世代のGPUのコアの構成自体が、従来のNVIDIAのFP32演算コアとは異なる可能性だ。1コアで4-wayのINT8を4並列で実行できるなら、1.2GHz動作で512コアのGPUで20TOPSを実現できる計算になる。もう1つの想定は、INT8に特化したアクセラレータを別枠で備える可能性だ。Xavierには、コンピュータビジョンアクセラレータも搭載されており、低精度に特化したエンジンが搭載されている可能性もある。

 

いずれにせよ、明確なことは、Volta世代のGPUコア(と周辺ユニット?)が、ディープラーニングをターゲットに、さらに最適化されることだ。NVIDIAは、ターゲット市場を見定めると、それに対する最適化を急ピッチで進めるが、今回もFP16やINT8への対応が非常に速い。

 

そして、Volta世代では、少なくともINT8への最適化がさらに進む。

  

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

(部分引用)(2016/4/11 06:00)

 

PC/スマートフォン/タブレットのOEMメーカー向けビジネスは減少傾向にあるNVIDIA

 

2000年代の終わり頃、NVIDIAの売り上げの数十%を占めていたのに、今はないビジネスはなんだかご存じだろうか? 答えはPC用のチップセットである「nForce」のビジネスだ。

 

AMDIntel向けにNVIDIAの統合型GPU(以下iGPU)を提供する製品だったnForceはもともとNVIDIAの売り上げの数十%を占めている重要な製品だったが、AMDIntelが相次いでCPUにiGPUを統合する時代となり、市場環境の変化により需要が消滅した。

 

今それと同じような道を経ようとしているのが、OEMメーカー(PCメーカーやスマートフォン/タブレットメーカー)向けのGeForceTegraのビジネスだ。

 

2013年1月期には、PCとTegraのOEMメーカー向けのビジネスはでは42%を占めていたが、2016年1月期では、わずか9%に縮少している。


その背景には、市場環境の変化がある。現在ノートPC市場の主役は、A4サイズのノートPCから、薄型ノートPC、さらには2in1デバイスへと移行がどんどん進んでいる。

 

これらの製品は熱設計(製品の温度を半導体が動作できる規定以内に納めること)的にNVIDIAがPC OEMメーカーに提供している単体型GPU(以下dGPU)を入れるのは難しい。

 

AMDなりIntelなりのCPUに内蔵されたiGPUのみを利用するというのが一般的だ。むろん、そうしたニーズがなくなったわけではなく、今後も例えばモバイワークステーションMacBook ProのようなハイエンドノートPCでは依然として需要があるが、それでも全体としては減少傾向と言って良い。

 

そして、スマートフォン/タブレットOEMメーカー向けのTegraビジネスに関しては、自社ブランド製品であるShield向けにフォーカスしており、スマートフォンに関しては既に採用例もない。

 

こうしたスマートデバイス向け、特にスマートフォン向けSoC市場では、セルラーモデムを最初から統合したSoCが非常に強く、NVDAは、セルラーモデムビジネスで出遅れ、最終的にはビジネスを終えることを決断した。

 

そうしたOEMメーカー向けのビジネスが減少したが、NVDAの2016年1月期は50億ドル(1ドル=110円換算で5,500億円)と、NVIDIAにとって過去最高の売り上げ高を記録した。

 

粗利益率も56.6%に上昇し、営業利益も11億ドルといずれも過去最高を記録している。


その売り上げの半分以上を占めているのは、同社がゲーミングビジネスと呼ぶ、ゲーミング向けのGeForceビジネスだ。なんだ、さっきはGeForceが減少していると言ったじゃないかという人もいるかもしれないが、ここで言っているGeForceビジネスというのは、NVIDIAAiCパートナーと呼ばれるボードメーカー向けに提供しているGeForce GTX 980などの拡張カードを中心としたゲーミングビジネスだ。

 

ゲーミング関連の売り上げは280億ドルと、前年同期に比べて37%増えており、NVIDIA全体の売り上げ(500億ドル)の半分以上を占めている。特にGeForce GTXシリーズのようなハイエンド製品の売り上げが伸びていると説明している。


ゲーミング関連の売り上げは前年度の比較して37%のアップ。元が210億ドルあってそこから37%アップだけにすごいことだ。

 

この背景としては、2つある。1つは世界的なPCゲーミングのブーム。ソニー任天堂のお膝元でコンソルールゲームが非常に強い日本にいるとあまり感じないことではあるが、現在PCゲーミングは毎年成長を続けている。

 

ここ数年は、数量的にはほぼフラットのPC産業において、2in1デバイスと並んで例外的に成長しているジャンルの製品となっている。いわゆるEスポーツと呼ばれる、プロのゲーミング大会が活況で、Twitchやニコ生のようなSNSや動画配信サイトを利用したゲーム中継が大きな盛り上がりを見せている。そこで使われているのが、NVIDIAGeForceシリーズだ。

 

もう1つはVRだ。VRゴーグルの中にはフルHDクラスのパネルが両目用ということで2つ用意されている。そこに、90fpsの画面を、レンダリングからディスプレイまで20ns以内のレイテンシ(遅延)で出力する必要がある。

 

このため、GPUにかかる負荷は大きく、画面がちらついたりすることなく高品質で楽しむには、GeForce GTX 980クラスのハイエンドなGPUが必須となる。

 

こうした市場環境の後押しもあり、NVIDIAMaxwell世代のGPUは、NVIDIAの歴史上最も成功したGPUになった。

 

では、スマートフォン向けからは撤退したTegraはどうか。実は、Tegraに関しても一時期は凹んだことは事実だが、ここ1~2年で売り上げは再び上昇傾向にある。

 

その最大の理由は自動車向けのビジネスが高率で成長を続けている為だ。

2014年-2015年1月期では85%、

2015年‐2016年1月期では75%

という成長を見せている。

 

NVIDIAの自動車事業の強みは、GPUコンピューティングで実現される強力な処理能力が必要になるADAS(先進安全運転システム)や自律/自動運転などで、他社に大きな差をつけていることだ。

 

いわゆるIVI(車載情報システム、日本で言えばカーナビ)市場では他社に追い上げられているが、そうしたADAS、自律/自動運転は今後自動車における半導体の最も重要なアプリケーションになると考えられているだけに、今後も成長は続くと考えられる。


また、NVIDIAは今後Tegraの新しい市場として、いわゆるメイカーやスタートアップなどと呼ばれることの多い小規模のハードウェア事業者向けのJetsonブランドのボードにも力を入れている。その最新製品であるJetson TX1は、同社の最新SoCとなるTegra X1が搭載されており、その開発用のキットは昨年末から米国で今年の春から日本を含む複数の地域で販売が行なわれている。


Jetson TX1の開発キットを利用して作られた各種のIoT(Internet of Things)機器を展示した。NVIDIA自身が展示した電子レンジ、ビジュアル処理に強いという強みを活かしたドローンや小型自動運転車など多数のIoT機器が展示された。今後はJetson TX1の製品版を出荷して、実際の製品に搭載されることを狙っている。


ゲーミング、自動車と並ぶNVIDIAのもう1つの柱が、HPC向けのデータセンタービジネスだ。NVIDIAがCUDAを導入して以降、GPUは単なるグラフィックスチップから汎用コンピューティングの演算器としても利用されるようになった。


今回NVIDIAはこれまでも、NVIDIA GRID(GPU仮想化向け)、NVIDIA VCA(Visual Computing Appliance、レンダリング用サーバーアプライアンス)などは自社ブランドで販売してきたが、HPCサーバーに関してはOEMメーカーへPCI Expressタイプの拡張カードの形で提供するだけだった。

 

DGX-1で初めて自社ブランドでHPCサーバーを投入することになる。DGX-1は、8つのTesla P100を搭載しており、そこにPCI Expressで接続されるデュアルXeonプロセッサが搭載される、HPCサーバーとなっている。その価格は129,000ドル(日本円で約1,500万円)という価格がついているが、半精度で170TFLOPSという性能を考えれば、演算性能を必要としている企業や団体などにとっては非常にお買い得な価格設定になっている。

 

NVIDIAはGP100のHBM2はSamsung Electronics製だと説明しており、現時点ではワンソースだと認めている。つまり、Samsungからの供給が遅れれば、それが製品の出荷の遅れに繋がってしまう。

 

それを裏付ける状況証拠はある。同じTesla P100を搭載したHPCサーバーなのに、NVIDIA自身のブランドであるDGX-1は6月から出荷が開始される予定であるが、OEMメーカーから発売されるTesla P100を搭載したシステムは来年(2017年)の第1四半期になるとフアン氏は発表した。

 

このことについてNVIDIA NVIDIA ソリューションアーキテクチャエンジニアリング担当副社長 マーク・ハミルトン氏は「Tesla P100では新しいNVLinkが採用されており、それに対応したPCBをOEMメーカーが開発するのに時間がかかっている」という、やや苦しい説明をしている。現在のOEMメーカーはどこもODMメーカーを利用して製造しており、それはNVIDIA自身のブランドで発売されるDGX-1も同様だ。であれば、その基板デザインを使い回せるのは言うまでもなく、OEMメーカーの製品だけが半年も遅れるというのは不可解としか言いようがない。つまり、実態としてはHBM2のサプライに不安があるので、そうした余裕があるスケジュールにしていると考えるのが妥当だ。

 

NVIDIAGPUをPCメーカー向けに売る会社から、ゲーミング、自動車、そしてHPCサーバーという3つの事業を柱として成り立ちつつある会社へと変貌を遂げていることがよく分かる。

 

NVIDIAが最初の3DチップとなるNV1の販売を開始した1990年代半ばに戻れるタイムマシンがあったとして、その時点の投資家の人に将来NVIDIAがサーバー向けの半導体を売る会社になると予言したら、なんと言われるだろうか……たぶん笑い飛ばされると思うが、それをやってのけたNVIDIAという会社、恐るべしだ。

 

 

pc.watch.impress.co.jp

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

 

(部分引用)(2015/7/24 06:00)

「かつてのNVIDIAは、チップを作って(グラフィックスカードやPCなどの)OEMに売り、OEMが何らかの製品を作って、市場に販売していた。それが、“旧NVIDIA”だった。現在の新NVIDIAは、市場を自ら創造している。そして、我々のパートナーOEMが、その新市場で我々の技術を使った製品を提供する。基本から変わっている。」

 

「今も、我々は原点であるPC向けのGPUビジネスは継続している。しかし、我々は、ビジュアルコンピューティングプラットフォームを、PCだけでなく、クラウド、そしてIoT(The Internet of Things)やモバイルデバイスへと幅広く提供できる。この3プラットフォーム全てに注力する」

 

NVIDIAは、ターゲットをPCクライアントだけでなく、クラウド側のサーバーシステムと、モバイルやIoT型の組み込み系でグラフィックスを必要とする市場へと広げた。PC、クラウド、IoTが3大ターゲット市場となり、PC一辺倒から抜け出した。

 

こうした動きは、ほかの大手のPC向けチップベンダー、例えばIntelAMDと共通している。いずれも、PCとともに斜陽化することを恐れ、新市場に注力している。

 

しかしNVIDIAの場合は、軸となる戦略の根幹がビジュアルコンピューティングと並列コンピューティングである点が、若干異なっている。具体的には、IoTと言っても、NVIDIAは小さな組み込みデバイスは狙わない。


「ほとんどの人々はIoTと言うと、非常に小さなデバイスを考える。我々のIoTは車載のような、もっと(サイズが)大きなものだ。小さなSoCチップには、我々のビジネス(の機会)はない」

 

IoTでも、超小型の組み込み型のSoCには、NVIDIAは手を出さない。ノウハウ的にも、ビジュアルコンピューティングの企業の強味を活かすという点でもうま味はないと考えていることが分かる。

 

NVIDIAがターゲットとするのは、明らかに、一定以上の機能のディスプレイを持つデバイスか、あるいは、高度な並列コンピューティング機能を必要とするデバイスだ。そのため、車載やスマートTVなどがNVIDIAにとってのIoTカテゴリとなる。

 

「我々は、新戦略の中で、得意なアプリケーションをまず4つ選択した。1つはゲームで、コアコンピュータゲームをプレイできる機能をデバイスに加えて行く。例えば、コアゲームがAndroid TV向けに作られれば、Android TVが素晴らしいものになって行くと期待している。」

 

ほかの3つのアプリケーションは、車載、クラウド、伝統的ビジネスエンタープライズだ。自動車に対しても、TVと同様に、我々のビジュアルコンピューティング技術でバリューを加えるチャンスがあると考えている」(Huang氏)。



NVIDIAは、このように注意深く、自社の技術的な強味を活かすことができる市場とアプリケーションを選択している。グラフィックスの強味を活かせるはずが、通信モデムという、NVIDIAにとって未知の要素のために、失敗したスマートフォン市場での経験から、こうした選択になったと思われる。

 

また、競合が少ない市場、あるいはこれから開ける市場を選んでいることもポイントだ。サーバー側は競合が多いと思うかも知れないが、実際には並列コンピューティングという側面で見ると、競合企業は限られている。

 

PCからクラウドとIoTへと広がることで、NVIDIAのビジネスモデルも変化し、パートナー企業も変わって来た。従来のPC OEMだけでなく、様々なOEMパートナーと組む必要があり、そのいくつかは、PCとは異なり、車載のような垂直型のビジネスモデルの世界のパートナーだ。また、SHIELDファミリのように、NVIDIAがパートナーに製造を委託して自社ブランドで販売する製品もある。

 

「各市場に提供する根底の技術は同じだが、NVIDIAがどうやって市場にもたらすかという手法は、各アプリケーションによって異なっている。新しい市場のためには、新しいパートナー企業と密接に連携して行く必要がある。垂直型の市場の場合は、製品が異なればパートナーも全く異なって来る。

 

しかし、ソフトウェアについては、全てGoogleをパートナーとして、我々が全て提供する。そして大切なことは、最も重要なパートナーであるゲームデベロッパーについては、どの市場でも共通するということだ」。

 

ソフトウェアパートナーとしてGoogleを選択したことをNVIDIAは強調する。そして、NVIDIAにとっての貴重な財産である、ゲームデベロッパーとの関係は、今後も重視する姿勢も明確にしている。Googleとゲームデベロッパという2大パートナー関係の結果として、NVIDIAはSHIELDデバイスのファミリを出し続けている。

 

では、IoTと並ぶもう1つの焦点、クラウドに対してのNVIDIAの戦略はどうなのか。 「NVIDIAGPUは、クラウドに浸透しつつある。GPUアクセラレーテッドクラウドコンピューティングは、当社のビジネスで最も成長率の高い分野で、年に売り上げで60~70%ずつ成長している。その理由は、ビッグデータ分析でGPUが有用だからだ。

 

ビッグデータ分析の中で最もエキサイティングなアプリケーションは、ディープラーニングAIだ。現在では、甚大な量のデータを、超高速なプロセッサを使って処理することができる。

 

その際に、コンピュータ自身に、どうプログラムするかを教えることができる。これが、ディープラーニングAIの意味だ。完全に空のコンピュータをディープラーニング手法で学習させることで、画像や音声などを認識するためのプログラムを、コンピュータ自身によって自らプログラムさせることができる。

 

コンピュータは、いったん学習が終わると、タスクを自らこなすことができるようになる。我々は、さらに学習させることで、よりコンピュータを賢くすることもできる」

 

ディープラーニングでは、膨大な計算能力が必要となる。NVIDIAは、GPUコンピューティングによって、ディープラーニングアクセラレートできる点を大きなビジネスチャンスと見なしている。

 

ここは重要なポイントで、NVIDIAはこれまで、HPC(High Performance Computing)市場には浸透したが、通常のデータセンタには充分には浸透できないでいた。ディープラーニングは、その壁のブレイクスルーとなりつつある。

 

 

pc.watch.impress.co.jp