NVDA Q2カンファレンスコール再掲
タイトル :NVIDIA 2nd Quarter FY17 Financial Results
開催日時 :Thursday, August 11, 2016, 2:00 pm PDT
EPS of $0.53 beats by $0.16 | Revenue of $1.43B (+ 24.3% Y/Y) beats by $80M
※DLはディープ・ラーニングです。
※数字は意識して聞いていましたが、意訳なので、詳細はご自分でご確認ください。
※2016年9月30日の株価は、すでに68ドルを越えており、1年半先までののEPS増加を織り込んだPER水準となっております。短期的には、エントリーではなくエグジットを考える局面だと思います。
Q3の決算が出てくる前にQ2のカンファレンスコールをもう一度おさらいしたいと思います。
Q3の会社側のガイダンスは、
売り上げ $1.68ビリオン
(今期Q2比 $1.428 +17.6%)
(前年同期比 $1.305 +28.7%)
(※前年Q2→Q3成長率 +13.2%)
GAAP粗利益率 57.8%
Non‐GAAP粗利益率 58.0%
GAAP営業費用 $530ミリオン
Non‐GAAP営業費用 $465ミリオン
想定税率 21%
CAPEX $35~$45ミリオン
です。
Q3決算発表は、日本時間の11月11日の朝方です!
質疑応答コーナー
Q1(Jefferies Mark Lipacis)
第二四半期のデータセンタービジネスは、DL アプリケーションによって、成長しているのか、クラシックな computationally intense design アプリケーションによって成長しているのか?
Answer
弊社のデータセンタービジネスには3つのタイプがある。
1、 HPC(伝統的なスパコン市場)
2、 GRID(データセンター仮想化、グラフィック・アプリ仮想化)
3、 DLアプリケーション
成長の大部分は、圧倒的にDLアプリケーション部門からもたらされている。HPCは、成長はしているものの、比較的安定しているビジネスであり、GRIDは年率100%の成長を見込んでいるが、その規模はまだ小さいからだ。
Q2(Jefferies Mark Lipacis)
パスカル世代をリリースしたわけだが、歩留り(イールド)の見通しはどうか。
Answer
まだそれを議論するのは早い。今後の動向を注視したい。ただ新型メモリ(HBM, GDDR5X)を含む 16nm FFT 製品のリリースに関しては、最高のエンジニアたちが、周到に準備してきたもので、その達成を誇りに思う。
Q3(Goldman Sachs Toshiya Hari)
第3クォーターでのさらなる成長予測ガイダンスが示されたが、ものすごく伸びる事業領域(outsized growth)があると考えているか?それとも全般的な事業領域での成長を想定しているのか?
Answer
私たちは、すべての事業領域での成長を想定している。DL、自動運転、ゲーミング、VRでGPUは存在感を示しせる領域であり、注力しているし、成果を出している。第2クォーターは、おそらく初めてだと思うが、注力事業の中で成長しない事業領域がなかった。第3クォーターも同様の成果を期待しているが、それは上記の分野に注力することで、および、コモディタイズした、部品ビジネスと決別することで達成されるだろう。
とりわけDLは成長のキードライバーとなるであろう。DLにはGPUの得意とする並列処理が非常に適している。我々は5年前にDLに注力すること決断した。GPUアーケティクチャ―、GPUデザイン、GPUが接続されるシステム(NVlink)、ソフトウェア(CUDA,CuDNN, DIGITS)これらすべてをDLに最適化するように密かに見直してきた。DLの専門家も集めて、全社的に注力してきた。それほどDLにポテンシャルを感じていたからだ。
だから成長の原動力は(現在の成長の原動力ともなっている)、DLであり続けるだろう。
Q4(Bank of America Merrill Lynch Vivek Arya)
御社のグラボを使用するゲーマーの何割がパスカル世代にアップグレードしたのか?
Answer
インストールベースで世界中で8,000万人のGeForceのアクティブユーザーが、存在しているが、そのうちの3分の1がマクスウェル世代にアップグレードしている。パスカル世代はQ2の後半に出荷を始めたばかりであり、その数はまだまだとても少ない。
(3分の2はマクスウェル世代にすらアップグレードしていないということ。またシェアホルダーミーティングでは担当部長は、アクティブでないユーザーも含めると1億人おり、ライバルカードを使用者も含めた潜在的な顧客ベースは2億人としていた)。
パスカル世代は弊社にとって、間違いなく過去最大のリープ(エネルギー効率とハイパフォーマンスで)なので、需要のポテンシャルは大きい。また近年ゲームのクオリティが格段に向上しており、パワフルなGPUを必要とするものが増えてきている。その点からもパスカル世代GPUへの需要は強いと考えている。
また(PS4 proや、来年発表の新X BOXなどの)新しいコンソールは大量のGPUパワーを必要とするものである。また以前から述べているように、PS4やXBOXとPCは、ゲームデベロッパーレベルでは、アーケティクチャ―がコンパチブルなのである。だから強力なコンソール→大量のコンテンツ搭載のゲーム→強力なGPUパワーという流れで、ハイエンドGPUへの需要が高まるのである。すると、我々のグロスマージン、ASPも上昇していうくだろう。
Eスポーツシーンの盛り上がりも、PCゲーミング市場の拡大に貢献するだろう。
パスカル世代で導入された Ansel というゲーム内で写真を自由自在に撮影できる機能も、ゲーミングとアートの融合という可能性を開くだろう。
Q5(UBS Securities Stephen Chin)
データセンタービジネスでの御社の現状とポジショニングをどう考えているか。
Answer
GPUは小さなプロセッサーを、大量に持っており、しかもそれらが緊密にコネクトされている。それによりプロセッサ同士が同時にコミュニケートすることを可能としている。これにより大規模な行列演算が効率的に行えることができ、DLに非常に適している。この技術は10年来にわたり培われてきたものである。
そして今後たとえば5年間では、DLはevery single internet service に浸透していくだろう。そして、この大規模かつグローバルな傾向は、long term で続くものと考えている。
またDLに不可欠な、GPUコンピューティングは、GPUアーケティクチャ―、GPUデザイン、GPUシステム(アルゴリズム、ツール、フレームワークなど)、および専門家集団それらのコラボレーションの上に成り立っている。単にGPUチップだけの話ではないのである。
また弊社はDLをへのアプローチを 単一アーケティクチャー・アプローチ で行っている。1つのアーケティクチャーに、全社をあげて注力するということである。そしてそのシングルアーケテクチャーをもとに、ハイパースケールHPCからPC、自動車から組み込みチップまで様々なタイプの製品を提供している。
これらにより私たちはサブスタンシャルに業界をリードする立場にいる。今後も数年間にわたり私たちの大きな飛躍をご覧いただけるだろう。
Q6(Nomura Romit Shah)
DRIVE-PX2 は、80社に採用されているとうことだが、プロトタイプれべるでの採用なのか。それとも今後幅広く自動運転車に搭載されて、御社の自動車部門を、ディスプロポーショネットに成長させる可能性を持つものなのか?
Answer
(DRIVE-PX2 の説明のあと)DRIVE PX‐2はQ2に出荷を始めており、自動運転車の開発企業はすでに、このチップでの開発を始めている。
弊社もヴォリューム・プロダクションでの出荷を期待している。しかし各自動車会社のニーズがすぐに(ボーリュームレベルの製品を)ほしがっているところもあれば、今後2年間の間には考えているところもあるように多岐にわたっている。
また弊社もトラック、タクシーなど、あらゆる自動運転を開発している業者と協業している(だから派生商品が開発段階ではあらゆる業種の自動運転車に搭載されていくだろう、どの業種の完成車がどうなるか現時点ではわからない)。
Q7(B. Riley Craig Ellis)
グラボのファウンダーズエディションを作る狙いおよび、ファンダーズエディションと、パートナー向けチップとでの、グロスマージンの違い
Answer
我々独自の設計・製造の自家製のボードを好む人たちや、我々とダイレクトに取引したい人たちもいるので、数量限定でファウンダーズエディションを製作している(さらなる利益追及のためではなく、ブランディングのために作っているというニュアンスを感じた。チップメーカーに徹すると存在感なくなりすぎるから?)。
ただ世界中のパートナー(ASUSとかMSIとか)の製品企画力、販売力は素晴らしいもので、限定の純正ボードとパートナーが発売する多種多様のボードラインナップという2種類のアプローチは、よく調和している。
グロスマージンは、両者でほとんどかわらない。
Q8(Canaccord Genuity Matt Ramsay)
データセンターにおけるGPU活用の今後の見通しについて教えてほしい、また今後NVDAがAPU(CPU+GPU)タイプのビジネス領域を手掛ける可能性について教えてほしい。
Answer
データセンターのワークロードでは、映像などのビジュアルデータの占める割合が急速に高まっている。その傾向は強まるばかりであろうし、AIやDL能力がより必要とされていくだろう。またこのようにワークロードが変化しているので、データセンターのアーケティクチャ―も変化せざるをえない。すべての大規模データセンターでGPUを使用したアクセラレーションが実装されていくことになるだろう。
今後データセンターに実装されていくGPUパワーの規模に関しては「たくさん」とういしかない。現在我々が出荷しているよりもさらにたくさんだとしかいいようがない。学習用に(P100)、推論用に(P40、P4)多くのGPUが必要とされるだろう。
またAPUに関してだだ、現状で、インテルが世界最高のCPUを作っているのは間違いなく、GPU向けのワークロードが増えたとしてもデータセンターがCPUを必要とし続けることには変わりない。Xeonを上回るものはでてこないであろう(APUはやりません)。
Q9(MKM Partners Ian Ing)
250ドル以下のコンシューマ・マーケットで、パスカル世代の製品をリリースするのか?
Answer
パスカル世代の製品がすべての人に行き渡っていないことは認めます。(その手の質問にはこたえません。)
Q10 (Raymond James Steve Smigie)
VRへの今後の対応状況を教えてほしい。VRの今後の普及のカギとなるのは、なにか?
Answer
普及にはすべてが必要になる。ヘッドマウントメーカーへの支援や、VRコンテンツの拡充を積極的に進めていきたい。ゲームだけでなく、VRを、エンタープライス、工業デザイン、創薬、メディカルイメージング、建築工学、建設等の分野でも活用できるようにしていきたい。
現在建設中のNVDAの新社屋において、設計やデザインで自社のIrayなどVRを積極活用している。
パスカル世代の同時マルチプロジェクション機能(SMP)は、ゲームも含めたVRでこそ真価を発揮するだろう。
(VR環境においても物理シミュレーションを体感レベルまで実装しているという話のあと)
弊社は、VRにおいても、強力なポジションを構築していると考えている。
Q11 (Mizuho Securities Vijay Rakesh)
データセンタービジネスに関して、HPC、GRID、DL の構成割合を教えてほしい。
Answer
DLが半分、HPCが33%~35%、残りがGRID(virtualization,仮想化)である。私の考えでは、DLがより一層存在感を増していくだろう。世界中のすべてのデータセンターがDLへの対応を今後進めていくことになるであろう。
DLは市場ではなく、あらゆるソフトウェアが取り込んでいかなければならない新規の計算手法であり、DLに対応した計算能力への需要は増すばかりだと考えている。
Q12 (J. P. Morgan Harlan Sur)
今期のプロフェッショナル・ビジュアライゼーションでの成長は、マクスウェル世代のQuadroによってもたらされたと思うが、パスカル世代のQuadroの見通しや、発売時期はどうか?
Answer
あらゆる工業製品において、機能面でのデザインとともに、美しさという意味でのデザインが重要になってきている。車、建築などでも同様である。その時に製品をバーチャルにフォトリアリスティックに、ビジュアル化するという需要が高まっている。また我々も IRay などで環境を整えてきた。マクスウェル世代も非常にエネルギー効率に優れた製品であり、それらのことがこの分野での直近の業績アップ、マクスウェル世代のQuadoro需要好調の背景にある。パスカル世代のQuadroは、Q3、Q4で徐々にで出荷されていくだろう。まとめると
1、フォトリアリスティックなデザイン需要
2、NVDAのIray、OptiX、MDL(Material Description Language)などの環境整備
3、NVDAのGPUのエネルギー効率の良さ
4、VR(デザイン利用のの実用には、より強力なGPUパワーが必要)
これらの組み合わせにより、Quadroの需要は好調を維持するだろう。
Q13 (Deutsche Bank Securities Ross Seymore)
自動運転の分野で、提携を含めた御社の位置づけを教えてほしい。また自動車部門で、インフォテイメント売上を自動運転売上が上回るのはいつ頃になるのか、見通しを教えてほしい。
Answer
①Huge Software Problem → Open Stuck
自動運転の分野では、あらゆるパートナーを尊重している。なぜならば自動運転が膨大な数のソフトウエアの成果として可能となるものだからだ。それは1社がすべてを成し遂げられる類のものではない。だから多くのプレイヤーたちが、多くの提携関係を持たなければ成し遂げられない。
また次の20年で自動運転が洗練されていく中で、その洗練作業を、自動車会社が他の企業にアウトソースすることは考えにくい。だから我々はDRIVE PX‐2をオープンスタックにしたのであり、現状ですべての自動車会社は、われわれのプラットフォームの上で、それぞれの独自の自動運転技術を開発することができる。
②Scalable ← Varaiety
また自動ブレーキ、ハイウェイ自動運転、AIパイロット運転、完全自動運転乗用車、自動タクシー、自動トラック、ジオフェンス利用自動運転シャトルその他もろもろ、それぞれの自動運転技術に応じたチップのバリエーションが必要とされるであろう。それぞれの求める安全性の度合いなどから必要とされる計算量、GPUパワーも異なってくるだろう。だからスケーラブルなプラットフォームが必要とされるのである。だから我々はスケーラブルなアプローチを採用している。つまり、一つのGPUアーケティクチャ―から多くの種類のチップが作りだせるのであり、規模の経済を働かせることができるし、働かせるようにしていかなければならない。
③Super Computer ← AI computing needs
自動運転の開発には、ベストエフォート型のスパコンではなく、リアルタイム・スパコンが必要となる。それはスーパーコンピューティングシステム全体の中で生み出されるものであり、それを初めて実現したのが DRIVE-PX2 なのである。そのことに徐々にマーケットが反応しつつある。
Q14(Morgan Stanley Joseph Moore)
ハイパースケール環境におけるDLの状況についての話しがあったが、その中でも主に一般企業データーセンター向け事業領域でのNVIDIAのポジショニングについて教えてほしい。
Answer
DLはビッグデータの海の中からインサイトを発見するテクノロジーで、それにGPUの並列演算処理という特性が非常にフィットしている。
コンシューマー向けインターネット・サービス企業よりも、その他の一般的な事業会社のほうが、蓄積したビッグデータの解析と活用という点で、今後より一層DLを必要としていくだろう。
だからマーケットは拡大していくし、そのために DGX-1 というスーパーコンピューターを作ったのだ。この箱に入ったスパコンは、自前のデータセンターを持てない企業がDLを活用していくケース にとってこそ有効だ。
Q15(BMO Capital Markets Ambrish Srivastava)
トップラインが強烈に伸びてるのに、粗利益率がそれほど伸びないと見込んでいる理由を教えてほしい。
Answer
粗利益率の予測は、弊社の best estimates である(質問には直接は答えていない)。次のクォーターでまた話したい。我々はプラットフォームアプローチを採用している。このアプローチが、顧客企業の生産性を上昇させることを通じて、ゆくゆくはマーケットが拡大していくだろう。
ただし、次のクォーターに関しては、成り行きを見守っている。
Q16(Needham & Company Rajvindra (Raji) Gill)
DRIVE-PX2 はいろいろなタイプのチップに拡張可能なスケーラブルなアプローチをベースにしているということだが、それはたとえば今後、競合他社が提供するかもしれないような、自動運転レベル段階に応じて別々のソリューションを提供してくというアプローチとどのように違うのだろうか。
Answer
その疑問に対する明確な答えを持ち合わせている企業・人物はまだ存在しないであろう。今後自動運転技術が、どの業界でどのように発達していくのか、だれも明確にはわかっていないからだ。優秀な人々が、様々な自動運転の将来ビジョンを描いている。
また全世界、全業種で同じような自動運転システムが発達してくと考えるほうがおかしいだろう。
①ただ自動運転の発達において、AIが確実に関与していくという点では、あらゆる開発者たちが同意している。
②また自動運転は、コンピューティング問題なのだ。リアルタイム・スーパーコンピューティング問題なのだ。プロセッサ、コンピューター、システム、システム・ソフトウェアそれらを含めた、巨大なソフトウェア問題なのだ。だからそれぞれの需要に応じたコンピュ―ティング能力が必要とされていくだろう。
道のりはまだまだ長いが、今年、来年と様々な飛躍がもたらされるであろう。
Q17 (RBC Capital Markets Mitch Steves)
データセンタビジネスで、DL部門の比率が急上昇しているとのことだが、ASP(average selling price)に変化はあったか?それはAutoビジネスでも(DC利用があると思うが)一緒か?
Answer
データセンタービジネスでは、DL部門だからと言ってマージンチェンジがあるわけではない(売上に正比例して粗利も伸びていく)。
ただAuto部門では、オートクルーズなどの以前よりあるインフォテイメントにおけるマージンと、自動運転部門のマージンは全然違う。後者のほうがより高い。
自動運転の問題は、以下のものよりもより複雑なのだ。レーンキーピング、アダプティブ・クルーズ・コントロール、第一・第二世代ADASなどよりもだ。
Q18(Roth Capital Partners Brian Alger)
Pascal世代のGPUのエナジー効率についてより詳しく教えてほしい。スケールアップした場合の消費電力の動向など。
Answer
エネルギー効率は、これからのGPUが搭載されていく環境ではもっとも重要視されるものである。
PCであれば1000Wぐらいのパワー制約だが、ドローンに搭載されるとしたもしかしたら2wぐらいのパワー制約かもしれない。DLを利用するデータセンターでもますます大量のGPUが必要とされるので、エネルギー効率はコストに直結する。エネルギー制約は常に意識しており、効率改善に注力している。
Pascal世代では大幅な効率改善が成し遂げられており、それがDLのコンピューティング環境を劇的に変えていくだろう。(AMDのエネルギー効率がイマイチなことをディスってる?)
GPUの上に載るソフトウエアも重要だ。そのことを強調するためにGPUではなく、GPUコンピューティングという言葉を用いている。ソフトウェアであり、システムであり、メモリとGPUとの関係であり、ストーレッジ、ネットワーク、インターコネクトすべてを含む総合的な概念だ。それは巨大な規模のコンピューティング問題である。
それはまた莫大なスループット・コンピューティング問題でもある。それこそNVDAの得意とするところだ。ファンダメンタルなアーケティクチャ―から、チップデザインまで、またシステム・ソフトウェアまで、またシステムデザインまで、またアルゴリズムまで、またコンピューテーショナル数学まで、さらには他の専門領域まで、過去五年間に多大な投資をしてきた。
その成果が実を結びつつある
Q19(Barclays Capital Blayne Curtis)
投資家への資本還元プログラム、M&Aについての質問
Answer
コレット:株主への資本還元はプログラム配当と自社株買いがあるが、配当は長期的視点や配当利回り、株主還元の原資たる収益性を考慮しつつ行っている。自社株買いは時期を見計らって、慎重に行っています。
ジェンスン:また資本の使い方であるが、人材を獲得し育てて企業の生み出す製品・サービスの価値を高めることを第一としている(だからストックオプション大盤振る舞いするけど許してね!)。
またM&Aにアレルギーがあるわけではなく、オープンな姿勢で臨みたい。ただし弊社は人的資源への投資、技術開発への投資を第一に考える姿勢は維持している(そのためにもストックオプション大盤振る舞いは必要)。
Q20(Evercore ISI C.J. Muse)
データセンター部門のDL事業のそれぞれの領域の成長予測
Answer
データセンタービジネスでは、今後も DLによる成長が Vast Majority だと考えています。DLの強力なパワーがまだ開花し始めた段階だからです。
Q21(Stifel Nicolaus Kevin Cassidy)
Tegra Processor の車載インフォテイメントシステム以外での、新規分野の可能性があれば伺いたい。
Answer
Tegra Processor は自動運転向け製品のコア(コンピューティング・プラットフォーム)になるもので、DrivePX‐2 にも搭載されている。Tegraの重要性は増すばかりである。
また Tegra は Jetson にも搭載されている。Jetson は、車以外の自動AIマシンに向けの製品であり、将来的にAI機能を持つロボットやドローンに搭載されていくことを想定している。
TegraはAIコンピュターがチップ搭載されたものと考えていただきたい。
(質問者は任天堂NXなどのことを引き出せればと思ったかもしれないが、ジュンスンがそんなうっかりもののはずはない
最後に
①DL、自動運転車、ゲーミング、VRこれらはGPUが決定的な領域であり、成果をもたらしていること。
②パスカル世代は、史上最高の性能であること。
③ハイパースケール環境での、DL活用が広くいきわたってきていること。
これらが成長のドライバーである。
本格的な成長の端緒についたばかりであり、NVDAのGPUが市場にスケール・アウトしていくにつれて多くの変化・飛躍を目にしていただけるだろう。DLの広く採用されつつあり、大規模データセンターでも急速に採用されつつある。これは新しいコンピューティング・モデルであり、新しいコンピューティング・アーケティクチャーを必要とするからだ。
DLにはGPUが最適であり、過去5年間にプラットフォームを作り上げ、GPUをDL向けに最適化してきた。プロセッサレベル、アーケティクチャ―レベル、チップデザインレベル、システム、ソフトウェア、アルゴリズムすべてDL向けに最適化してきた。
DLの専門家がNVDAに多く在籍していること、また世界中の専門家とのコラボレーションが、NVDAのプラットフォームの上で、DLを発展させていくことを可能にしている。
結果として、NVDAのDLプラットフォームは、予想を超えた大きな躍進を遂げた。またシンギュラーアケティクチャーアプローチ(CUDAを通じてどのタイプのGPUも動かせて、スケールアウトできるアプローチ)を採用することで、それを誰もが、様々な形で利用できる環境を整えている。
開発者、ソフトウェアプラグラマ、研究者たちへの配慮、投資、ケアはNVDAの一番の関心事の1つである。コンピューティングは、アーケティクチャ―、プラットフォーム、開発者すべてが重要となってくる。そして開発者が利用しやすい環境を常に考えている。
いまや、世界中のあらゆる産業の開発者が、このシンギュラーアーケティクチャを利用できるのであり、その恩恵を受けることができるのだ。
以上です。
NVDAのGPUが任天堂に必要とされる理由
初代シールドだと、3DSとモロかぶりだし、シールドのコンソール版だとPS4と変わらんし・・・。
ということで、シールドタブレットタイプしかないんじゃね?
とは大抵の人が思っていたんですけれど、まさにその進化版になりましたね。
まだまだ未発表の要素もたくさんありそうだし、楽しみすぎる!
NVDAは、任天堂とともにコンソールでも覇権握っちゃうのかな?
儲けすぎ注意!
(部分引用)
Nintendo Switchは,メインプロセッサとしてNVIDIA製SoC(System-on-a-Chip)である「Tegra」のカスタム版を採用する。
2009年頃に、3DS用プロセッサ選定時に,NVIDIAが任天堂にTegraの売り込みを行ったとされるが、最終的にTegraは落選し,日本企業であるディジタルメディアプロフェッショナル製の「PICA200」が採用された。
当時,PICA200採用の決め手になったのは,「Tegraは省電力性能に弱点がある」点だったという。また,3DSがデビューした2011年当時だと,携帯機サイズの電気容量(=バッテリー容量)でプログラマブルシェーダを動かすことが現実的でなかった。
PICA200は,「固定機能シェーダ」でも「プログラマブルシェーダ」でもない「コンフィギュラブルシェーダアーキテクチャ」を採用していた。これはゲームグラフィックスで用いられる定番のシェーダ部品をハードウェアで提供し,これらをある程度の制限内で組み合わせたり,パラメータで制御したりするもので,固定機能シェーダの持つ省電力性能と,プログラマブルシェーダに近い表現自由度を兼ね備えた,ハイブリッドなアーキテクチャであったのだ。
ただ、今やスマートフォンのSoCでPS4やXbox Oneと同等世代のプログラマブルシェーダが動いている時代なので,このタイミングでプログラマブルシェーダアーキテクチャの採用を渋る理由はない。
半導体の製造プロセスも微細化が進んでいるため,消費電力的にも問題ないという判断があったのだろう。
むしろ,2017年発売機ではコンフィギュラブルシェーダアーキテクチャを採用する必然性がない。
ところで,任天堂のWii,そしてWii UはGPUとしてAMD(旧ATI Technologies)のプロセッサを採用していたはず。今回のNintendo Switchでは,同系のAMD製組み込み型APU(CPU+GPU) SoCの選択は考えられなかったのだろうか。
「携帯ゲーム機としても据え置き型ゲーム機としても使える」コンセプトだと,PS4やXbox Oneで採用しているようなAPU(CPU+GPU)は,消費電力的に採用しにくい。
400ドル以下のノートPCが採用するようなエントリー市場向けAPUなら,消費電力面のハードルはクリアできるが,今度は性能的要件を満たせない。
なら,QualcommのSnapdragonシリーズに代表される,スマートフォン向けに提供されるハイエンドSoCという選択肢はなかったかといえば,ないこともなかったとは思う。
スマートフォン向けのSoCが採用するGPUコアのトップエンドモデルだと,単精度浮動小数点(FP32)理論演算性能は1TFLOPSを超えているものもあるからだ。高性能すぎて純粋なスマートフォンでは採用例がなかったりするが。
ただ,「既存のゲーム開発環境との親和性」「ほかのゲームプラットフォームとの相互移植性」などを考えると,「NVIDIAという選択肢」はなにより安定感がある。というのも,NVIDIAは「GameWorks」などに代表されるゲーム開発向けの技術支援を積極的に行ってきた実績があり,ゲーム開発シーンからの信頼が厚い。
そして,GeForceの流れを汲むGPUコアは,過去にPlayStation 3や初代Xboxに採用されたことがあり,なによりPCゲーム市場の主役であって,GeForceベースのソフトウェア資産は潤沢だ。おそらく今回決め手となったのは,このあたりではないだろうか。
◎Nintendo Switchの性能はどれほどか
GPUアーキテクチャだが,2017年登場のマシンである以上,現時点における最新世代,すなわちPascal世代になる可能性が高い。
Pascal世代のGPUを搭載したTegraとして,NVIDIAは2016年8月に,自動運転向けとなる「Parker」を発表しているが、これが1つの目安にはなる。
なおNVIDIAは,次世代Tegraとして2016年9月に開発コードネーム「Project Xavier」の存在を公表している。こちらはPascalの次世代アーキテクチャである「Volta」を採用したSoCだが,
最新を追いすぎない任天堂の方針
最新を他社に提供しないNVIDIAの戦略
を考えると,Xavierもしくはそれに近いSoCを採用する可能性は極めて低い。
もちろん,「最新を追いすぎない任天堂の方針」からすれば,前世代のMaxwellアーキテクチャを採用した「Tegra X1」系プロセッサを採用する可能性もなくはないのだが。
ただ携帯前提の端末において、いまさらTSMCの20nmプロセス技術をベースとした物理設計を採用する意味があるとは思えないので,16nm FinFETプロセス技術を採用するPascalを使うだろう。Pascal系ならParkerのカスタムだろう。
さて,気になる性能に話を戻すと,GPUの単精度浮動小数点演算性能は
WiiU 352 GFLOPS
PlayStation 3 224 GFLOPS
対PS3で約1.57倍という数字になっていた。
それに対し,Parkerだと768 GFLOPS。NVIDIAはParkerの性能をアピールするとき,1.5 TFLOPSという表現を好んで使うのだが,これは自動運転やディープラーニングの処理で重要な半精度浮動小数点(FP16)の演算性能値なので注意してほしい。
タブレット端末向けSoCのTDP(Thermal Design Power,熱設計消費電力)は高くても10W~15W程度である。
このTDPだと,16nm FinFETプロセス技術を用いたとしても,単精度の浮動小数点性能値は1 TFLOPS前後だろう。
Nintendo Switchの理論性能値を仮に768 GFLOPSもしくは1 TFLOPSと仮定すると,順にWii Uの2.18倍,2.84倍という理論演算性能ということになる。
そしてその場合,Nintendo Switchは,Wii Uより高性能でも,PS4の1.84 TFLOPS,PS4 Proの4.2 TFLOPS,Xbox Oneの1.31 TFLOPSには歯が立たないということになる。
しかし,任天堂はWiiの時代で競合との性能競争から下りているため,いまやここに驚きはない。
ただ「もっと高性能だったら!」の希望的観測をするならば,Nintendo Switchは「携帯ゲーム機モードと据え置き型ゲーム機モード,2つの動作モードを持つゲーム機」なので,ACアダプター駆動時となる電源接続時の据え置きモードではより多くのGPUコアが駆動するとか,より高いクロックで動作するとかして1 TFLOPSオーバーの性能を発揮し,バッテリー駆動時は稼働するコアや動作クロックを抑え,相応の性能に留めてゲームプレイ時間を延ばす,なんて仕様を採用している可能性はある。
もちろん,「ACアダプター接続時に768 GFLOPSで,バッテリー駆動時は384 GFLOPSに落ちて解像度が下がります」という逆パターンも考えられる。
少なくとも,Nintendo Switchが,バッテリー駆動時に単精度浮動小数点演算性能で1.5 TFLOPSを超えてくる可能性はほぼないと言っていいように思う。
◎Wii Uや3DSとの互換性はなく,PS4と同様のリニアなモデルチェンジを採用か
新世代ゲーム機が登場するたびに話題となるのは下位互換性だが,今回,TegraというARMベース,正確には「ARMv8-Aアーキテクチャ」ベースのCPUコアを統合するSoCを採用したことによって,WiiおよびWii Uとの互換性はなくなったと考えられる。
3DSはARM系のARMv6アーキテクチャを採用しているので,可能性はなくもないが,Nintendo Switchとは画面構成や操作系の違いがありすぎるので,こちらも互換性はなくなったと見るのが自然か。
一方で,将来に関しては重要な示唆がある。Nintendo Switchは,カスタム版とはいえ,完全に新規開発のプロセッサではなく,NVIDIAのTegraという「ブランドもの」「シリーズもの」を採用した。
そこに向けて任天堂とNVIDIAは,Nintendo Switch(≒カスタムTegra)専用のゲーム開発API「NVN」を共同開発したと,NVIDIAがblogエントリーで明らかにしているのだ。
NVNの「NV」は「NVIDIA」,「N」は「Nintendo」のような気もするが,API( Application Programming Interface)の名称はともかく,ここでポイントになるのは,任天堂とNVIDIAが,Nintendo Switchプラットフォームを共同で成長させていく可能性が高いということである。
そして,その場合に導き出されるシナリオは,「Nintendo Switchが,Tegraプロセッサの進化とともに成長する」だ。
つまり,Nintendo Switchは,後方互換性だけでなく,前方互換性を維持しつつ高性能化していくことがありうるのだ。PS4 Proのような「ハーフ次世代機」の形になる可能性もある。
いずれにせよ,PS4やXbox Oneと同じく,Nintendo Switchも,そのライフタイム中に性能が固定化する可能性は低いと,筆者は考えている。
そもそも任天堂はすでに,3DSの発売から3年後にあたる2014年に,高性能版である「New Nintendo 3DS」を市場投入済みだ。これくらいの時間感覚で,“New Nintendo Switch”的な高性能版が出てくることは十分にあり得るだろう。
なお,NVIDIAサイドの話をすると,同社はTegraをスマートフォンなどのいわゆるモバイルデバイスへ展開していく可能性を否定しており,現在は自動運転用のドライブコンピュータと,NVIDIA自社ゲームプラットフォーム「SHIELD」用に開発を進めている状態だ。
後者は必ずしもうまくいっているとは言えないだけに,ゲーム分野でNintendo Switchがサポート対象に加わるというのは,NVIDIAにとっても大きい。
ビデオの後半で,Splatoonの続編らしきゲームが出てくる以上,Nintendo Switch側に加速度やジャイロといったIMU(Inertial Measurement Unit,慣性計測装置)機能くらいは搭載されると思うが。
(部分引用)
Switchは、同機専用に再設計されたNvidia Tegraプロセッサーを使っている。その強力なモバイルプロセッサーは、Nvidiaのモバイルゲーム機SHIELDで使われている。
SHIELDにはOS(Android)があり、モバイル-ファーストで作られたゲームと、PCやそのほかのゲーム機からの移植作品の、両方プレイできる。そして家庭でも出先でも同じく良質のゲーム体験を、SHIELDとSwitchは追及している。
家庭と外が両立するハイブリッドゲーム機に、ゲーマーは何を望むのか。
Nvidiaはその探求に多くの時間と労力を割いた。
SHIELDのさまざまな変種やモード、姿形(置き方)が、そのことを物語っている。最初のSHIELDポータブルは電話機能のないAndroidフォーンで、コントローラーハードウェアと合体されていた。
次のSHIELDタブレットはSwitchに近いものになり、そしてSHIELDセットトップボクスは、今でもAndroid TVの突出的スターだ。
そうやって進化してきたSHIELDは、いずれも仕上がりが良く、PCや従来のゲーム専用機でゲームを楽しんできたゲーマーがモバイルに感じる不満を、一掃していた。
そして今度のNintendo Switchは、SHIELDのニッチな成功から多くを学び、その客層を大きく広げようとしている。
Switchが実現しているリビングルームとポータブルのシームレスな移行は、SHIELDがやろうとしていたことの続編のようだ。
それをTegraが動かしていることは、単なるモバイル体験の拡張ではない、本格的なゲーム専用機体験を実現するにふさわしい。
ふつうの消費者から高度なゲーマーまで、多様なユーザー層を抱えるエコシステムという点では、NintendoはNvidiaよりも有利だし、ゲームに関する技術的蓄積も厚い。
表面的には、NvidiaとNintendoの関係は、部品の提供業者とそのユーザーにすぎないが、NVDAが提供したのは部品だけでなく、将来の大きなビジョン、だったのではないか。
てそのビジョンを実体化したのが、Nintendoの、リビング/モバイルハイブリッド機なのだ。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
任天堂のゲーム機の中核CPUチップは従来カスタム設計なので、今回もチップレベルから物理的にカスタマイズされたTegraの可能性は高い。
ただし、NVIDIAのIPの流用となると見られるので、セミカスタム的なアプローチだと推測される。
2017年3月という発売時期を考えると、20nmプロセスは考えにくく、少なくとも製造プロセスは16nm FinFETプロセスの可能性が高い。
ファウンダリ側も、20nmプレーナプロセスは短命で、16/14nm FinFETプロセスへと切り替えている。だとすれば、2016年から2017年のゲーム機は、いずれもFinFETプロセスに突入することになる。
ちなみに、2017年なら10nmプロセスも量産が立ち上がっているが、ゲーム機の場合は発売前にゲーム開発を進めなければならないため、少量生産を先行させる必要があり、最先端プロセスは使いにくい。
NVIDIA自身のTegra SoCは、20nmプロセスが「Tegra X1」(Erista:エリスタ)。
CPUコアがARMのCortex-A57クアッドとCortex-A53クアッドの合計8コア。
GPUコアがMaxwellアーキテクチャで256積和算ユニット構成、
メモリがLPDDR4x64となっている。
16nmプロセスは、一般に「Tegra X2」(またはTegra P1とも)と呼ばれている「Parker」。
CPUコアがNVIDIA開発のDenver2デュアルコアとCortex-A57クアッドコア。
GPUコアがPascalアーキテクチャーで256積和算ユニット構成、
メモリがLPDDR4x128となっている。
Tegra X1はモバイル向けをある程度意識して設計されているが、Parkerの方は、車載向けにある程度傾いた設計となっている。同じTegraの名前を冠していても、性格が異なるSoCだ。
Tegra X1の構成は、2017年のゲーム機としては貧弱だ。なぜなら、2017年にはモバイル機器が10nmプロセスに突入するからだ。しかしParkerの構成は、Switchのような半モバイル的な使い方をするには、やや構成が高電力側に偏っている。その点からも、任天堂のチップがカスタム化されている可能性は高い。
任天堂のSwitchは、Tegraを採用したことで命令セットアーキテクチャ(ISA)はARMv8-Aとなることは確実だ。ARMv8-Aは、64-bit拡張されたARMのA系列命令セット(ARMはCortex-A/R/Mで命令セットが異なる)だ。
ARMv8-Aは、ゲーム機では新しいISAだが、スマートフォンやタブレットのCPUコアはほとんどがARMv8-Aなので、馴染みは深い。ちなみに、ARMv8-A命令のCPUは、64-bitと32-bitの両モードを実行できる。
ARM命令自体は、任天堂プラットフォームでは馴染みがある。
3DSは、デュアルコアのARM11とシングルコアのARM9を搭載していた。ARM11はARMv6命令セットアーキテクチャだ。
その前身となるニンテンドーDSも、ARMv5命令世代のARM9コアだった。過去の任天堂ハードのARMコアは、いずれも32-bit命令アーキテクチャの世代だ。
同じARM命令系でも、64-bit拡張されたARMv8-Aは、任天堂ハードでは初めてとなる。
ちなみに、PS VitaもARMのCortex-A9クアッドコアで、これも32-bitのARMv7-A命令のコアだ。
ゲーム機としては、64-bit ARM命令が新しい点となる。ARM命令セットは、ARMv8-Aの64-bitで命令の仕切り直しとなっており、命令体系が大きく異なる。
従来のARM系命令(ARMやThumbなど)は特殊な命令を含むが、ARMv8の64-bit命令は“普通のRISC”風に切り替わっている。
ゲーム機のCPUアーキテクチャは、前世代はPowerPC系が占め、その前はMIPSとx86、PowerPCが併存した。しかし、今はx86(PS4とXbox One)とARMv8という、コンピューティングデバイスの市場と同じ構図になりつつある。
NVIDIAの現在のTegra系SoCのCPUコアは、いずれもARMv8命令セットだが、2系統のコアがある。ARM開発のCortex-AシリーズCPUコアと、NVIDIA開発のDenver系コアだ。SwitchのCPUコアについては、そのどちらの系統がメインCPUコアとして搭載されるかがポイントとなる。
ARMは現在方針として、一定以上の性能を持つCPUコアは自社IPとして提供していない。ARM命令セットの高性能なCPUコアが欲しいメーカーは、ARMからアーキテクチャルライセンスを受けて、ARM命令互換のCPUコアを開発している。
同じARMv8命令が走るが、マイクロアーキテクチャが全く異なり、ARM自身のコアよりも高性能だ。NVIDIAのDenverはそうしたコアの1つで、AppleやQualcomm、Samsungも同様に自社で高性能CPUコアを開発している。
NVIDIAのDenverは中でも特殊なマイクロアーキテクチャを取っている。Denver系CPUは、ARM命令を、命令デコーダで2命令/サイクルで、内部マイクロ命令に変換。
マイクロ命令をそのまま実行するだけでなく、何度も実行されるパスでは、マイクロ命令の最適化を行なう。最適化によって、最大7並列まで並列化されたマイクロ命令は最適化キャッシュ(オンメモリ)に格納、次回から最適化された並列度の高いコードを実行する。最適化によってピークで7+のIPC(Instruction-per-Clock)を達成できる。
かつてのTransmeta CPUの、ハードウェアアシスト版のようなアーキテクチャとなっている。
Denverはピークのシングルスレッド性能は高いが、ややクセのあるアーキテクチャだ。また、Denver系はARM自身のCPUコアと比べるとダイエリアもかなり大きい(これはAppleなども同様)。
それに対して、ARMのCortex-A57やその後継のCortex-A72は、もっと一般的なアウトオブオーダCPUコアの設計を取っている。
3命令デコードで、ハードウェアスケジューリングで並列実行する。
Tegra X1では、Cortex-A57とCortex-A53を組み合わせているが、これは、低負荷時には低電力のCortex-A53に切り替えることで消費電力を抑えるためだ。
Parkerでは、NVIDIAはDenver2とCortex-A57を組み合わせているが、これはメインターゲットが車載であるため、低電力にそれほどフォーカスしなくていいためだ。モバイル的な利用では、Cortex-A53のような省電力コアと組み合わせることが望ましい。
ゲーム機としてのSwitchが、NVIDIAのCPUコアをどのように組み合わせるのかが興味深い。性能と電力はトレードオフであるため、このあたりの設計選択は、任天堂が据え置き的な利用を中心に考えているか、タブレットゲーム機的な利用を中心に考えているかによって分かれる。
GPUコアはTegra X1がMaxwell世代、ParkerがPascal世代となっている。しかし、グラフィックス向けのPascalは、Maxwellと非常にマイクロアーキテクチャが似通っているため、どちらであっても差は少ない。
NVIDIAはMaxwell世代から、PC向けGPUとモバイル向けGPUのマイクロアーキテクチャを統合した。それまでは、世代遅れのGPUコアがモバイルに搭載されていたが、Maxwellからずれがほとんどなくなった。
Maxwellアーキテクチャでは、GPUコアのバンドルであるSM(Streaming Multiprocessor)の中に、128個のCUDAコア(FP32浮動小数点演算ユニット)が搭載されている。これは、グラフィックス向けのPascalも同様だ。
Maxwellで見ると、デスクトップ版との大きな違いは、FP16アクセレーションが加わっていること、シェアードメモリが64KBとやや少ないことなど。実際には、物理設計やトランジスタなどが異なっているが、マイクロアーキテクチャ的な違いは少ない。
Tegra X1ではGPUコアの中に2個のSMがあり、合計で256個のCUDAコが搭載されている。Parkerも256 CUDAコアとなっているので、同様の構成だとみられる。
任天堂がモバイル並の消費電力とダイエリアに抑えようとするなら、GPUコアの規模はTegra X1/Parkerと同様に256 CUDAコアになるだろう。しかし、電力より性能を優先するなら、コア数を増やす可能性がある。この辺りの選択は、任天堂の想定するSwitchの使い方によって異なってくる。
ちなみに、Tegra X1は256個のCUDAコアをピーク1GHzで動作させること512GFLOPSのFP32演算性能を実現する。FP16の場合は、その倍の1TFLOPSとなる。
Parkerの場合は、さらに周波数を上げることで750GFLOPS(FP32)/1.5TFLOPS(FP16)となる。
モバイルでのグラフィックスの最大の性能制約要素はメモリ帯域だ。実は、Tegra X1とParkerでは、この部分が大きく異なっている。
どちらもLPDDR4をメモリとして採用しているが、Tegra X1はメモリインターフェイスがx64(64-bit)、Parkerはx128(128-bit)となっている。
メモリ帯域は3.2Gbpsの転送レート時に、Tegra X1が25.6GB/sec、Parkerが2倍の51.2GB/secとなる。
50GB/secクラスのメモリ帯域は、デスクトップPCならDDR4-3200のデュアルチャネル(128-bit)インターフェイス並の帯域となる。
もちろん、メモリインターフェイスが2倍の方がインターフェイスの電力消費は大きい。また、DRAM個数も多くなるため、DRAM自体の消費電力も響く。
ただし、2017年のSwitchにはLPDDR4Xという選択肢もある。LPDDR4Xでは、I/O電圧を下げることで、LPDDR4よりさらに電力を下げている。その分、同じ電力消費で、メモリ帯域を広げることが可能だ。
モバイルメモリには、このほか、スタックドのWide I/O2もあるが、こちらは高価格になるため、普及しておらず、価格コンシャスなゲーム機には使うことができない。
ちなみに、LPDDR系もDDR系と比較すると高価格であるため、ゲーム機にとってはコスト的に厳しい。
NVIDIAは任天堂のSwitchに対して、SoCハードウェアを提供するだけでなく、ローレベルの新API「NVN」も提供する。また、そのほかのツールやライブラリなども提供するという。NVIDIAのAPIは意外に聞こえるかも知れないが、NVIDIAはVulkanの前に、Googleと新APIを策定して普及させようとしていた。実は、AMDだけでなく、NVIDIAもAPIには熱心に取り組んでいる。
任天堂がNVIDIAを採用したことで、ゲーム機のアーキテクチャはさらに錯綜してきた。これまでは、任天堂のWii UがAMDアーキテクチャであったため、AMDは現行世代のゲーム機のグラフィックスは全てAMDと言い切れた。
前世代では、PS3がNVIDIA、Xbox 360がAMD、WiiがAMD(ATI)系だが独自アーキテクチャ。それが、今世代では、PS4系とXbox One系がAMD、SwitchがNVIDIAとなる。さらに遡ると、PS2は独自アーキテクチャ、初代XboxはNVIDIA、GAMECUBEはATIだった。世代毎に入れ替わるところが面白い。
タブレット+コントローラのモバイルゲーム機にも、大画面TVに出力する据え置きゲーム機にもなるというSwitchのコンセプトは、どことなく、NVIDIAのSHIELD Tabletを思い起こさせる。SHIELD TabletはTegra K1ベースだったためか、コンセプト的にも似通ったものを感じさせる。実際には、アタッチするコントローラのため、操作の雰囲気はかなり変わるが、半導体チップへの制約(消費電力)という面では似てくる。
いったい誰がSwitchを買うっていうんだ?
おいおいそんな不吉なこと言うんじゃねーよ。
NVDAが開発で全面協力してるのに!コケたらNVDAの評判も傷つくでしょうが!
どうせポケモンGOのときも、こんなん誰がやるんだ?っていってたんでしょ?
GPS搭載して、ポケモンGOとの連携のチャンスでもあれば、初動で大きく変わってくると思いますけれどね。
あとジャイロ搭載かどうかも個人的な趣味として気になります。
でもそんなにダメかなぁ?すごく楽しそうだけどね。
(以下抄訳)
$250で発売されれば、初動で250万台。その後の1年で追加的に1080万台の出荷が見込める。
・IHSのアナリスト:ハーディング・ロールズ氏
スマホ・タブレットでのゲーミングに対抗して、フレキシブルに遊べるソリューションを打ち出してきた。ただ「あらゆる経験をあらゆるユーザーに」路線にはまると、標準以下のゲーム体験しか提供できない。
・3月のローンチ時に、285万台の出荷を予測する。
・トレイラーだと明らかにヤングアダルト世代が対象(小学生くらいの子供がほとんど出てこない)で、コンソールに親しみがありつつ、モバイルでゲームをするようになっている世代をまずはマーケティングの対象としている。
・ヤングアダルト世代にアピールするためには、サードパーティーの協力が不可欠だが、その点はWiiUの時の21社と比べて、50社弱と健闘している。
・トレイラーから、モーションコントロールは搭載していないように思われる。これはサードパーティーからの協力を得やすい改変である。
・WiiUでは「a clear use case」(模範的な遊び方)をマーケティングできなかったから失敗した。
・値段は$250~$300が上限。NVIDIAのシールドを考えて、そのプライスレンジに落ち着くのでは?
・シールドとの共通性が高いと思われるので、4Kビデオコンテンツも上映可能であろう。
・DFCインテリジェンス:デイビッド・コール氏
(シールドのような)タブレットにコントローラーがついたものと思われてしまう。もっと適切なメッセージがほしい。
・スーパーデータ:フォン・ドレウネン氏
トレイラーからは、プレティーンや、ティーンエイジャー向けの機能(後部座席で複数プレイなど)を持つように見える。ただし、その外観はその世代向けの商品のようには全然見えない。トレイラー出演者もヤングアダルト世代でややちぐはぐ感が。これがキッズだったらよりターゲットが明確になっていただろう。
・$299の値段で、ゼルダもしくはマリオカートがバンドルされるのが理想だ。単独で$300越えてくるようだと、その場合は潜在マーケットが著しく狭まるであろう。
・Serkan Toto氏:Kantan Games Inc
・ポータブル/ホーム 両方でのコンソールアプローチは、この2016年においてイノベーティブと言えるのか?
・モバイル・カジュアル・ゲーマーを振り向かせるような、killer feature がない。
・そもそもスマホモバイル・ゲーマーとコンソールゲーマーは違うマーケットに住んでおり、両者を橋渡しするのはほぼ不可能。スーパーマリオRUNでも難しいだろう。
・$299が閾値であり、それ以下で発売されなければならない。ただその値段ではPS4などがあり、またモバイルゲーミングでは、スマートデバイスに占領されているのではああるが・・・。
・Wedbush Securities: MIcaek Pachter氏
・スペックと価格は比例するものである。
・PS4と同等のスペックならば $249 から最大でも $299 で発売されるだろう。
・PS4と似た性能ならば、サードパーティーのゲームが移植しやすくなり、大きな成功につながるだろう。
・スペックも価格もPS4よりもかなり抑えられてしまうケース、あるいは、両方ともPS4よりも高すぎるケースとなった場合は、サードパーティのサポートが受けられず、失敗するだろう。
(その他面白かったツイート)
RAYJACK@Rayjack_S
任天堂株急落とかあったがその前日の値動きからしても投機的な話なのに、なんで失望感とかそんな話になるのかのぅ。
Sugano Yoshihisa(E) @koshian
Apple も新製品発表後は落ちてこういう報道されるんだよね。株価が下がる=失望ではないのは Apple の製品がその後どれだけ売れたか見れば分かる話。事前に釣り上げて発表前に利確する人がおるんだろね。 / “東証:任天堂株が急…”
KIMATA RobertHisasi @robert_KIMATA
Nintendo Switch、画像見た感じだと「カメラなし」「モーションセンサーなし」「タッチパネルなし」「3D要素なし」。ARもVRも3Dもばっさり切って「据え置きゲームやるゲーマー同士で集まると盛り上がるゲーム機」作ってきた感じか
HH@相場でダラ犬 @hiro_tantantan
日本累計400~500万台、世界累計1500~2000万台くらいの2007年11月が任天堂の株価ピークか。。 相場環境的にそれより先取りしてくるだろうけど、ちょっと覚えておこっと
NXティザーキター!!!!!
おーい10月20日の夜11時に任天堂NXのティザー広告がくるぞ!
マリオからの一足早いクリスマスプレゼント楽しもうぜ!
(以下 任天堂アメリカ社長のの Reggie Fils-Aime氏のインタビュー)
Fils-Aime氏は,Wii Uの最大の魅力でもあるセカンドスクリーンという斬新なデザインについては「価値のあるコンセプトだった」と擁護する。さらに同プラットフォームのエクスクルーシブタイトルについても,MicrosoftやSonyのラインアップと比較しても良いものであると主張した。しかしながら,Fils-Aime氏はWii Uのすべてがうまくいかなかったことはしっかりと認めているのだ。
「NXをローンチする際に,我々がよりよく成し遂げなければならないことは,我々の製品のゲーム市場での立ち位置を,消費者に対してしっかりと説明することです」とFils-Aime氏は語る。「我々は,消費者の皆さんにゲーム機のユニークさや,ゲーム体験がどのようなものになるのかを理解してもらうために最善の努力をしなければなりません。
ソフトウェアのラインアップを構築していくという点でも,素晴らしい新作をテンポよくリリースすることで,より多くの人にハードウェアへの興味を持っていき,結果としてさらに多くのゲームを手に取っていただけるような努力も必要になります。
こうしたことが,繰り返してはならない教訓でした。このように言葉にすると,ゲーム産業には昔からある伝統的な教訓であることが分かります。人々がゲーム機のコンセプトを理解し,より良いゲームライブラリを構築することにより,そのビジネスは成功するのです」と続ける。
「伝統的な教訓」とFils-Aime氏というのは,それ以前のプラットフォームで任天堂が繰り返してきたことを考えると分かりやすい。事実,ハードウェアの素晴らしさについて,独創的な価値の高さを消費者に説明することに失敗したというのは,2012年にWii Uがリリースされた前年に3DSがローンチされた際も,その船出が険しかったことが同社に鮮明な記憶として残っているのだろう。
任天堂の故・岩田 聡氏が2011年の業績報告会で語ったのは,「ローンチ後の状況を分析してみた結果,その価値を消費者の皆様によりうまくご説明することが必要であることが明白でした」ということだった。
さらにもう少し時間を巻き戻すと,任天堂はゲームキューブから学んだことの一つとして,リリーススケジュールの空白を避けるようソフトウェアの開発計画をしっかりと練る重要性を語ったこともある。
Wiiの2006年のローンチ前に,Nintendo of Americaのシニア副社長George Harrison氏は,ゲーム機の評判を維持するためにソフトウェアの継続的なリリースについて言及していたのだ。
Harrison氏は当時,「ゲームソフトは,ローンチ時だけでなく,最初の6か月から9か月にかけては継続的にリリースしていかなければなりません。GameCubeでは,我々はそのことを怠り,ローンチ以後には何もリリースしない6か月ほどの渇水期があったのです。それが終わる頃には,すでにゲーム機の評判は形成されつつあり,それを覆すのは多大な時間が必要になりました」と語っていた。
Quadoro Pシリーズ デリバリーへ!
Pro-Vis分野は高成長は期待してないにもかかわらず、Q2では売り上げがかなり伸びてるんだよね。
GPUの性能アップが、DLのビジネスへの応用やら、自動運転開発を可能にしたという側面もあるので、この領域の盛り上がりも、根本にはGPUの性能アップがあるのかな。
過去にはみんな思いついてもできなくて。
やりたかったことがようやくできるようになった。。。
(部分引用)
Pascalアーキテクチャを採用した新たなQuadroは、VR向け機能を搭載したほか、5K出力への対応も図るなど、従来Quadroを上回るハイエンド製品という位置づけとなっている。メモリもGDDR5Xを最大24GB搭載することで、メモリ帯域幅も最大432GB/sを実現。
巨大で複雑な設計である建物や自動車の設計効率向上、映像制作における炎や煙などのエフェクトの向上、レンダリングや展開できるデータセットの拡大などが可能となった。
主に日本市場では、自動車の設計開発や建築・土木設計のBIM/CIM設計、フォトリアルな建築空間、4Kを超す映像編集、医療の可視化といった手術のシミュレーションなどを対象としており、そうした産業界でのVRニーズ(プロフェッショナルVR)にも対応する性能を提供する。
また、P5000はメモリが最大16GBとP6000に比べて、若干下回るが、従来の8GB品では対応できなかった12GB以上のビデオメモリを必要とするプロ向けデータへ対応している。コストのバランスを考えられた製品となっており、Keplerアーキテクチャである「K5200」と比べると約2.5倍の性能向上を果たしている。
また同社は近年、ハードウェアのみならず、ソフトウェアやアプライアンスといったものも含めたソリューションとしての提供に力を入れている。
特にレイトレーシングメインのレンダラ「IRAY」については、2015年よりプラグインの提供などを開始。「物理ベースレンダリング(PBR:Physical Base Rendering)」や「メディア&エンターテイメント」、「デジタルサイネージ」といった分野を中心に展開しており、、PLMベンダであるダッソーシステムズやシーメンスPLMソフトウェアなども活用している。
(ソフトウェア全体としてはワークステーション分野が中心となり、X線や内視鏡などのデータ演算用途を含めた医療分野なども含まれる)
さらにプラグインとしては、近々にAutodeskのモデリングソフト「Maya」向けに「Mental Ray for Maya」を提供する予定。
こうした分野で近年、同社が期待を高めているのはBIMの活用が世界中で進められつつある建築分野だ。「IRAYでRenderingした美しいフォトリアリスティックなビルを見ることが可能になる。
デザインからVRへとシームレスに展開することで、エンドユーザーやビルオーナーも、完成する前に、どういった建物なのかの雰囲気や様子を具体的に把握することができる。例えば、新しい国立競技場では、どこにカメラを配置すると、よりよい映像が撮影できるのか、というシミュレーションに対する要求があると聞いている」と同社は説明しており、現時点では、そういったデータを作るにはハードルがまだ高いものの、数年以内に一般住宅のデータなども手軽に作れるようになるほか、配管データなども見ることができるようになるとする。
また、こうしたGPUパワーの向上が、新たな産業とのコラボレーションも生み出している。ゲームエンジン「Unreal Engineシリーズ」を提供するエピック・ゲームズ・ジャパンでは、「ゲーム以外での利用が近年増加してきている」とするほか、同社としても、「ゲーム以外のビジネス開拓を需要課題としてとらえ、エンタープライズ領域を重視した取り組みを進めている」とする。
例えば、東京ゲームショウ2016にて明らかにされたバンダイナムコエンターテインメントの新作タイトル「プロジェクト レイヤード(Project LayereD)」だ。
同社が協力する形でティザームービーを、Unreal Engineでモブなどの3Dモデルデータを表示し、2Dで描かれた背景と組み合わせる形で作製した。
従来のMayaでフレームごとに描画する手法では、1フレームあたり数時間を要していたが、今回の手法では数秒で実現。絵コンテを不要にできる可能性が示されたとのことで、今後、本編にあたるアニメを作るにあたっても同エンジンを活用していくことが決まったという。
さらに海外の事例だが、NASAがISS向けに地上訓練用にVRと組み合わせた活用法や、リオ五輪に併せてブラジルのテレビ局がバーチャルスタジオとリアルタイムモーションキャプチャを組み合わせて作成した選手のCGとアクターを連動させ、キャスターと対戦させたり、など、活用分野を拡大してきている。
日本でもBtoBtoB向けがメインとなるが、自動車購入時のユーザーが内装などを手軽に変更するコンフィギュレータでの採用や、自動運転向けAI開発への応用、医療設備や検査機器などを病院に導入する際に、大きさや設置の様子などを確認するための営業ツールなどとして活用されているという。
今後もGPUの性能は向上を続ける見込みであるが、産業界もそうしたGPUがもたらす高品質なグラフィックや高い演算性能を活用しようという動きを徐々に見せ始めてきている。開発費の高騰や短TAT化など、さまざまな問題の解決手法としてシミュレーションの注目が高まっており、その活用方法を模索する企業が増えてきている昨今、産業分野でのGPUの活用はさらに広がっていくことが予想される。
数年前まではVRといえば,もっぱら産業用や軍事用の技術であった。
Oculus VRのRift以降,民生用のVRが一気に花開き,一部では数百万円したようなかつての産業用デバイスを凌ぐ部分も出てくるまでになっている。ただ,このような流れに乗って“プロ向け”のVRもちゃんと進化している。
IrayによるVRを推進するNVIDIA
VRを使えば,その場にいるような感覚や視野を得ることができる。そんなVRの特性はゲームだけでなく,さまざまな分野に応用できることは容易に想像できるだろう。最も分かりやすい例は建築分野で,設計中の建物のモデルデータを使ってVR環境を作成し,まだ存在しない建物の中に入り,仮想空間で内部のデザインをチェックしたり採光や照明の具合も確認できる。
そのほかにもVRの仮想空間は,製造業やサービス業,医療といった分野に応用できる可能性がある。つまり,NVIDIAとしてはプロ向けグラフィックスを担うQuadroシリーズがカバーしている広い領域にVRが使われる可能性があるわけだ。
NVIDIAは現在,レイトレーシングに代表される「物理ベースレンダリングをビジネス向けに展開していくこと」に注力しているそうだ。物理ベースレンダリングはビジネス分野に要求される現実に近いリアルな映像が得られるので需要は大きいということだろう。
もちろん,レイトレーシングには計算パワーの物量が必要になるので,NVIDIAとしても自社のGPUを多く使ってもらえるビジネス上の旨味といったものがあることも間違いないだろうが。
そのため,NVIDIAはGPUベースのレイトレーシングを行うレンダラとして自社開発のIrayや,独Mental Imagesが開発し現在はNVIDIAの手に移っている MentalRay といった物理ベースのレンダラを積極的に押し出している。
MayaはMentalRayのバンドルをやめてしまったが,利用していたユーザーが多いためMentalRayプラグインの需要は引き続き高いそうだ。NVIDIAが提供するMentalRayプラグインはGPUのアクセラレーションを最大限に利用しているため,かつてのMentalRayに比べて大幅にパフォーマンスが向上しているとアピールする。
また,Irayではサーバーを使ってレンダリングの効率を上げるバックエンドのソリューションとしてIray Serverが提供されている。レンダリングをIray Serverに任せることで,作業の効率を大幅に向上させられるというのがIrayの大きなアピールポイントの一つだ。
GPUを搭載したサーバー上で動作するIray Serverにレンダリングを任せることで作業効率を向上させられるというスケーラビリティの高さがIrayのアピールポイントの一つだ
と,ここまでが前フリで,柿沢氏によると,NVIDIAがプロ向けのVRとして展開しているのがIrayを用いたVRソリューション「Iray VR」である。このIray VRだが,我々ゲーマーが考えるVRとはちょっと,というか大分異なる。
ゲームにおけるVRはインタラクティブ性が求められるので,キャラクターの移動に合わせてリアルタイムに仮想空間の3次元映像が作り出されていくが,さすがにレイトレースのレンダリングでそれを行うのは,VCAやDGX-1のパワーを持ってしても不可能だ。
そのため,レイトレースの部分は事前計算になるのだが,たとえば建物の中でチェックしたい位置の光の情報をあらかじめ計算しておき,閲覧時にはその情報をもとにVR映像をレンダリングするというかたちになっている。雰囲気的には球の内側にレンダリング結果を映し出しているような感じらしいのだが,両眼で視差を持って見渡せるのだから,話はそう簡単ではない。ライトフィールドまで計算して映像を作り出している。
また,膨大なデータ量をビデオメモリに置く必要があるので,グラフィクスメモリは24GBが必要とのことで,現状ではビューアとして使うGPUとして「Quadro M6000(の24GBモデル)かQuadro P6000しか選択肢はない」とのことである。
24GBを持ってしてもデータ量が非常に多いので,現状では移動はできず,固定された位置から周りを見回すだけとなっている。それでも,本当にリアルな光源計算で描かれたVR空間を実現できることの価値は非常に大きいといえる。
Iray VRのワークフロー。Irayプラグインが利用できるMayaや3ds maxなどで制作し,IrayVRが動作するQuadro VGAかDGX-1でレンダリングを行う。そして作成した映像をPro VR Viewerで見るという流れだ
Iray VRの構築が利用できるのはQuadro VGAかDGX-1のみなので,極めてハードルが高そうだが,GPUベースのクラウドサービスもあるので「たとえば,AmazonのAWSを使うこともできる」とのこと。
IrayVRのために高価なハードウェアを揃えるというのは,よほど多数のプロジェクトを抱えているようなビジネスでなければ難しそうなので,クラウドを使うというのは,割と現実的な選択肢になるのではないかと思う。
ちなみに,Iray VR並みのレンダリングをリアルタイムで行うというのは「たとえVolta世代のGPUであっても無理だろう」とのこと。インタラクティブ性を備えたフォトリアリスティックなVRとなると,まだまだ遠い夢というところらしい。
というわけで,Iray VRを使った映像のVRを体験してみたのだが,なかなか興味深いものがあった。移動こそできないものの,光の具合を変えて周囲を見るといったことができたり,あるいは英国の古い銀行の設計データを使ったモデルでは,コントローラを使ってマップを出し,マップ上の移動できる点に映像を切り替えるといったことが可能だった。
隈研吾建築都市設計事務所が手がけたという,フィリピンのホテルの設計モデルをもとにレンダリングした映像がデモに使われた。天井の穴から見える部分は藁葺きをイメージしたものとのこと。使用光源数は5000以上という
2番めのデモに使われた建築中のNVIDIA本社ビル。これは結構リアルで,将来のNVIDIA本社ビルに入れた感があり,なんとなく役得感があった
これが3番目のデモで英国の古い銀行を再現したものだという。光の具合を時間帯を変えてみることができたり,マップを出して,ポイントから別のポイントへと映像切り替えるなど,限定的ながら,インタラクティブ性を備えたデモだった
この体験会には,エピック・ゲームズ・ジャパン代表の河崎高之氏が招かれており,同社が手がけるゲームエンジンUnreal Engineのビジネス向けの利用の現状についても紹介があった。
Unreal Engineといえば現在の多くのゲームに利用されている代表的なゲームエンジンだが,河崎氏は「ゲームは大作化が進み,将来的にはゲームの本数が減っていくと見ている」と語る。
実際,AAA級と呼ばれるゲームの制作費は高騰を続けているうえ,今年11月に発売されるPlayStation 4 Proなど新世代ゲーム機がグラフィックスのレベルを引き上げると,さらに制作費が高騰しかねない。勢い,河崎氏がいうようにゲームの本数が減っていくという可能性は十分にあるだろう。
そのため,エピック・ゲームズとして「非ゲームの市場を積極的に開拓している」ところなのだそうだ。
というわけで,河崎氏はゲーム以外の用途でUnreal Engineが活用されている事例を次々と紹介していった。ゲーマーにも馴染みがあるところでは,東京ゲームショウ2016で発表されたバンダイナムコゲームスなどが手がけるメディアミックスプロジェクト「Project LayerD」がある。
プロモーションムービーがUnreal Engineで制作されているほか,「アニメ本編もUnreal Engineで制作するか現在検討が進められているところ」(河崎氏)だという。
のっけから「ゲームの本数が減る」と言われたのでゲーマーとしてはショックが大きかったが,Unreal Engineがビジネス用途に利用できるパフォーマンスを備えているのは事実だろう。前出のIray VRとは異なり,インタラクティブ性をもたせたVRコンテンツが可能なので,Unreal Engineを使ったVRのビジネスシーンでの利用も今後,広がっていくのかもしれない。
(2015年のマクスウェル世代の Iray の記事)
NVIDIAはビジュアルコンピューティングを通して、ユーザー/顧客のワークフローの最適化を手助けし、エンドユーザーや開発者のためのツールを提供し、生産性向上に貢献したいとする。
その試みの1つが、今回の説明会のキモとなった「Iray」で、これまでIrayはデザイン用ソフトに組み込まれた形でのみ提供されていたものの、NVIDIAは方針を転換し、オンラインストアでの単体販売を開始した。
これはプラグインという形で提供され、Autodeskの3ds Maxといった各社のモデリングソフトなどに順次対応していく。Irayプラグインのサブスクリプション料金は年間295ドルで、90日間無料で試用可能。
IrayはNVIDIAのワークステーション向けGPUであるQuadroシリーズをサポートしており、物理ベースレンダリングと光線シミュレーションを行ない、電動ドリルといった小さなオブジェクトから高層ビルの内部/外部までリアルに描写する。その用途は視覚効果、製造デザイン、建築など多岐にわたっている。
今回は主に製造デザインと建築に関連したものが説明に使われ、説明会場のQuadroマシンで電動ドリルのオブジェクトをIrayでリアルタイムレンダリング。ほとんど実物と区別が付かないレベルの電動ドリルが画面上に描画され、さまざま角度に動かしたり、即座にパーツの色を変えたりと、通常は簡素で本来の色が付いていないシェーディング状態でデザインをするオブジェクトを、実物に近い形で操作できることを披露して見せた。
ペティー氏はデザインプロセスにリアリズムを反映できることは非常に重要であり、デザイナーの想像力を高めるとともに、ワークフローの効率化という大きな効果をもたらすと話した。製品の色使いや材質をモックアップを作る前に確認でき、室内や外でのライティングによる製品の見え方も即座に把握できる。これによって製品の開発速度や販売時期などを早められるといった利点を指摘し、どちらかと言えば見栄えの良いものができるということよりも、無駄を省けることが大きいと述べた。
このほかにもIrayを活用した例として、ロンドンに建設された20フェンチャーチ・ストリートという高層ビルの例を挙げ、Irayを使うことでデザイン面だけでなく、環境面においても物理的にシミュレーションできることを紹介。
このビルはそのほぼ全面が窪んだ形状の湾曲ガラスで作られており、窓ガラスが虫眼鏡のように集光してしまうときがあり、そのホットスポットとなる路面のアスファルを溶かしてしまうといった事態が発生している。ペティー氏はIrayを活用すれば、外側からどのように光が差し込むのか、月日によって日差しがどのように変わるかなど、外部の影響をシミュレーションできることを説明し、通常は完成後でなければ分からないようなトラブルに対応できると述べた。
こうしたリアルタイムの物理ベースレンダリングを活用した建設方法は、NVIDIAが現在シリコンバレーに建設中の新社屋にも活かされており、20フェンチャーチ・ストリートで起きたホットスポット問題が起きそうな場合はIray上で窓ガラスの材質を変更して太陽光が集光しないように再シミュレーションを試みるなど、さまざまな外環境への影響を予測して設計が行なわれているという。
こういった検証には同社のMDL(Material Definition Language)というプログラム言語が用いられ、建材の物理的特性を正確に反映するといった環境の影響を受けた上での現実的なシミュレーションを可能にする。MDLによってマテリアルなどの再定義が不要になり、デザインと設計の時間をこれまで以上に短縮できるようになる。MDLは他社のレンダラーでも利用でき、汎用性も高い。
Irayは特定のコンピュータに縛られることなく利用でき、ワークステーション側でレンダリングを行ない、表示データのみノートPCやタブレットに転送することや、複数の異なるPCを結集させて性能を高めるといった分散コンピューティングもできる。
デザイナーはオブジェクトの配置やライティングさえ決めれば、後はIrayがこなしてくれるので、技術的な知識がなくとも使用可能。従来のものではここまでやることはできなかったという。
ペティー氏は物理ベースレンダリングは、映画とゲームの世界でモンスターの肌の質感表現などに使われてきた技術だが、これからは製造業のプロダクトでも物理ベースレンダリングが適用できるようになるとし、従来は多大なPCのリソースが要求されたが、KeplerやMaxwellへと進化したQuadroのGPUパワーによって、今では複数のアプリを使用しつつも物理ベースレンダリングが動かせるようになった述べ、さまざまビジネスでのIrayの活用の広がりを示した。