空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。
※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯
プロフィール:中島聡(なかじま・さとし)
ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日本法人/マイクロソフト本社勤務後、ソフトウェアベンチャーUIEvolution Inc.を米国シアトルで起業。現在は neu.Pen LLCでiPhone/iPadアプリの開発。
AI研究者たちに与えた大きなインパクト。NVIDIAのCUDA誕生の経緯と一人勝ちの背景
現在進行形の「AIブーム」の中で、そのメリットを最も享受しているのは、Nvidiaであることは、今や、誰もが知るところです。AIの基盤となるニューラルネットは、そのパラメータ数に応じて能力が上昇するため、学習・推論のいずれのプロセスにおいても莫大な計算が必要で、現時点では、NvidiaのGPUが圧倒的なシェアを持っているためです。
GPUを提供しているのはNvidiaだけではなく、Intel、AMD、Apple、Qualcommなどライバルも複数存在しますが、そこでライバルを排除する強力な武器となっているのが、CUDAと呼ばれる開発環境です。
GPUは、CPUとは異なり、大量の計算を同時に並列して行うことが得意ですが、その能力を引き出すためには、GPU向けの開発環境が必要なのです。CUDAはそんな「GPU向けの開発環境の一つ」ですが、ニューラルネットの研究者たちの間で、CUDAがデファクト・スタンダード(実質的なスタンダード)になってしまったため、その上にライブラリも数多く作られ、今や、少なくとも学習プロセスに関して言えば、「CUDAを使う以外の選択肢はほぼない」状況になっているのです。
CUDAは、Nvidiaが自社製のGPUの上に作った開発環境であるため、結果として「ニューロンの学習プロセスにおいては、NVIDIAを使う」ことがスタンダードになってしまったのです。GPT4などのLLM(大規模言語モデル)が証明しているように、人工知能の性能を上げるには、ニューラルネットの規模(パラメータ数)を大きくし、かつ、大量の教育データを与える必要があるため、ここに「AI特需」が発生し、一つ数百万円するNvidiaのGPUが、1年先まで予約が入ってしまっているほど「バカ売れ」しているのです。
今日は、このCUDAがどんな経緯の元に生まれ、どうやって業界のデファクト・スタンダードの地位に登り詰めたのかについて、解説したいと思います。
GPU向けの開発環境として、最初に普及したのは、OpenGLでした。シリコン・グラフィックスというグラフィックス・ワークステーション(画像や映像処理を行うための専用のコンピュータ)を作っていた会社が、1992年に自社製のワークステーション向けに提供していたIRIS GLというAPIをオープン化する、という形でスタートしました。OpenGLの以前には、シリコン・グラフィックスのライバルたち(Sun Microsystems、Hewlett-Packard、IBM)が作ったPHIGSという業界標準がありましたが、技術的に優れていたという理由で、OpenGLがワークステーションの業界では、標準になりました。
【関連】中島聡氏が暴く「AIバブル」の正体。株価急落NVIDIAの強さと死角とは?いまだ序盤戦のAIブーム 投資の注目点を解説
この記事の著者・中島聡さんのメルマガ