■大きな方向転換。OpenAIがリリースしたオープン・ウェイト・モデル
2週間ほど前ですが、OpenAIからオープン・ウェイトな言語モデル「gpt-oss」がリリースされました。GPT2以来、クローズドなモデルしか提供して来なかったOpenAIとしては、大きな方向転換です。
モデルは(パラメータ数)20Bと120Bのモデルがありますが、一つのウェイトを4.25bitsにまで量子化(精度を落とすことにより圧縮すること)してあるため、それぞれ、16GB、80GBのメモリを搭載したGPUで動くように設計されています。
前者は比較的高性能なパソコンであれば十分に動く大きさ、後者は、NVIDIAのH100(80GB)を搭載したサーバー1台で動かすことを想定した大きさであり、とても良く考えられています。
Metaは、Llama3.1までは243GBのメモリが必要な405Bモデルをオープン・モデル化していましたが、1つのH100に収まらないモデルを動かすのは簡単ではなく、かといって、OpenAIやAnthropicの最新のモデルには敵わない、中途半端なモデルになっていました。
OpenAIは、その辺りの失敗を踏まえた上で、手軽に動かせる20Bを、手軽にパソコン上で動かすモデルとして、120Bモデルを、企業が専用サーバーを設置して動かすモデルとして、それぞれちょうど良い大きさです。
ここでいう必要なメモリとは、GPUから直接アクセスできるメモリのことで、NVIDIAのGPUを搭載したWindowsパソコンの場合、本体側にいくらメモリを搭載していても、GPU側に十分なメモリがなければまともに動きません。
それと比べると、CPUからもGPUからもアクセスできるUnified Memoryを搭載したMacの設計の素晴らしさが際立ちます(QualcommがCoPilot+ PC向けに提供しているSnapdragon X Eliteも、GPUとCPUがメモリを共有する仕組みです)。
ちなみに、以前にも書きましたが、NVIDIAはデスクトップパソコン向けのGPUのメモリ容量を意図的に低く抑えています(GeForce RTX 5090の場合32GB)。これは安価なデスクトップパソコン向けのGPUをサーバーで使われることを嫌った措置です。これによりNVIDIAは、サーバー向けのGPUを高い粗利益率で販売することが可能になっています。
しかし、ここに来て、「NVIDIA DGX Spark」という最新のGPUを搭載したパソコンを発売することを決めました(私はすぐに予約しましたが、まだ入手できる気配はありません)。搭載しているメモリは、128GBと、大きい方のモデル(120Bパラメータ、80GB必要)を動かすのに十分な大きさです。
いずれにせよ、OpenAIによるオープン・モデルは、とても良いバランスのモデルであり、NVIDIAによる「DGX Spark」のリリースや、次世代WindowsパソコンであるCopilot+ PCの普及と共に、オープン・モデルを自分のマシン、もしくは会社が管理するサーバーで走らせる時代を加速することになると思います。
【参考資料】
- Ollama: OpenAI gpt-oss
- OpenAI: Introducing gpt-oss
- NVIDIA: OpenAI’s New Open Models Accelerated Locally on NVIDIA GeForce RTX and RTX PRO GPUs
(本記事は『週刊 Life is beautiful』2025年8月19日号の一部抜粋です。「Cognifiber」や「私の目に止まった記事(中島氏によるニュース解説)」、読者質問コーナー(今週は16名の質問に回答)などメルマガ全文はご購読のうえお楽しみください。初月無料です ※メルマガ全体 約1.7万字)
【関連】中島聡のアイディアと生成AIが可能にする、視聴者に価値ある情報だけを届けるシステム「おかえりなさいテレビ」の画期性
【関連】中島聡が大胆提言。日本企業はAI・ロボット時代でも世界に存在感を示すことが可能な「2つの戦略」で勝負せよ!
【関連】中島聡が考えた、人類の大半が「社会のお荷物」になるAI失業時代の社会保障。ベーシックインカムより幸福な制度をつくろう
image by: Takkystock









