最近のOpenAI社(ChatGPT等)の動きが活発です。
GPT-5のリリースもありましたが(性能は賛否両論ありますが)、
オープンモデル(誰でもインストールできます)として
gpt-oss-120b と gpt-oss-20b がリリースされました。
ここ数年、AI PCなどの呼称で
PCでAIを動かすことがキーワードになってきていますが、
はっきりいってまだまだ非力です。
しかし、今回のオープンモデルは期待が持てそうな性能に見えます。
リリースされたオープンモデル
ChatGPTのような生成AI(LLM)は、
大量のデータを含むモデルとして作成されます。
今回リリースされたモデルは、
OpenAI o4-mini、o3-miniと同等のパフォーマンスを発揮するとのことです。
マシンパワーはどの程度必要?
こうしたモデルで一番の性能ネックになるのが、
GPUで使用するメモリ量です。
モデルをメモリ上に展開して処理しますので、
メモリが足りないとそもそも稼働できません。
個人向けで最高峰のNVIDIA RTX5900(約40万円のボード)の場合、
メモリ搭載量は32GBです。
gpt-oss-120b は 約66GB、
gpt-oss-20b は 約12GB
必要となるようです。
ローカルで使えるとは言え、
まだまだ高価なマシン+大型の筐体が必要になりそうです。
ここにきてMacがパワーを発揮!?
しかし、Windows機で実行しようとすると
上述のようなGPUボードが必要になりますが、
Macの場合、メインメモリとGPU等のメモリを
共用するアーキテクチャとなっています。
(ユニファイドメモリ)
そのため、MacBook Airの16GBモデル(164,800円)でも
ぎりぎり gpt-oss-20b は動作するようです。
OpenAI、16GBメモリのMacでも使えるオープンウェイトの言語モデル「gpt-oss-20b」を公開 >>>
Mac Studio M4 Max 128GBであれば、523,800円ですね。(メルマガ作成時点)
こちらであれば、gpt-oss-120b も動作するでしょう。
値は張りますが、Mac Studio は 512GBモデルもありますので、
現行Macはアーキテクチャ的にAIに強いと言えますね。
(ただし、約150万円)
※商用のNVIDIA H100(80GB)は、約500万円ですが・・・
ローカル生成AIは使えるの?
私自身はまだ試せていないのですが、
生成AIのパフォーマンスは上々のようです。
はっきりいって「ChatGPTを使えばいいよね?」
と言えばそれまでですが、
・インターネット環境のない状況
・機密情報の入力
・ChatGPTのサービスダウン時
など、意外と活用できそうな気もします。
今後、こうしたローカル生成AI + 必要な情報は(AIが)ネットにアクセスにいく、
みたいな動きが基本になるのかもしれません。
比較的新しめのMacBookをお持ちの方は、
gpt-oss-20b を試してみていただくと
面白いかなと思います。
メルマガ『Professional's eye』
"意見が持てる"デジタルコラム
週1回配信、3分で楽しめます。
送信いただいた時点で「Privacy Policy」に同意したとみなします。
広告を含むご案内のメールをお送りする場合があります。