【メルマガ】ローカル生成AIの時代が近づいてきた?(2025年08月12日)

最近のOpenAI社(ChatGPT等)の動きが活発です。

GPT-5のリリースもありましたが(性能は賛否両論ありますが)、
オープンモデル(誰でもインストールできます)として
gpt-oss-120b と gpt-oss-20b がリリースされました。

ここ数年、AI PCなどの呼称で
PCでAIを動かすことがキーワードになってきていますが、
はっきりいってまだまだ非力です。

しかし、今回のオープンモデルは期待が持てそうな性能に見えます。

リリースされたオープンモデル

ChatGPTのような生成AI(LLM)は、
大量のデータを含むモデルとして作成されます。

今回リリースされたモデルは、
OpenAI o4-mini、o3-miniと同等のパフォーマンスを発揮するとのことです。

gpt-oss が登場 >>>

マシンパワーはどの程度必要?

こうしたモデルで一番の性能ネックになるのが、
GPUで使用するメモリ量です。

モデルをメモリ上に展開して処理しますので、
メモリが足りないとそもそも稼働できません。

個人向けで最高峰のNVIDIA RTX5900(約40万円のボード)の場合、
メモリ搭載量は32GBです。

gpt-oss-120b は 約66GB、
gpt-oss-20b は 約12GB
必要となるようです。

ローカルで使えるとは言え、
まだまだ高価なマシン+大型の筐体が必要になりそうです。

ここにきてMacがパワーを発揮!?

しかし、Windows機で実行しようとすると
上述のようなGPUボードが必要になりますが、
Macの場合、メインメモリとGPU等のメモリを
共用するアーキテクチャとなっています。
(ユニファイドメモリ)

そのため、MacBook Airの16GBモデル(164,800円)でも
ぎりぎり gpt-oss-20b は動作するようです。

OpenAI、16GBメモリのMacでも使えるオープンウェイトの言語モデル「gpt-oss-20b」を公開 >>>

Mac Studio M4 Max 128GBであれば、523,800円ですね。(メルマガ作成時点)
こちらであれば、gpt-oss-120b も動作するでしょう。

値は張りますが、Mac Studio は 512GBモデルもありますので、
現行Macはアーキテクチャ的にAIに強いと言えますね。
(ただし、約150万円)

※商用のNVIDIA H100(80GB)は、約500万円ですが・・・

ローカル生成AIは使えるの?

私自身はまだ試せていないのですが、
生成AIのパフォーマンスは上々のようです。

はっきりいって「ChatGPTを使えばいいよね?」
と言えばそれまでですが、
・インターネット環境のない状況
・機密情報の入力
・ChatGPTのサービスダウン時
など、意外と活用できそうな気もします。

今後、こうしたローカル生成AI + 必要な情報は(AIが)ネットにアクセスにいく、
みたいな動きが基本になるのかもしれません。

比較的新しめのMacBookをお持ちの方は、
gpt-oss-20b を試してみていただくと
面白いかなと思います。

メルマガ『Professional's eye
"意見が持てる"デジタルコラム

週1回配信、3分で楽しめます。

送信いただいた時点で「Privacy Policy」に同意したとみなします。
広告を含むご案内のメールをお送りする場合があります。

この記事が気に入ったら
いいね または フォローしてね!