GPT-5時代に台頭するローカルLLMの価値

綾部 一雄

DX推進

本コラムの内容は、執筆時点での法令等に基づいています。また、本記事に関する個別のお問い合わせは承っておりませんのでご了承ください。

AIの最新動向といえばGPT-5が注目を集めていますが、クラウド依存に伴うセキュリティやコストの課題を背景に、「ローカルLLM(オンプレミスで動かせる大規模言語モデル)」への関心も高まっています。実際、いくつかの有力モデルはすでに“GPT-5に迫る性能”を一部で示し始めています。

その一つが、上海AIラボラトリーが開発したInternVL3.5です。文章だけでなく画像や動画も理解できるマルチモーダル型で、独自の強化学習(Cascade RL)を通じて推論力を向上させています。処理速度も従来比で大幅に改善され、ベンチマークではGPT-5との差をわずか数%まで縮める成果を出しました。これは研究レベルにとどまらず、産業利用を見据えた技術成熟のサインと言えるでしょう。

一方、中国のスタートアップDeepSeekが公開したDeepSeek V3.1は、ユニークな「Thinkモード」と「Non-Thinkモード」を切り替えられる仕組みを備えています。複雑な課題解決にはじっくり考えるThinkモード、日常業務には高速応答のNon-Thinkモード、と使い分けができる点は、業務シーンでの柔軟な導入を後押しします。さらに128Kトークンという長大な文脈処理に対応し、ツール連携能力も強化されています。

またMetaは「Llama 4」シリーズを発表し、その中で研究用にBehemothという強力なモデルの投入を予告しました。正式公開は調整中ですが、同社が「最も強力」と評することからも、今後のAI基盤競争において大きな役割を果たすことが期待されます。

そしてOpenAI自身も、gpt-oss-20b/120bといったオープンモデルを公開しています。これはGPT-4レベルの性能を持ちながら、RTXクラスのGPUを搭載したPC上でローカル実行可能であり、社内専用のAI環境を構築する試みに拍車をかけています。

こうした動きを俯瞰すると、クラウドAIとローカルLLMは競合ではなく補完関係にあり、用途や環境に応じて選び分ける時代が到来していることが見えてきます。クラウドが“公共の図書館”だとすれば、ローカルLLMは“自社の書庫”。外部に頼らず機密を守りながらAIを活用できる道が、確実に広がってきています。


用語解説
ローカルLLM
 インターネットに依存せず、自社のPCやサーバーで動かせる大規模言語モデル。

マルチモーダル
 文章だけでなく画像・音声・動画なども同時に扱える仕組み。

強化学習(Cascade RL)
 AIに試行錯誤を通じて学ばせ、精度を高める学習手法。

Thinkモード/Non-Thinkモード
 深い推論を重視するか、速度を優先するかを切り替えられる仕組み。

トークン
 AIが文章を処理するときの最小単位。128Kトークンは非常に長い文脈を扱えることを意味する。

2025年10月9日

著者紹介

綾部 一雄
DX推進支援部 ICT活用推進課 マネジャー

制作者の直近の記事

コラム一覧に戻る
お問い合わせ

PAGE TOP