株式会社リコーは、Googleのオープンモデル「Gemma 3 27B」を土台にした日本語大規模言語モデル(LLM)を新たに開発し、オンプレミス環境での導入に適した形で提供を始めます。パラメータ数は約270億としつつ、高性能を維持したことで、PCサーバ上でも構築できる低コストなプライベートLLM運用を可能にする点が特徴です。
同社は、独自の「モデルマージ」技術を使い、約1万5,000件の日本語インストラクションデータで学習したInstructモデルから「Chat Vector」など複数のベクトルを抽出し、「Gemma 3 27B」に統合しました。ベンチマークでは、日本語タスク100問を評価する「ELYZA-tasks-100」や日本語マルチターン対話を測る「Japanese MT-Bench」で、OpenAIの「gpt-oss-20b」を含む同規模の先端オープンウェイトモデルと同等レベルのスコアを確認しています。
新LLMは、推論の途中経過を省く「非推論モデル」として設計され、初期応答時間(TTFT)を短縮しつつ、長文の執筆能力も確保したとしています。2025年12月下旬からは、エフサステクノロジーズのオンプレ対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Smallモデル)」に量子化版LLMとノーコード開発ツール「Dify」をプリインストールした形で、リコージャパン経由で提供されます。これにより、AI専門人材がいない企業でも、自社業務に合わせた生成AIアプリを構築しやすくなる見通しです。
リコーは今後、論理的な推論性能の強化や業種特化モデルの開発、画像・音声などを組み合わせるマルチモーダル機能との連携を進め、オンプレ型の日本語LLMラインアップを拡充していく方針です。
【商品情報】
Private AI Platform on PRIMERGY(Very Smallモデル)
搭載LLM:Gemma 3 27Bベース日本語LLM量子化モデル
提供開始:2025年12月下旬予定
提供形態:リコージャパンによるオンプレミス環境構築・販売
公式サイト:https://promo.digital.ricoh.com/ai/
source: PR TIMES
