Shisa.AI(東京都港区)は2025年12月9日、日英バイリンガル大規模言語モデル「Shisa V2.1」シリーズ5種類を公開しました。パラメータ数1.2B〜70Bの構成で、14Bモデルは同社の既存70Bモデルを上回る日本語性能を達成しつつ、サイズを5分の1以下に抑えたとしています。モデルはHuggingFaceで無料配布するほか、新たに有料APIでも提供します。
Shisa V2.1は、日本語性能と計算効率の両立を狙い、データセットの約80%を入れ替え、教師あり学習(SFT)、人間フィードバックを用いた最適化(DPO)、強化学習(RL)、モデルマージ技術を組み合わせて開発されました。ベンチマークでは、日本語平均スコアが14Bで72.6、70Bで73.1を記録し、GPT-4 Turboを評価者とした日本語MT-Benchでも最大9.28点を示しています。パラメータが小さいほど必要メモリが減り推論も高速になるため、スマートフォンからクラウドまで低コストで運用しやすいと説明しています。
日本語出力の品質面では、他言語が紛れ込む「言語漏れ」を数値化する独自指標を用いて検証。3BモデルではベースのLlama 3.2 3Bの漏れ率11.48%に対し0.24%と、最大47.8倍の改善を示しました。70Bや8Bなど他サイズでも同様の傾向が確認され、翻訳やカスタマーサポートなど実務用途での安定した日本語出力を狙います。
提供形態としては、テキスト生成・翻訳・音声APIを新設し、日英翻訳サービス「chotto.chat」も利用可能です。OpenRouter経由の低価格プランや無料枠、専用キャパシティ、オンプレミス導入、カスタム学習にも対応予定としています。Shisa V2は経済産業省のGENIAC国産モデルに承認されており、計算資源は日本国内で運用しているため、データレジデンシーや規制遵守を求める企業ニーズも意識しています。
開発にはAMD Developer CloudのGPU「MI300X」を用い、日本発の大規模LLMとしては初めてAMDハードウェアで学習したとしています。学習効率を高める改良点はオープンソースとして公開されており、今後も小型高性能モデルと日本語特化技術の双方で、国産LLMの選択肢拡大につながるかが注目されます。
【サービス情報】
Shisa.AI公式サイト https://shisa.ai/
Shisa API https://talk.shisa.ai/
HuggingFace(モデル配布) https://huggingface.co/shisa-ai
日英翻訳サービス「chotto.chat」 https://chotto.chat/
source: PR TIMES
