Razerは、ローカル環境で大規模言語モデル(LLM)の推論とファインチューニング(追加学習による微調整)を支援するオープンソースプラットフォーム「Razer AIKit」を発表し、GitHubで提供するとした。GPUを自動検出し、クラスタ(複数GPUの協調利用)を自動構成して最適化することで、クラウドに頼らない低遅延とコスト効率の高い開発をうたう。
AIKitはAI研究者や開発者を主な対象とし、AI開発のライフサイクル全体を簡素化する狙いだ。手動設定や運用負荷を抑えつつ、ローカルでモデルをスケールさせられるとしている。LLMは大量の計算資源を必要とし、クラウド利用では応答遅延や利用料が課題になりやすいが、同社はローカル最適化で同等の体験を目指す。
また同社は、AI対応ノートPCや外部GPU、ワークステーションといった自社ハードウェア向けにチューニングし、性能を最大限に引き出せる設計だと説明する。今後は、Razerと開発者コミュニティによる継続的なエンジニアリングサポートを通じて機能改善や対応範囲の拡大が進む見通しだ。
