Ragate(東京都中央区)は、情報システム部門・DX推進室のビジネスパーソン505名を対象に「生成AI活用における出力精度・ハルシネーション実態調査」を2025年12月に実施し、2026年3月4日に結果レポートを公開しました。生成AIの誤った生成(ハルシネーション)を課題と認識する企業は35.2%でした。

生成AI導入の課題では、情報漏洩・セキュリティリスクが42.2%で最多となり、ハルシネーション(35.2%)が続きました。著作権・コンプライアンス懸念は28.3%、従業員のスキル不足は24.9%、ガイドライン整備の遅れは19.4%でした。

業務領域別の活用率は、情報収集・調査・分析が39.2%、システム開発・運用が37.4%、議事録作成・要約が28.1%でした。同社は対策手法として、外部データを参照して回答精度を高めるRAG(検索拡張生成)を最重要手法に位置づけ、ファクトチェック体制やプロンプト最適化、用途別のモデル選定、継続モニタリングも必要だと整理しています。

同社は、LLMは仕組み上正確性が保証されず最新情報にも追随しにくい点がリスクになるとして、企業のAI活用は「品質を担保しながら使う」段階へ移るとみています。今後はDifyなどのノーコードとAmazon Bedrockの連携により、RAG構築を含む対策の導入ハードルが下がる可能性があります。

【関連リンク】
コーポレートサイト: https://www.ragate.co.jp
関連リンク: https://www.ragate.co.jp/media/developer_blog/5sqg5zb20

PRTIMES

Share.