AGRIST(宮崎県新富町)は2026年2月3日、Microsoft AI Co-Innovation Lab KOBEで、生成AIが画像(RGBやDepthなど)から自動収穫ロボットの「回り込みの推奨角度」を算出し、ロボット動作に反映する一連の流れを確認した。開発検証は5日間で、想定ケースはヘタ隠れと障害物ありの2ケースとした。
自動収穫ではヘタが隠れる、葉・茎・支柱などの障害物があると、ロボットアームが適切に近づけず収穫失敗や時間ロスにつながる。対象物の位置や角度だけでなく進入経路の制約が多く、ルールベースだけでは網羅が難しい点が背景にある。
今回の検証ではMicrosoft Foundry(Foundry Models)上で生成AIの推論エンドポイントを構築し、入力画像を前処理して推論に適した形へ整形した。出力はJSON形式に固定し、Azure Functions経由で呼び出せるAPIとしてデプロイ。自動収穫ロボットがFunctionsを起動して返却された角度を動作へ反映する連携までを確かめた。推論レスポンスはノートブック検証の所感で10〜30秒程度という。
今後はAzure環境の整理、ログや画像中心のデータ基盤整備、収穫成果指標とAI精度の評価設計、入力設計や前処理・プロンプト改善で精度と再現性を高め、実環境での運用性向上を進める。CTO所感として、データ蓄積や評価整備が進めば実用水準に近づくまで1〜2年の見込みとしている。
【関連リンク】
媒体資料:https://agrist.com/media
採用サイト:https://agrist.com/recruit
公式HP:https://agrist.com
PRTIMES
PRTIMES
AGRIST、Microsoft AI Co-Innovation Lab KOBEでフィジカルAIにより収穫性能向上に向けた開発検証を実施
