ニュース

NTT、デバイス上で実行できる「超高精細映像」のAI推論LSI

NTTは、4K映像のリアルタイムAI推論処理を、電力制約のあるエッジや端末上で実行可能にするAI推論LSIを開発した。2025年度内にNTTイノベーティブデバイスにて製品化する予定。

近年、ドローンによる目視外飛行や公共空間の人流分析など、エッジデバイスでのAI活用が進む中、従来のAI推論では解像度やリアルタイム性に課題があった。新開発のLSIは、推論解像度を4K(3,840×2,160)まで拡張し、30fpsのリアルタイム処理と20W以下の低消費電力動作を実現する。

AI推論LSIは、画像をAI推論モデルの制約サイズごとに分割し、部分ごとの物体検出と全体画像の縮小処理を組み合わせて結果を合成する独自手法を採用。小さな物体から大きな構造物まで同時に検出可能となる。

AIモデルとしては、代表的な物体検出モデル「YOLOv3」をベースにデモンストレーションを実施。通常は608×608ピクセル程度の低解像度での処理が前提だが、本LSIでは同等の電力で4K映像のリアルタイム推論を可能にしている。

独自のAI推論エンジンでは、フレーム間の相関やビット精度の動的制御を活用して処理負荷を抑制。エッジ端末でもリアルタイム処理を実現した。従来は最大30m程度だった検出高度が、本LSIをドローンに搭載することで150mに拡大。安全航行や設備点検に加え、公共空間での広範な人流・交通分析、自動追跡といった応用が期待される。

本技術は、4月9日から米国サンフランシスコで開催された研究開発イベント「Upgrade 2025」に出展している。