【相關報導】比 GPU 更小更節能!交大發表「晶片化」AI 自駕模型

2019-06-13 

 

▲本中心郭峻因教授團隊於12日公開發表三項技術:1.自動標記工具 ezLabel、2.高精度嵌入式 AI 物件辨識模型、3.深度學習行為預測模型。

 

交通大學電子研究所郭峻因教授率領團隊開發8年,今日公布研究成果,推出領先全球,可以支援各種AI自動駕駛車的「嵌入式 AI 物件辨識系統」,不只讓自駕車偵測距離大幅增加至200公尺,甚至還適用於各種天候!郭教授表示,外國各大廠的自駕車技術精良,但大多都是採用高階GPU運算,相對來說太貴、太耗能,很難商業化。所以郭教授想做的就是「嵌入化」,把自動駕駛模型放在比較小且便宜的AI晶片上。

 

我們知道AI其實需要仰賴工人智慧,透過大量人力去做標記的工作;但郭教授研發出「ezLabel」,可以極快速且自動的標記物件、行為、場景,其效率超過目前現有手動資料標記工具達10-15倍以上,而且具備資料管理、資料分析功能,甚至於去年獲得第一屆台灣 AUDI Innovation Award 兩項獎項。目前郭教授團隊已利用ezLabel,自己建置了超過1,500萬筆適合台灣地區之自駕車影像資料庫,除了汽車、行人、道路之外,還有擁有高達188萬筆的機車資料。郭教授表示,機車就是國外自駕車演算法最缺少,也是台灣在開發自動駕駛裡最獨特、最有機會的一塊。他們也在去年釋出了一部分資料共10部影片、96000張樣本給外界公開使用,並規劃將在未來把標記工具釋出給企業與學術界使用。

 

有了基礎資料,郭教授團隊自己也研發了在虛擬環境下,使用NVIDIA自駕車平台DRIVE-PX2偵測能力可超過200公尺的車輛嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2)有4倍之多。郭教授真正致力的是把自動駕駛演算法「縮小」,讓它可以運行在更便宜、更節能的晶片上,因此也沿著上面基礎,開發出更低功耗的識演算法 NCTU SSD lite,相同準確度下模型大小僅為YOLO v2的7%,運算複雜度也只有YOLO v2 模型的27%,而且它可以用在德州儀器的TI TDA2X,以及台廠芯鼎的車規 AI SoC iCatch V37 上,實現即時物件偵測。第三項則是獨創的深度學習行為預測技術,透過深度學習,讓車子具備準確判斷後車未來3秒鐘是否要超車的能力,也可運用在預測行人是否穿越馬路上。目前團隊已跟28家企業展開各種合作,未來也將積極跟AI晶片公司、車電系統公司與圖資公司共同努力發展自駕車技術。

 

 

【本文轉自 INSIDE 硬塞的網路趨勢觀察 的報導,詳細內容請見新聞來源。】

 

相關連結:

>>  郭峻因教授個人簡介

>>  研究計畫: 應用於ADAS/特殊用途無人載具之嵌入式AI深度學習技術