|
|
|
全球搶用的物件偵測演算法上線,最神速精準一眼揪出你有沒有超速! |
|
|
|
撰編:中央研究院 |
最後更新時間:7月 | 7日 , 2022 |
|
|
|
|
|
|
|
|
|
|
臺灣參與人工智慧跨國研究取得重大突破!中央研究院資訊科學研究所與俄羅斯開發者博科夫斯基(Alexey Bochkovskiy)共同研發出目前世界上最快最準的物件偵測演算法(YOLOv4),平均正確率(Average Precision, AP)達43.5%,比前一代(YOLOv3)提高10%,更一舉超越其他種影像辨識技術。同時也運用該技術與義隆電子合作開發「智慧城市交通車流解決方案」,目前已佈設於桃園、新竹,在路口就能進行交通影像辨識及車流分析。 |
|
|
YOLOv4是一種利用人工智慧執行即時物件偵測(Object Detection)的技術,能偵測物件、追蹤及判斷,可應用於交通車流計算、自駕車研發、工廠瑕疵檢測、醫療影像分析、五官定位等。自今(109)年4月以開放原始碼免費釋出後,全世界已有數萬人測試應用;廖弘源研究團隊亦於今(2)日記者會中現場操作示範此項技術,說明物件偵測演算法如何識別圖片或影像裡的物件。
過去訓練電腦識別一張照片裡的物件,須執行幾千次的識別指令。YOLO1是「You only look once」的簡稱,顧名思義,只需訓練一個網路模型,電腦只要看一眼,就能判斷照片或影像裡的物件類別與位置,大大提升辨識速度。自104年推出第一代版本後2,深受開發者喜愛,為電腦視覺(Computer vision)技術立下重要的里程碑。改良後的YOLOv4性能更強大,經微軟開源影像資料庫(MSCOCO) 3測試,辨識物件的速度及精確度皆大幅提升,堪稱是目前世界上辨識速度最快、最精準的物件偵測演算法。
中央研究院資訊科學研究所王建堯博士表示,物件偵測技術追求速度和精準,二者缺一不可,卻難以兼備。他從去年開始改良YOLOv3,一改過去多採「降速求控球」,即降低或犧牲速度來換取準確度提升;轉而從YOLO所運行的人工智慧模型著手,改善網路識別物件的回傳機制,優化傳輸路徑,以減少演算法的計算量,因此能增加運算內容的多樣性及運算速度4。他的成果引起YOLO網路架構維護者博科夫斯基(Alexey Bochkovskiy)的興趣,主動聯繫王建堯,雙方自去年11月攜手合作。經過五個多月日以繼夜地開發,今(109)年4月宣布完成新一代的YOLOv4演算法。
深度學習演算法的計算複雜度高,YOLOv4也突破過去的技術限制,擁有輕盈的系統架構、高效率的演算法等優勢,使用一般的圖形處理器(GPU)就能運算,「像是用算盤打出計算機的速度!」王建堯表示,團隊的開發初衷,即希望打造一個親民、好用的偵測系統,降低硬體成本,讓每個人都能以此技術創造更多有趣的應用。
中央研究院資訊科學研究所研究員廖弘源指出,YOLOv4使用的關鍵技術源自該團隊承接科技部人工智慧專案計畫,與義隆電子合作開發的「智慧城市交通車流解決方案」。為建置智慧車流分析系統,需要結合影像感測器和電腦視覺,在每個路口就能即時偵測車輛、停等車列及車速。團隊藉由著手改良YOLO演算法,發展更輕量、精準、快速的物件偵測核心技術,以實際應用於交通影像辨識。
YOLOv4自今年4月在Github(原始碼代管平台)公開後,任何人都可免費使用,在電腦視覺領域裡引起全球廣泛討論,各式自製的教學影片、各種應用層出不窮。廖弘源表示,在臺灣,以YOLOv4技術開發的智慧車流分析系統,目前已佈設於桃園、新竹等地,全世界已有許多研發單位以此為基礎,發展相關的系統或產品。例如在COVID-19防疫期間,可結合YOLO辨識物件的功能,用來偵測未戴口罩者,或是計算人們有無保持社交距離等,應用在許多產業和產品上。
附註:
1YOLO(You only look once,簡稱YOLO)是關於物件偵測(object detection)的類神經網路演算法 ,可框出影像中的每個物件,進行物件偵測、追蹤及判斷。
2第一代YOLO的主要開發者為Joseph Redmon,他一直開發至第三代YOLOv3,卻於今年2月宣布退出電腦視覺領域研究。
3由微軟建立的開源影像資料庫(Common Object in Context,簡稱COCO),提供龐大的圖片、物件等,提供技術人員進行物體偵測和影像分割等測試。 |
|
|
※本文圖文非經授權不得轉載,洽詢授權,請E-Mail至contact@aimag.tw[ iDS智慧安防雜誌聲明 ]※ |
|
|
|
|
|
|
|