2025年5月7日 星期三

2025 碩專班專題演講感想『Edge AI for Machine Vision』

今年又再次受邀至碩專班進行專題演講,原本我已經設定想要講的主題,就是延伸「現在的 MCU 也太強了吧!」這篇文章的內容,跟學生們分析 MCU 未來在機器視覺應用的發展。

誰知道在準備資料的過程中,突然發現不只是 MCU 這個領域有顯著進步,包括 Sensor 端也有出乎我意料外的產品出現。

而這一切背後的推手,幾乎都跟 Edge AI 有關係,當所有的目光及資源都集中在這個地方時,其推進的速度令人驚嘆!

因此,我決定重新調整自己的演講主題,期望自己也能從中判斷未來發展的趨勢。


一、主題設定

我在去年的演講題目是「基於軟硬體共同設計之機器視覺技術」,說穿了就是探討 FPGA 在機器視覺上的應用方式;本來想繼續沿用這個模式,新增 MCU 在機器視覺上的應用發展,這對我來說相對省力。

但想了想,還是別偷懶,統整一下這一年來的發展趨勢,同時也可以給自己及公司未來參考的方向。

至於去年我認為很重要的內容 → 工程領域通用知識,就直接放到附件去,因為時間有限,只能挑重點講。

近期最熱門的還是生成式 AI (ChatGPT) 的應用,就連我自己在日常生活中使用的頻率也越來越高了,這不單純是特定領域的突破,而是全領域同步躍升。

就我自己的觀點來看,這應該是繼網際網路後,人類的下一波新革命。

只不過生成式 AI 離我的專長以及工作的場域有點距離,相對來說我也不是那麼熟悉,跟多數人一樣就只是個開心的使用者;因此,我還是針對「Vision AI 」的最新突破來進行討論才是正途。

講回到我自己熟悉的領域,就令人雀躍,像 SONY 先前所推出的新產品 IMX501,把影像感測器 (CMOS Sensor) 跟 AI 處理器 (NPU) 封裝在一起,變成智慧型感測器,這就是 SONY 才能做到的黑科技。

IMX501 推出後,我也沒看到有什麼劃時代的應用產品出現;說真的,大家心中應該都打個問號,為什麼要把感測器跟處理器封裝在一起?

將 NPU CPU 整合在一起,延續既存的應用架構,這才符合多數人的使用習慣吧。

雖然我覺得 SONY 的技術很威,但以應用層面來說,好像也沒太大的突破,打從心裡覺得:「哇塞! 好棒棒,那然後勒?」

直到我看到加拿大工業相機廠商 LUCID Vision Labs 推出新產品 Triton Smart Camera 後,才覺得似乎能一窺未來 Vision AI 完整的應用生態鏈。

Vision AI 是 Edge AI 的一個應用分支,按照我演講的習慣,會先從一個比較大的範圍慢慢往下探討,讓聽眾了解今天演講主題的定位,不至於迷航。

當然,這個演講的準備方式跟聽眾的背景有點關係,如果是專業客群的演講,我可能就單刀直入,直接講主題了;但這次的目標聽眾是來自不同背景的理工科學生,那就只能由上而下進行準備。

雖然這次演講我主要是想探討 Triton Smart Camera 這個產品,並從中引導出關於 Vision AI 未來該具備的軟硬體架構,但實際在準備演講資料時,還是得從 Edge AI 開始講起。

所以,就只能將就點,把主題定為「Edge AI for Machine Vision」,然後再想辦法補前面欠缺的背景介紹。


二、內容呈現

在決定主題時,就已大致定調演講內容的呈現方式,而這代表我得進一步了解當前 Edge AI 的發展現況。

一般來說,當主題確認下來時,通常也可以同步擬定大綱內容,這個步驟是最難的,接下來就比較像填空題,將細節一一填進去。

說實話,我對於 Edge AI 的了解也極其有限,幸好在網路上有找到這領域的相關文章「開發者如何選擇 Edge AI 開發方案」,幫助我快速填充演講所需的背景資料。

雖然該文作者把 Edge AI 分為 Edge ServerNB AIMobile AISBC AIWearable AI,但我想講的 Vision AI 的硬體架構算是介於 SBC AI Wearable AI 的範圍。

SBC AI 的硬體架構,講簡單點就是把原來做視覺應用的工業電腦 (IPC),再掛上一個 NPU 模組就行,像研華搭載了 Hailo-8AI 推論晶片就說自己是 Edge AI 了。

SONY 所推出的 Vision AI 產品,就不只是硬體上新增一個 NPU 這麼簡單,它還同時包含了一個無需撰寫程式的 AI 訓練軟體 Brain Builder,透過三步驟的訓練,就能將 Vision AI 應用在分類、物件偵測以及異常偵測的視覺應用案例上面。

我不曉得 SONY 這個產品是否會成功,但可以確定的是,它定義了未來 Vision AI 的軟硬體架構。

這是一個資料驅動 (Data Driven) 的模式,使用者藉由掌握資料的所有權來取得應用的主導權,而不用過度依賴工具開發者的客製化協助。

過往以規則為主的方式 (Rule-based Approach),通常是由工具開發者透過演算法的調整達成客製化,但這個方式會讓工具開發者擁有該 Know-How 的所有權,這對使用者相當不利,因為工具開發者隨時可將此 Know-How 複製並銷售給使用者的競爭對手。

以資料驅動為主的模式,雖然還是需要工具開發者的協助,但因為資料的主控權在使用者手上,相對來說比較能保有 Know-How 的所有權,不會輕易被複製出去。

當然,這只是我個人的觀點,對於這種新架構、新流程的出現持以樂觀的態度,因為這隨時都有可能衍生出新的商業模式。

接著,我盤點了 Vision AI 的產品,以自動化產業為例,德國 B&R 推出了 AI-Enhanced Smart Camera,這比較接近拿來即用的產品,也就是使用者並無太多微調的空間,跟先前介紹 SONY 的那款產品不太一樣。

但只要是有實際落地的產品應用,都值得關注,因為這代表 Vision AI 不是一句口號,而是實實在在地能提昇生產力的證明。


三、新的方向

未來要關注的點可分為軟硬體兩個方向:

1. 硬體;

主要就是 NPU 的應用,到底要把它放在系統的哪個位置比較適當,幾乎所有都處理器廠商都加入這個戰局,連原本沒太大關係的感測器廠商,都透過封裝把它們硬兜在一起。

只是有硬體也得有相對應的軟韌體工具才有機會擴大應用的族群,這已經是一個生態鏈的概念,並不是硬體量產後就會有人用。

2. 軟體;

如何簡化模型訓練及模式優化的流程,讓 NPU 能夠發揮它的最大效能,這部分 SONY  Brain Builder 已經為我們提供了一個思路。

可以想見,未來幾年的時間,應該會有人前仆後繼地鑽研這方面的工具軟體,但要注意哪個硬體平台的壽命及支援性比較高,別努力了半天,結果反倒是硬體廠商撐不下去收攤了。


另外,就是我原先想要講的 MCU 主題,由於它的處理性能越來越強大,低階的嵌入式視覺應用需求可能都會移植到這個架構上,這是我的猜測。

至於 MCU 會不會也嵌入 NPU 呢? 這肯定會,不是未來式,而是現在進行式。

但在上述架構開發應用產品的門檻相對較高,能否在少量多樣的工業自動化領域中發光發熱,就有待時間的驗證了。


四、心得感想

從去年開始,我就陸續介紹新的軟硬體架構,並嘗試把它們放進演講內容中;只能說這幾年的變化真是令人目不暇給,彷彿大家都在全力衝刺一樣,只要稍微喘口氣就落後了。

但這時我想起了金城武在廣告中講的那句話:「世界越快,心則慢!」

就是因為變化太快了,我們才要慢下來仔細選擇自己要走的路,這真是一個「選擇比努力更重要」的時代阿!


最後,我總結了六個演講重點,如下:

1. 為了提高使用者解決實際問題的自主性,機器視覺在工業應用上有兩大趨勢:資料驅動、No Coding (無需撰寫程式)。

2. 異常偵測 (Anomaly Detection) 結合相關的軟硬體設計,以及訓練與部署流程標準化,有可能成為未來視覺感測器的標準功能與架構。

3. NPU 將無所不在,從 CMOS SensorMCU CPU 都陸續嵌入 NPU

4. 可先選一個特定的 NPU 平台,熟悉其訓練及部署流程,從中了解其背後的相關技術。

5. MCU 計算能力及週邊硬體架構進步的幅度超乎想像,在未來幾年可能會成為低階嵌入式機器視覺應用的主流架構。

6. 可先選一個特定的 MCU 平台,熟悉其開發流程及架構,並了解如何存取影像感測器模組、應用即時多工作業系統,以及設計嵌入式系統的 GUI 介面。

沒有留言:

張貼留言

拼續航力 → 從短跑衝刺變成馬拉松訓練

最近幾週我過上了極其規律的工作型態,因為在有時間壓力的情況下,有幾個新的產品功能待開發;但我又不想把自己的時間全壓上去,因此就每天專注工作三至四小時,確保當天都有達成設定的目標,也不特別著急著一次做完。 回頭一看,其實默默地都有完成當初預定的目標,似乎也沒有因為每天只專注開發三、...