今年又再次受邀至碩專班進行專題演講,原本我已經設定想要講的主題,就是延伸「
現在的 MCU 也太強了吧!」這篇文章的內容,跟學生們分析
MCU 未來在機器視覺應用的發展。
誰知道在準備資料的過程中,突然發現不只是 MCU 這個領域有顯著進步,包括 Sensor 端也有出乎我意料外的產品出現。
而這一切背後的推手,幾乎都跟 Edge AI 有關係,當所有的目光及資源都集中在這個地方時,其推進的速度令人驚嘆!
因此,我決定重新調整自己的演講主題,期望自己也能從中判斷未來發展的趨勢。
一、主題設定
我在去年的演講題目是「
基於軟硬體共同設計之機器視覺技術」,說穿了就是探討
FPGA 在機器視覺上的應用方式;本來想繼續沿用這個模式,新增
MCU 在機器視覺上的應用發展,這對我來說相對省力。
但想了想,還是別偷懶,統整一下這一年來的發展趨勢,同時也可以給自己及公司未來參考的方向。
至於去年我認為很重要的內容 → 工程領域通用知識,就直接放到附件去,因為時間有限,只能挑重點講。
近期最熱門的還是生成式 AI (ChatGPT) 的應用,就連我自己在日常生活中使用的頻率也越來越高了,這不單純是特定領域的突破,而是全領域同步躍升。
就我自己的觀點來看,這應該是繼網際網路後,人類的下一波新革命。
只不過生成式 AI 離我的專長以及工作的場域有點距離,相對來說我也不是那麼熟悉,跟多數人一樣就只是個開心的使用者;因此,我還是針對「Vision AI 」的最新突破來進行討論才是正途。
講回到我自己熟悉的領域,就令人雀躍,像 SONY 先前所推出的新產品 IMX501,把影像感測器 (CMOS Sensor) 跟 AI 處理器 (NPU) 封裝在一起,變成智慧型感測器,這就是 SONY 才能做到的黑科技。
但 IMX501 推出後,我也沒看到有什麼劃時代的應用產品出現;說真的,大家心中應該都打個問號,為什麼要把感測器跟處理器封裝在一起?
將 NPU 跟 CPU 整合在一起,延續既存的應用架構,這才符合多數人的使用習慣吧。
雖然我覺得 SONY 的技術很威,但以應用層面來說,好像也沒太大的突破,打從心裡覺得:「哇塞! 好棒棒,那然後勒?」
Vision AI 是 Edge AI 的一個應用分支,按照我演講的習慣,會先從一個比較大的範圍慢慢往下探討,讓聽眾了解今天演講主題的定位,不至於迷航。
當然,這個演講的準備方式跟聽眾的背景有點關係,如果是專業客群的演講,我可能就單刀直入,直接講主題了;但這次的目標聽眾是來自不同背景的理工科學生,那就只能由上而下進行準備。
雖然這次演講我主要是想探討 Triton Smart Camera 這個產品,並從中引導出關於 Vision AI 未來該具備的軟硬體架構,但實際在準備演講資料時,還是得從 Edge AI 開始講起。
所以,就只能將就點,把主題定為「Edge AI for Machine Vision」,然後再想辦法補前面欠缺的背景介紹。
二、內容呈現
在決定主題時,就已大致定調演講內容的呈現方式,而這代表我得進一步了解當前 Edge AI 的發展現況。
一般來說,當主題確認下來時,通常也可以同步擬定大綱內容,這個步驟是最難的,接下來就比較像填空題,將細節一一填進去。
雖然該文作者把 Edge AI 分為 Edge Server、NB AI、Mobile AI、SBC AI、Wearable AI,但我想講的 Vision AI 的硬體架構算是介於 SBC AI 與 Wearable AI 的範圍。
SBC AI 的硬體架構,講簡單點就是把原來做視覺應用的工業電腦 (IPC),再掛上一個 NPU 模組就行,像研華搭載了 Hailo-8 的 AI 推論晶片就說自己是 Edge AI 了。
但
SONY 所推出的
Vision AI 產品,就不只是硬體上新增一個
NPU 這麼簡單,它還同時包含了一個無需撰寫程式的
AI 訓練軟體
Brain Builder,透過三步驟的訓練,就能將
Vision AI 應用在分類、物件偵測以及異常偵測的視覺應用案例上面。
我不曉得 SONY 這個產品是否會成功,但可以確定的是,它定義了未來 Vision AI 的軟硬體架構。
這是一個資料驅動 (Data Driven) 的模式,使用者藉由掌握資料的所有權來取得應用的主導權,而不用過度依賴工具開發者的客製化協助。
過往以規則為主的方式 (Rule-based Approach),通常是由工具開發者透過演算法的調整達成客製化,但這個方式會讓工具開發者擁有該 Know-How 的所有權,這對使用者相當不利,因為工具開發者隨時可將此 Know-How 複製並銷售給使用者的競爭對手。
以資料驅動為主的模式,雖然還是需要工具開發者的協助,但因為資料的主控權在使用者手上,相對來說比較能保有 Know-How 的所有權,不會輕易被複製出去。
當然,這只是我個人的觀點,對於這種新架構、新流程的出現持以樂觀的態度,因為這隨時都有可能衍生出新的商業模式。
但只要是有實際落地的產品應用,都值得關注,因為這代表 Vision AI 不是一句口號,而是實實在在地能提昇生產力的證明。
三、新的方向
未來要關注的點可分為軟硬體兩個方向:
1. 硬體;
主要就是 NPU 的應用,到底要把它放在系統的哪個位置比較適當,幾乎所有都處理器廠商都加入這個戰局,連原本沒太大關係的感測器廠商,都透過封裝把它們硬兜在一起。
只是有硬體也得有相對應的軟韌體工具才有機會擴大應用的族群,這已經是一個生態鏈的概念,並不是硬體量產後就會有人用。
2. 軟體;
如何簡化模型訓練及模式優化的流程,讓
NPU 能夠發揮它的最大效能,這部分
SONY 的
Brain Builder 已經為我們提供了一個思路。
可以想見,未來幾年的時間,應該會有人前仆後繼地鑽研這方面的工具軟體,但要注意哪個硬體平台的壽命及支援性比較高,別努力了半天,結果反倒是硬體廠商撐不下去收攤了。
另外,就是我原先想要講的 MCU 主題,由於它的處理性能越來越強大,低階的嵌入式視覺應用需求可能都會移植到這個架構上,這是我的猜測。
至於 MCU 會不會也嵌入 NPU 呢? 這肯定會,不是未來式,而是現在進行式。
但在上述架構開發應用產品的門檻相對較高,能否在少量多樣的工業自動化領域中發光發熱,就有待時間的驗證了。
四、心得感想
從去年開始,我就陸續介紹新的軟硬體架構,並嘗試把它們放進演講內容中;只能說這幾年的變化真是令人目不暇給,彷彿大家都在全力衝刺一樣,只要稍微喘口氣就落後了。
但這時我想起了金城武在廣告中講的那句話:「世界越快,心則慢!」
就是因為變化太快了,我們才要慢下來仔細選擇自己要走的路,這真是一個「選擇比努力更重要」的時代阿!
最後,我總結了六個演講重點,如下:
1. 為了提高使用者解決實際問題的自主性,機器視覺在工業應用上有兩大趨勢:資料驅動、No Coding (無需撰寫程式)。
2. 異常偵測 (Anomaly Detection) 結合相關的軟硬體設計,以及訓練與部署流程標準化,有可能成為未來視覺感測器的標準功能與架構。
3. NPU 將無所不在,從 CMOS Sensor 到 MCU 及 CPU 都陸續嵌入 NPU 。
4. 可先選一個特定的 NPU 平台,熟悉其訓練及部署流程,從中了解其背後的相關技術。
5. MCU 計算能力及週邊硬體架構進步的幅度超乎想像,在未來幾年可能會成為低階嵌入式機器視覺應用的主流架構。
6. 可先選一個特定的 MCU 平台,熟悉其開發流程及架構,並了解如何存取影像感測器模組、應用即時多工作業系統,以及設計嵌入式系統的 GUI 介面。