== #hivetalks #3 CPU、GPU,還有什麼U==
這麼多年了,聽到的都是CPU、CPU、CPU。
曾幾何時,出來了一個GPU?
☝️GPU是什麼?👇
GPU=Graphic Processing Unit,又稱圖形處理器。本來是專門用在用在圖像渲染計算的處理器,主要處理繪圖的計算功能。
一般的CPU有著計算、控制、存儲等單元,平均分配使用做著不同的事。GPU的架構就不一樣,80%的GPU晶片架構在處理計算,其他在control和cache分配的不多,不是他的強項。
CPU就像一個全能的大學教授,知無不言,言無不盡,他可以算微積分,什麼事情你都可以問他。
GPU就像是聯合起來的100個珠算高手,別的不會,就是會算數。大學教授縱使學術淵博,但是算一萬次百位數加減乘除是打不過100個珠算高手的。
在AI的時代,深度學習網絡需要不斷地計算,針對模型要做上億次的計算,確認對錯,把算法優化。如果用傳統CPU的架構,這種重複的計算是要花上很多時間才能有效果。
2016年9月14日,由黃學東帶領的微軟語音團隊在語音識別基準測試中實現了對話語音識別詞錯率(word error rate, 簡稱WER)低至6.3%的突破 ,創造當時該領域內錯誤率最低紀錄。僅僅一個月後,又將詞錯率降低至 5.9%,首次達成與專業速記員持平而優於絕大多數人的表現。這被認為是人工智能領域 2016年最大的突破性進展之一。
當時黃學東用的就是NVIDIA的GPU來計算語音識別模型,在一年內獲得了重大的突破,如果他是用一般的CPU,他的評估是要長達五年才能有所突破。也是在這一役后,使用GPU來做Ai的神經網絡學習成為顯學。
因此現在的AI計算幾乎都會跟GPU扯上關係,造成NVIDIA的股票勢如破竹,一飛沖天。
除了CPU、GPU,其實還有別的,例如:
👉TPU:谷歌基於機器學習的Tensorflow而開發的Tensor Processing Unit,簡稱TPU。已經出到第三代。
👉FPGA:叫做現場可編程矩陣門陣列的晶片,它們可以在工作過程中重新編程,適應新的任務。微軟的Bing和Azure就是用這種晶片。
👉NPU:Neural Processing Unit,適用於神經網絡的CPU。
IPU、WPU。。。。。還有好多,族繁不及備載。
那為何未來要很關注GPU呢?除了AI在用GPU,還有什麼值得關注?
👉有一個目前的大方向是 #邊緣計算(Edge Computing)#edgecomputing
可以看之前的鏈接:https://www.facebook.com/…/a.10412583595…/1054324378235770/…
隨著AI快速發展,很多設備需要執行越來越多的算法任務,例如Google音箱要進行自然語言理解、自動駕駛汽車就需要直接監測行人和來往車子、手持翻譯設備需要翻譯實時語音信息等。未來AI計算很多會放在服務端,去處理傳感器的序列數據、攝影機的圖像數據、語音識別數據等等。因此,在終端也會放上GPU的處理器,裡面就有人工智能計算框架,可以在終端就即使處理任務,然後連上5G,和其他設備協同合作。
而且,如之前說過的,邊緣計算會有很多新的、垂直的、因應不同任務研發出來的芯片,去使用在不同場景,後面的賽道應該會很擁擠,精彩可期。
配圖跟本文無關,是好朋友Roy在台北拍的,謝謝
Roy Cheung
#hivetalks
#邊緣計算
#Edgecomputing
#Hiveventures
======================================
Previous posts:
👉hivetalks 1 👍邊緣計算
👉hivetalks 2 👍5G除了快,到底可以幹嘛?
👉hivetalks 3 👍CPU、GPU,還有什麼U
👉hivetalks 4 👍量子計算機
👉hivetalks 5 👍IoT我知道,但是什麼是AIot, NB-IoT,還有這些跟我有什麼關係?