【一文了解能使傳感器和其他設備更快處理數據的AI專用芯片】一直以來,Google就通過自研AI芯片以滿足其神經網絡日益增長的計算需求。北京時間昨日晚間,遠在太平洋彼岸的GoogleCloudNext2018大會上,Google正式對外宣布推出EdgeTPU,一款能使傳感器和其他設備更快處理數據的AI專用芯片。
據了解,早在2016年,Google就發布了張量處理單元(TensorProcessingUnit,簡稱TPU),讓大家首次認識到了AI專用芯片的能力。
從TPU的一路演進上可以發現,在2015年Google才剛開始內部投入使用,2016年初代TPU版本公布時還只能做些通過數據預測的事情,2017年第二代版本則可被用來訓練模型,甚至還能與英偉達顯卡相媲美,到今年5月第三代版本推出時,由TPU3.0組成的TPUPod運算陣列,性能相比上一代提升了8倍,可提供100petaflops(千萬億次)的機器學習硬件加速.
而此次EdgeTPU的到來讓我們看到,Google又將目光轉移到了網絡終端的無數個物聯網設備,并順勢推出了配套軟件棧CloudIoTEdge。
相比來說,EdgeTPU是專門為在邊緣運行TensorFlowLiteML模型而設計,用來處理ML預測的微型芯片,要比訓練模型的計算強度小很多。EdgeTPU可以自己進行運算,不需要與多臺強大的計算機相連,因此應用程序可以更快、更可靠的工作。
EdgeTPU開發套件:SOM和底板
在CNBC等多家外媒報道中透露,Google進軍“定制芯片”市場,是其試圖擴大云計算市場份額、與亞馬遜和微軟加強競爭的一種方式。自2015年以來,Google始終在用TPU來加速自家數據中心的某些工作負載,而不是依賴英偉達等供應商提供的商用硬件。
接受CNBC采訪中,三星前首席技術官InjongRhee則表示,Google并沒有讓EdgeTPU與傳統芯片競爭,“這對所有硅芯片供應商和設備制造商是非常有利的”。
在他看來,EdgeTPU可能會“顛覆云計算競爭”,因為許多計算現在可以在設備上進行,而不是全部發送到數據中心。在成本和能耗方面,Google芯片在某些類型的計算上比傳統芯片更加高效。