註意啦!GPU加速將掀起人工智能革命

1

智能機器人和設備將占領傢庭?芯片制造商Nvidia正在將這變成現實。Nvidia不會開發一些算法來控制機器人的行為,或安裝感應器讓其學習這個世界,但它的圖形處理單元,即GPUs,可能幫助處理人工智能所需的海量運算。

多數應用程序都不會隻使用GPUs,但會將需要大量計算的任務由標準的微處理器交給GPUs,這就是GPU加速。這種處理在超級計算中非常普遍,並在計算機視覺和物體識中別無處不在。Nvidia高級計算組的總經理Sumit Gupta表示,2013年ImageNet圖像識別競賽(一項視覺識別領域的比賽)中80%的參賽者都使用瞭GPU加速。

2013年3月,谷歌收購瞭DNNresearch,一傢由多倫多大學教授Geoff Hinton聯合創立的深度學習方面的創業公司。這傢公司的Hinton小組參加瞭2012年的ImageNet競賽,並取得瞭不錯的成績。當時他們由GPU驅動的深度學習模型輕松打敗瞭其他對手。

“事實證明,GPU方式能很好處理深度神經網絡問題”,Gupta表示。這是因為深度學習算法通常需要海量計算來處理數據(圖像、文本等),和提取數據對象的確定特征。尤其是在訓練階段,模型或算法為瞭調整精度,需要處理大量數據。

許多公司都在使用Nvidia的Tesla GPUs進行圖像和語音識別,其中包括Adobe和中國的百度。Gupta表示,Nvidia也很在意深度學習的其他方面。Netflix在亞馬遜的雲服務中使用GPU加速改善其推薦系統,俄國的搜索公司Yandex采用這種方式為搜索引擎加速,而IBM也用其改進Hadoop。

Nvidia可能對機器學習很感興趣,因為它近年來一直致力於將GPUs打造成一個通用計算平臺,而不是僅用作圖像和遊戲芯片,不過結果喜憂參半。為達成這一目的,Nvidia嘗試過用自己開發的CUDA語言對處理器進行編程,但Gupta 指出,目前對如何高效使用GPUs仍知之甚少。這也是為什麼這項創新技術還隻是在一些大公司中使用,因為隻有它們才具備同時利用2500個或更多核心(在GPU系統中會更多)的並行處理技術。

2

不過,除瞭服務器,Nvidia也考慮在未來十年中將機器學習技術用於機器人。上周,Nvidia發佈瞭可用於超級計算的Jetson TK1開發套裝。該套裝價值192美元,可用CUDA語言進行編程,並包括瞭開發者想要的一切端口,和Nvidia的最新移動處理器(Tegra K1 單芯片系統,配有192核的Kepler GPU和ARM Cortex A15 CPU,可進行300千兆的浮點運算)。

在上世紀90年代,這種處理速度在超級計算機中也名列前茅。

Nvidia正在主流機器人所需的計算機視覺、安全和其他計算領域兜售這個套裝。Gupta 表示智能設備安裝瞭這種計算工具後,物聯網速度將得到極大提升。 Google和Facebook可能會在成百上千的服務器上處理大規模人工智能模型,但在智能手機上運行生成的算法以減少直接發送給雲服務器處理的數據量也是一個發展方向。到時溫度調節器或無人機擁有300千兆浮點運算能力也不是不可能。

Nvidia預期,機器學習方面的工作將在未來幾年內帶來相當不錯的利潤,Gupta 表示,但除瞭上述例子外,他也無法預測GPUs將地哪些方面有所應用。他表示,“我們目前隻開發出瞭機器學習的幾種用途,但絕不會隻有這些。”對於Jetson工作套裝,他表示:“購買者的想像力會更豐富。”

via GIGAOM

相關:

智能硬件時代依然是“得屌絲者得天下”?

Comments are closed.