IBM展示8位模擬人工智能芯片
隨著(zhù)在舊金山舉行的國際電子設備會(huì )議(IEDM)和在蒙特利爾舉行的神經(jīng)信息處理系統會(huì )議(NeurlPS)的開(kāi)門(mén)紅,對于任何希望跟上人工智能研發(fā)發(fā)展步伐的人來(lái)說(shuō),本周都顯得十分重要。
本文引用地址:http://dyxdggzs.com/article/201812/395566.htm正如IBM的研究人員正在詳細介紹用于數字和模擬人工智能芯片的新人工智能方法。IBM自豪地宣稱(chēng),其數字AI芯片“首次成功地使用8位浮點(diǎn)數訓練了深度神經(jīng)網(wǎng)絡(luò )(DNNs),同時(shí)在深度學(xué)習模型和數據集的頻譜上完全保持了準確性?!?/p>
另外,IBM的研究人員正在IEDM上展示一種模擬人工智能芯片,它使用8位精度的內存與投影相變內存相乘。
AI的GPU時(shí)代結束了
IBM大膽預測,GPU在人工智能領(lǐng)域的主導地位將終結。GPU能夠為圖形處理做很多并行矩陣乘法。這樣的矩陣乘法恰好是你需要用神經(jīng)網(wǎng)絡(luò )做的事情。
移動(dòng)到較低的精度
提高效率的一個(gè)途徑是降低人工智能處理所需的精度。
在人工智能中,神經(jīng)網(wǎng)絡(luò )是當你展示一幅圖像或一個(gè)詞,我們問(wèn)它是貓還是狗時(shí),它說(shuō)它是貓。如果這是正確的答案,你就不必關(guān)心中間的所有計算。
理想情況下,人工智能應該模仿人眼,這解釋了人工智能處理中精度下降的趨勢。
2015年,IBM Research發(fā)布了AI模型訓練推理的降精度方法,論文描述了一種針對傳統CMOS技術(shù)的新型數據流方法。IBM展示了經(jīng)過(guò)16位精度訓練的模型,與經(jīng)過(guò)32位精度訓練的模型相比,精度沒(méi)有損失。
從那時(shí)起IBM注意到,降低精度的方法很快被采納為行業(yè)標準,16位培訓和8位推斷現在已經(jīng)很普遍,并刺激了創(chuàng )業(yè)公司和風(fēng)險投資的爆炸式增長(cháng),用于降低基于精度的AI芯片,盡管出現了這種新趨勢,但由于需要保持模型的高精度,用數字表示小于16位的“訓練”幾乎是不可能的。
評論