<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > Nature封面:DeepMind推出AlphaTensor,用AI發(fā)現矩陣乘法算法

Nature封面:DeepMind推出AlphaTensor,用AI發(fā)現矩陣乘法算法

發(fā)布人:傳感器技術(shù) 時(shí)間:2022-10-13 來(lái)源:工程師 發(fā)布文章

DeepMind 的 Alpha 系列 AI 智能體家族又多了一個(gè)成員——AlphaTensor,這次是用來(lái)發(fā)現算法。


數千年來(lái),算法一直在幫助數學(xué)家們進(jìn)行基本運算。早在很久之前,古埃及人就發(fā)明了一種不需要乘法表就能將兩個(gè)數字相乘的算法。希臘數學(xué)家歐幾里得描述了一種計算最大公約數的算法,這種算法至今仍在使用。在伊斯蘭的黃金時(shí)代,波斯數學(xué)家 Muhammad ibn Musa al-Khwarizmi 設計了一種求解線(xiàn)性方程和二次方程的新算法,這些算法都對后來(lái)的研究產(chǎn)生了深遠的影響。


事實(shí)上,算法一詞的出現,有這樣一種說(shuō)法:波斯數學(xué)家 Muhammad ibn Musa al-Khwarizmi 名字中的 al-Khwarizmi 一詞翻譯為拉丁語(yǔ)為 Algoritmi 的意思,從而引出了算法一詞。不過(guò),雖然今天我們對算法很熟悉,可以從課堂中學(xué)習、在科研領(lǐng)域也經(jīng)常遇到,似乎整個(gè)社會(huì )都在使用算法,然而發(fā)現新算法的過(guò)程是非常困難的。


現在,DeepMind 用 AI 來(lái)發(fā)現新算法。


在最新一期 Nature 封面論文《Discovering faster matrix multiplication algorithms with reinforcement learning》中,DeepMind 提出了 AlphaTensor,并表示它是第一個(gè)可用于為矩陣乘法等基本任務(wù)發(fā)現新穎、高效且可證明正確的算法的人工智能系統。簡(jiǎn)單來(lái)說(shuō),使用 AlphaTensor 能夠發(fā)現新算法。這項研究揭示了 50 年來(lái)在數學(xué)領(lǐng)域一個(gè)懸而未決的問(wèn)題,即找到兩個(gè)矩陣相乘最快方法。


圖片


圖片


AlphaTensor 建立在 AlphaZero 的基礎上,而 AlphaZero 是一種在國際象棋、圍棋和將棋等棋盤(pán)游戲中可以打敗人類(lèi)的智能體。這項工作展示了 AlphaZero 從用于游戲到首次用于解決未解決的數學(xué)問(wèn)題的一次轉變。


矩陣乘法


矩陣乘法是代數中最簡(jiǎn)單的運算之一,通常在高中數學(xué)課上教授。但在課堂之外,這種不起眼的數學(xué)運算在當代數字世界中產(chǎn)生了巨大的影響,在現代計算中無(wú)處不在。


圖片

兩個(gè) 3x3 矩陣相乘的例子。

你可能沒(méi)注意到,我們生活中處處隱藏著(zhù)矩陣相乘,如智能手機中的圖像處理、識別語(yǔ)音命令、為電腦游戲生成圖形等都有它在背后進(jìn)行運算。遍布世界各地的公司都愿意花費大量的時(shí)間和金錢(qián)開(kāi)發(fā)計算硬件以有效地解決矩陣相乘。因此,即使是對矩陣乘法效率的微小改進(jìn)也會(huì )產(chǎn)生廣泛的影響。


幾個(gè)世紀以來(lái),數學(xué)家認為標準矩陣乘法算法是效率最高的算法。但在 1969 年,德國數學(xué)家 Volken Strassen 通過(guò)證明確實(shí)存在更好的算法,這一研究震驚了整個(gè)數學(xué)界。


圖片

標準算法與 Strassen 算法對比,后者少進(jìn)行了一次乘法運算,為 7 次,而前者需要 8 次,整體效率大幅提高。

通過(guò)研究非常小的矩陣(大小為 2x2),Strassen 發(fā)現了一種巧妙的方法來(lái)組合矩陣的項以產(chǎn)生更快的算法。之后數十年,研究者都在研究更大的矩陣,甚至找到 3x3 矩陣相乘的高效方法,都還沒(méi)有解決。


DeepMind 的最新研究探討了現代 AI 技術(shù)如何推動(dòng)新矩陣乘法算法的自動(dòng)發(fā)現?;谌祟?lèi)直覺(jué)(human intuition)的進(jìn)步,對于更大的矩陣來(lái)說(shuō),AlphaTensor 發(fā)現的算法比許多 SOTA 方法更有效。該研究表明 AI 設計的算法優(yōu)于人類(lèi)設計的算法,這是算法發(fā)現領(lǐng)域向前邁出的重要一步。


算法發(fā)現自動(dòng)化的過(guò)程和進(jìn)展


首先將發(fā)現矩陣乘法高效算法的問(wèn)題轉換為單人游戲。其中,board 是一個(gè)三維度張量(數字數組),用于捕捉當前算法的正確程度。通過(guò)一組與算法指令相對應的所允許的移動(dòng),玩家嘗試修改張量并將其條目歸零。


當玩家設法這樣做時(shí),將為任何一對矩陣生成可證明是正確的矩陣乘法算法,并且其效率由將張量清零所采取的步驟數來(lái)衡量。


這個(gè)游戲非常具有挑戰性,要考慮的可能算法的數量遠遠大于宇宙中原子的數量,即使對于矩陣乘法這樣小的情況也是如此。與幾十年來(lái)一直是人工智能挑戰的圍棋游戲相比,該游戲每一步可能的移動(dòng)數量要多 30 個(gè)數量級(DeepMind 考慮的一種設置是 10^33 以上。)


為了解決這個(gè)與傳統游戲明顯不同的領(lǐng)域所面臨的挑戰,DeepMind 開(kāi)發(fā)了多個(gè)關(guān)鍵組件,包括一個(gè)結合特定問(wèn)題歸納偏置的全新神經(jīng)網(wǎng)絡(luò )架構、一個(gè)生成有用合成數據的程序以及一種利用問(wèn)題對稱(chēng)性的方法。


接著(zhù),DeepMind 訓練了一個(gè)利用強化學(xué)習的智能體 AlphaTensor 來(lái)玩這個(gè)游戲,該智能體在開(kāi)始時(shí)沒(méi)有任何現有矩陣乘法算法的知識。通過(guò)學(xué)習,AlphaTensor 隨時(shí)間逐漸地改進(jìn),重新發(fā)現了歷史上的快速矩陣算法(如 Strassen 算法),并且發(fā)現算法的速度比以往已知的要快。


圖片

AlphaTensor 玩的單人游戲,目標是找到正確的矩陣乘法算法。游戲狀態(tài)是一個(gè)由數字組成的立方數組(灰色表示 0,藍色表示 1,綠色表示 - 1),它代表了要完成的剩余工作。


舉例而言,如果學(xué)校里教的傳統算法可以使用 100 次乘法完成 4x5 與 5x5 矩陣相乘,通過(guò)人類(lèi)的聰明才智可以將這一數字降至 80 次。與之相比,AlphaTensor 發(fā)現的算法只需使用 76 次乘法即可完成相同的運算,如下圖所示。


圖片


除了上述例子之外,AlphaTensor 發(fā)現的算法還首次在一個(gè)有限域中改進(jìn)了 Strassen 的二階算法。這些用于小矩陣相乘的算法可以當做原語(yǔ)來(lái)乘以任意大小的更大矩陣。


AlphaTensor 還發(fā)現了具有 SOTA 復雜性的多樣化算法集,其中每種大小的矩陣乘法算法多達數千,表明矩陣乘法算法的空間比以前想象的要豐富。


在這個(gè)豐富空間中的算法具有不同的數學(xué)和實(shí)用屬性。利用這種多樣性,DeepMind 對 AlphaTensor 進(jìn)行了調整,以專(zhuān)門(mén)發(fā)現在給定硬件(如 Nvidia V100 GPU、Google TPU v2)上運行速度快的算法。這些算法在相同硬件上進(jìn)行大矩陣相乘的速度比常用算法快了 10-20%,表明了 AlphaTensor 在優(yōu)化任意目標方面具備了靈活性。


圖片

AlphaTensor 具有一個(gè)對應于算法運行時(shí)的目標。當發(fā)現正確的矩陣乘法算法時(shí),它會(huì )在指定硬件上進(jìn)行基準測試,然后反饋給 AlphaTensor,以便在指定硬件上學(xué)習更高效的算法。


對未來(lái)研究和應用的影響


從數學(xué)的角度來(lái)看,對于旨在確定解決計算問(wèn)題的最快算法的復雜性理論而言,DeepMind 的結果可以指導它的進(jìn)一步研究。通過(guò)較以往方法更高效地探索可能的算法空間,AlphaTensor 有助于加深我們對矩陣乘法算法豐富性的理解。


此外,由于矩陣乘法是計算機圖形學(xué)、數字通信、神經(jīng)網(wǎng)絡(luò )訓練和科學(xué)計算等很多計算任務(wù)的核心組成部分,AlphaTensor 發(fā)現的算法可以顯著(zhù)提升這些領(lǐng)域的計算效率。


雖然本文只專(zhuān)注于矩陣乘法這一特定問(wèn)題,但 DeepMind 希望能夠啟發(fā)更多的人使用 AI 來(lái)指導其他基礎計算任務(wù)的算法發(fā)現。并且,DeepMind 的研究還表明,AlphaZero 這種強大的算法遠遠超出了傳統游戲的領(lǐng)域,可以幫助解決數學(xué)領(lǐng)域的開(kāi)放問(wèn)題。


未來(lái),DeepMind 希望基于他們的研究,更多地將人工智能用來(lái)幫助社會(huì )解決數學(xué)和科學(xué)領(lǐng)域的一些最重要的挑戰。


參考鏈接:

https://www.nature.com/articles/s41586-022-05172-4

https://github.com/deepmind/alphatensor

https://www.deepmind.com/blog/discovering-novel-algorithms-with-alphatensor


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: Nature

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>