<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 2021年Graph ML熱門(mén)趨勢和主要進(jìn)展總結(1)

2021年Graph ML熱門(mén)趨勢和主要進(jìn)展總結(1)

發(fā)布人:數據派THU 時(shí)間:2022-01-16 來(lái)源:工程師 發(fā)布文章

來(lái)源:DeepHub IMBA

對于 Graph ML 來(lái)說(shuō)2021年是重要的一年——成千上萬(wàn)的論文、無(wú)數的會(huì )議和研討會(huì )......說(shuō)明這個(gè)領(lǐng)域是在蓬勃的發(fā)展。我將Graph ML 這一年的進(jìn)展進(jìn)行結構化的展示,并重點(diǎn)介紹

趨勢和主要進(jìn)步。


無(wú)論您是在研究細分的主題還是剛開(kāi)始使用 Graph ML - 我們都希望這篇文章是一個(gè)很好的參考點(diǎn)。這個(gè)領(lǐng)域太大了如果我錯過(guò)了一些重要的東西,請在評論中告訴我們!

Graph Transformers + Positional Features


GNN 在通常是稀疏的圖上運行,而 Graph Transformers (GT) 在全連接圖上運行,其中每個(gè)節點(diǎn)都連接到圖中的每個(gè)其他節點(diǎn)。一方面,這帶來(lái)了節點(diǎn) N 數量的 O (N2) 復雜度。另一方面,GT 不會(huì )遭受過(guò)度平滑,這是長(cháng)距離消息傳遞的常見(jiàn)問(wèn)題。全連接圖意味著(zhù)我們有來(lái)自原始圖的“真”邊和從全連接變換中獲得的“假”邊。我們還需要一種方法來(lái)為節點(diǎn)注入一些位置特征,否則 GT 會(huì )落后于 GNN(如 Dwivedi 和 Bresson 的 2020 年論文所示)。
今年最引人注目的兩個(gè)Graph Transformers模型可能是 SAN(Spectral Attention Nets)和 Graphormer。
Kreuzer、Beaini 等人的 SAN 使用了拉普拉斯算子的 top-k 特征值和特征向量,表明單獨的譜特征(spectral features)可以區分被 1-WL 檢驗確定是否同構的圖。SAN 將光譜特征與輸入節點(diǎn)特征連接起來(lái),在許多分子任務(wù)上優(yōu)于稀疏 GNN。
圖片
Ying 等人的 Graphormer 采用了不同的方法并使用了空間特征。節點(diǎn)特征豐富了中心性編碼(centrality encoding)——可學(xué)習的入度和出度嵌入。注意力機制有兩個(gè)偏置項:1、節點(diǎn) i 和 j 之間最短路徑的距離;2、取決于一條可用最短路徑的邊特征編碼。

 圖片
Graphormer完成了2021年Graph ML大滿(mǎn)貫:OGB large Challenge和Open Catalyst Challenge圖回歸任務(wù)第一名!(以下將詳細介紹這些挑戰)
SAN 和 Graphormer 在分子級別的任務(wù)上進(jìn)行了評估,圖相當?。ㄆ骄?50-100 個(gè)節點(diǎn)),這樣計算量不會(huì )特別大,例如運行 O (N3) Floyd-Warshall 所有對最短路徑。Graph Transformers 仍然受到 O (N2) 注意力機制的限制??s放到大于分子的圖形可能會(huì )解決這些問(wèn)題。來(lái)自 NLP的思想可能會(huì )有所幫助,但由于他們從未實(shí)現注意力矩陣,因此需要找到一種聰明的方法將邊緣特征置于此類(lèi)模型中。在 2022 年應該會(huì )看到更多關(guān)于這方面的研究!

Equivariant GNNs


Geoffrey Hinton 提出的equivariance有何獨特之處?
equivariance在 2021 年掀起了 ML 的風(fēng)暴,在 Graph ML 中,它在許多molecular tasks中尤其具有破壞性。等變 GNN 需要一個(gè)額外的節點(diǎn)特征輸入——即物理坐標的一些表示,這些表示將在 n 維空間中旋轉/反射/平移。
圖片
Satorras、Hoogeboom 和 Welling 提出了 EGNN、E(n) 等變 GNN,其與普通 GNN 的重要區別在于將物理坐標添加到消息傳遞和更新步驟。方程 3 將相對平方距離添加到消息 m,方程 4 更新位置特征。EGNN 在建模 n 體系統、作為自動(dòng)編碼器和量子化學(xué)任務(wù)(QM9 數據集)方面顯示出令人印象深刻的結果。

圖片
另一種選擇是合并原子之間的角度,如 Klicpera、Becker 和 Günnemann 在 GemNet 中所做的那樣。這可能需要將輸入圖轉換為折線(xiàn)圖,例如邊圖,其中來(lái)自原始圖的邊變成折線(xiàn)圖中的節點(diǎn)。這樣就可以將角度作為新圖中的邊特征。

圖片
GemNet 在分子動(dòng)力學(xué)任務(wù)上取得了不錯的成績(jì):COLL、MD17 和 Open Catalyst20。顯然equivariance才剛剛起步

我們將在 2022 年看到更多進(jìn)步!


Generative Models for Molecules


由于幾何深度學(xué)習,整個(gè)****物發(fā)現 (DD) 領(lǐng)域在 2021 年得到了顯著(zhù)的發(fā)展。DD 的眾多關(guān)鍵挑戰之一是生成具有所需屬性的分子(圖)。這個(gè)領(lǐng)域很大,所以我們只強調模型的三個(gè)分支。
Normalizing Flows.
Satorras、Hoogeboom 等人應用上述equivariance框架來(lái)創(chuàng )建 E(n) 等變歸一化流,能夠生成具有位置和特征的 3D 分子。
圖片
概率模型

Shi、Luo 等人研究了在給定 2D 圖形的情況下生成 3D 構象異構體(即 3D 結構)的問(wèn)題。模型 ConfGF 估計原子坐標對數密度的梯度場(chǎng)。作者想出了一種方法將這種旋轉平移等變屬性合并到估計器中。
圖片
RL方法

用一種非常不科學(xué)的方式來(lái)描述,這些方法通過(guò)逐步添加“構建塊”來(lái)生成分子。我們可以根據這種構建過(guò)程的條件對這些方法進(jìn)行廣泛的分類(lèi)。例如Gao、Mercado和Coley將構建過(guò)程設定在合成能力上,也就是說(shuō)否能夠在實(shí)驗室中創(chuàng )造這個(gè)分子。他們首先學(xué)習如何創(chuàng )建構建塊的合成樹(shù)(類(lèi)似模板)。
圖片
由Yoshua Bengio領(lǐng)導的Mila和Stanford研究團隊提出了一個(gè)更通用的框架,Yoshua Bengio介紹了GFlowNets。這很難用幾句話(huà)來(lái)概括——當想要對不同的候選人進(jìn)行抽樣時(shí),GFlowNets可以用于主動(dòng)學(xué)習案例并且抽樣概率與獎勵函數成正比。他們最近在NeurIPS發(fā)表的21篇論文顯示了GFlowNets應用于分子生成任務(wù)的好處。



*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 深度學(xué)習

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>