本文介紹一下我們自己的工作,該論文是一篇圖自監督學習的工作,被 IJCAI 2022 接收。
論文鏈接:
代碼鏈接:
https://github.com/ZhuYun97/RoSA
近些年來,圖自監督學習進展非常快,從 2020 年該方向的論文就開始井噴式增長。

背景介紹
此外,在某些情況下 aligned views 是不可用的,比如,在動態圖中,隨着時間的推移,節點可能出現/消失,以及如果使用隨機遊走的方式進行採樣,得到的兩個視圖也是 non-aligned 的。與 aligned node-node contrasting 相比,non-aligned 場景下採樣方式可以更靈活(可以採樣到不同的節點和關係),有助於模型學習更具代表性和魯棒性的特徵。
然而,應用 non-aligned node-node contrasting 將面臨三個主要的挑戰。首先,如何設計採樣方法,可以生成 non-aligned views,同時保持語義的一致性?第二,如何對比兩個 non-aligned views(兩個 views 中的節點的數量和節點之間的對應關係不一致)?第三,如何在提高無監督圖對比學習模型性能的同時增強模型的魯棒性?現有的方法都沒有解決這些問題。為解決以上問題,在這篇論文中,我們提出了一個魯棒的自對齊的 node-node level 圖對比學習框架(RoSA)。

貢獻
方法
3.1 符號介紹
3.2 非對齊子圖採樣
針對正樣本對,我需要得到語義相似的兩個節點集合,基於這個假設,我們利用帶重啟的隨機遊走針對每個中心節點採樣得到 unaligned views,之後可以附加一些額外的增強方式(e.g. node masking, edge dropping[3])。當然我們也可以選取其他的一些採樣方式。
3.3 g-EMD: A Self-aligned Contrastive Objective
之前計算對比損失的時候通常使用 cosine similarity 作為節點對相關性的度量函數,默認節點是一一對應的,但是在 unaligned views 的情況下,我們需要重新定義一個能夠衡量兩個 unaligned views 的對比損失,對此我們結合 earth mover's distance(EMD)提出一個針對圖上用來衡量 unaligned views 相似度的方法 g-EMD,這部分詳細內容參見原論文。
3.4 Unsupervised Adversarial Training
對抗訓練可以認為是一種增強方式,它可以增加模型的魯棒性。[4]通過實驗證明了有監督情況下在節點特徵上進行對抗訓練可以進一步提升模型精度,我們將其引入到圖對比學習中,公式如下:


實驗
▲ Table 2: Summary of classification accuracy of node classificationtasks on homophilous graphs. The second column representsthe contrasting mode of methods, N-G stands for node-graph level,and N-N stands for node-node level.
4.2 Inductive setting
4.3 動態圖
4.4 消融實驗

總結
在本文中,我們提出了一個魯棒的 node-node level 圖對比學習的自對齊框架,其中我們設計並利用基於圖的 EMD(g-EMD)作為對比損失中的相似性度量,以避免對比視圖之間的顯式對齊。其次,我們將無監督對抗訓練引入到 graph domain,進一步提高了模型的魯棒性。

參考文獻

[1] abZhu Y, Xu Y, Liu Q, et al. An Empirical Study of Graph Contrastive Learning[C]//Thirty-fifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 2). 2021.https://openreview.net/forum?id=UuUbIYnHKO
[2] Wu L, Lin H, Gao Z, et al. Self-supervised on graphs: Contrastive, generative, or predictive[J]. arXiv e-prints, 2021: arXiv: 2105.07342.https://arxiv.org/abs/2105.07342
[3] Zhu Y, Xu Y, Yu F, et al. Deep graph contrastive representation learning[J]. arXiv preprint arXiv:2006.04131, 2020.https://arxiv.org/abs/2006.04131
[4] Kong K, Li G, Ding M, et al. Flag: Adversarial data augmentation for graph neural networks[J]. arXiv preprint arXiv:2010.09891, 2020.https://arxiv.org/abs/2010.09891
更多閱讀



#投 稿通 道#
讓你的文字被更多人看到
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋樑,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。
PaperWeekly 鼓勵高校實驗室或個人,在我們的平台上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析、科研心得或競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。
📝稿件基本要求:
• 文章確係個人原創作品,未曾在公開渠道發表,如為其他平台已發表或待發表的文章,請明確標註
• 稿件建議以markdown格式撰寫,文中配圖以附件形式發送,要求圖片清晰,無版權問題
• PaperWeekly 尊重原作者署名權,並將為每篇被採納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算
📬投稿通道:
• 投稿郵箱:hr@paperweekly.site
• 來稿請備註即時聯繫方式(微信),以便我們在稿件選用的第一時間聯繫作者
• 您也可以直接添加小編微信(pwbot02)快速投稿,備註:姓名-投稿
△長按添加PaperWeekly小編
🔍
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
