close

賣萌屋今日學術精選

這篇論文展示了信息檢索可以用一個Transformer來完成,其中,關於語料庫的所有信息都被編碼在Transformer模型的參數中。

論文標題:Transformer Memory as a Differentiable Search Index鏈接:https://arxiv.org/abs/2202.06991

作者提出了可微搜索索引(Differentiable Search Index,DSI)的概念,這是一種新的搜索範式,它可以學習出一個Query-to-DocID的文本檢索模型,將用戶Query直接映射到相關的DocID節點上;換句話說,DSI模型直接使用其模型參數來回答用戶查詢,極大地簡化了整個檢索過程。

上圖展示了經典的雙塔模型(Dual Encoder)+最大內積檢索(MIPS)的經典檢索範式,與本文提出的可微搜索索引(DSI)的範式的區別。後者統一了模型的訓練與檢索。

實驗結果

首先作者在不同規模的NQ數據集上,檢驗了DSI模型的supervised learning能力。

從上表可以看到,DSI模型經過finetune之後,強勢吊打了BM25基線和同樣finetune之後的T5模型。

此外,作者還在NQ數據集上檢驗了DSI模型的zero-shot能力。

眾所周知,BM25是zero shot方面非常高的一個基線,從上表可以看出,DSI的zero shot能力也顯著優於BM25。

實驗表明,給定適當的設計選擇,DSI不僅顯著優於雙塔模型為代表的強基線模型,此外,DSI展示了很強的泛化能力,在zero-shot實驗中顯著優於BM25基線。

後台回復關鍵詞【入群】

加入賣萌屋NLP/IR/Rec與求職討論群

後台回復關鍵詞【頂會】

獲取ACL、CIKM等各大頂會論文集!

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 鑽石舞台 的頭像
    鑽石舞台

    鑽石舞台

    鑽石舞台 發表在 痞客邦 留言(0) 人氣()