|
重磅干貨,第一時間送達 摘要 基于協(xié)同過濾(CF)的推薦方法得到了廣泛的研究,通??梢苑譃閮深悾椿诒硎緦W習的CF方法和基于匹配函數(shù)學習的CF方法。表示學習試圖為用戶和項目的表示學習一個常見的低維空間。在這種情況下,如果用戶和物品在公共空間中具有更高的相似性,那么他們的匹配就會更好。匹配函數(shù)學習嘗試直接學習復雜的匹配函數(shù),它將用戶-項目對映射到匹配分數(shù)。盡管這兩種方法都得到了很好的發(fā)展,但都存在兩個根本性的缺陷:一是表示學習依賴于使用點積,對用戶和物品的潛在特征表達有限;二是匹配函數(shù)學習在捕獲低秩關(guān)系方面存在缺陷。為了克服這些缺陷,作者提出了一種新的推薦模型——平衡協(xié)同過濾網(wǎng)絡(luò)(BCFNet),該模型具有兩種推薦方法的優(yōu)點。此外,為了更好地捕捉隱式反饋中的隱藏信息,增強神經(jīng)網(wǎng)絡(luò)的學習能力,設(shè)計了注意機制。此外,設(shè)計了一個平衡模塊來緩解DNNs中的過擬合問題。在8個真實數(shù)據(jù)集上的大量實驗證明了該模型的有效性。 這項工作的主要貢獻如下:
框架結(jié)構(gòu) 提出的BCFNet模型的體系結(jié)構(gòu) 首先,提出了BCFNet模型的體系結(jié)構(gòu)。然后,分別介紹了該模型的三個子模塊,即注意表征學習(BCFNet-rl)、注意匹配功能學習(BCFNetml)和平衡模塊(BCFNet-bm)。最后,作者描述了如何融合這三個子模塊和如何學習最終的BCFNet模型。 在引入注意機制后,表征學習和匹配函數(shù)學習的統(tǒng)一框架可以得到很大的改進。但由于其DNNs結(jié)構(gòu),也可能導致部分信息丟失和過擬合問題。在現(xiàn)實生活中的推薦系統(tǒng)中,存在大量的用戶和物品,且存在稀缺性問題。在這種情況下,MLP實現(xiàn)中輸入的交互相對較少,容易出現(xiàn)過擬合問題,導致結(jié)果不理想。此外,在深度學習過程中,用戶和物品的一些特征可能被簡單地忽略,一些重要的隱含反饋在MLP中可能被賦予較低的權(quán)重。 受一些缺乏神經(jīng)網(wǎng)絡(luò)和注意力機制的淺層推薦模型的啟發(fā),作者在BCFNet模型中加入廣義矩陣分解(GMF)模型[12]作為均衡模塊。GMF作為一種淺層矩陣分解模型,采用線性嵌入函數(shù)作為表示函數(shù),點積作為匹配函數(shù),彌補了MLP在捕獲低秩關(guān)系方面的不足,緩解了DNNs中的過擬合問題。 實驗結(jié)果 隨著物品人氣水平的提高,BCFNet和無B的BCFNet的效果將會得到極大的提高。但是,隨著物品人氣水平的提高,平衡模塊的大部分推廣效果會減弱,即在物品人氣最小的情況下獲得了最高的推廣效果。這充分說明了平衡模塊有助于緩解項目交互信息的高稀疏性導致的過擬合問題。 平衡模塊對五個數(shù)據(jù)集上不同項目受歡迎程度的子數(shù)據(jù)集性能的影響
本文提出了一種新的推薦模型——平衡協(xié)同過濾網(wǎng)絡(luò)(BCFNet),該模型結(jié)合了注意表征學習(BCFNet-rl)、注意匹配函數(shù)學習(BCFNet-ml)和平衡模塊(BCFNet-bm)。因此,它兼具表示學習和匹配函數(shù)學習的優(yōu)點。此外,通過引入前饋注意層,可以進一步提高注意表征學習和注意匹配功能學習的學習能力。此外,在不使用神經(jīng)網(wǎng)絡(luò)和注意機制的情況下增加平衡模塊可以緩解過擬合問題,捕獲低秩關(guān)系。在8個真實數(shù)據(jù)集上的大量實驗證明了所提出的BCFNet模型的有效性和合理性。 論文鏈接:https:///pdf/2103.06105.pdf 每日堅持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學。 - END - |
|
|