close

來源:Deephub Imba

本文約2000字,建議閱讀5分鐘

本文為你介紹了如批量大小在機器學習中的重要性。


批大小是機器學習中重要的超參數之一。這個超參數定義了在更新內部模型參數之前要處理的樣本數量。


上圖為使用 SGD 測試不同批量大小的示例。

批量大小可以決定許多基於深度學習的神經網絡的性能。有很多研究都在為學習過程評估最佳批量大小。例如,對於 SGD可以使用批量梯度下降(使用批量中的所有訓練樣本)或小批量(使用一部分訓練數據),甚至在每個樣本後更新(隨機梯度下降)。這些不同的處理方式可以改變模型訓練的的效果。


準確性並不是我們關心的唯一性能指標。模型的泛化能力可能更加重要。因為如果我們的模型在看不見的數據上表現不佳它就毫無用處。使用更大的批量會導致更差的網絡泛化。論文「ON LARGE-BATCH TRAINING FOR DEEP LEARNING: GENERALIZATION GAP AND SHARP MINIMA」的作者試圖調查這種現象並找出為什麼會發生這種情況。他們的發現很有趣,所以我將在本文中進行詳細介紹。了解這一點將能夠為自己的神經網絡和訓練方式做出更好的決策。

理解論文的假設

要理解任何論文,首先要了解作者試圖證明的內容。作者聲稱他們發現了為什麼大批量會導致更差的泛化。他們「提供了支持大批量方法趨向於收斂到訓練和測試函數的sharp minima(尖銳的最小值)的觀點的數值證據——眾所周知,sharp minima會導致較差的泛化。而小批量方法始終收斂到flat minima(平坦的最小值),論文的實驗支持一個普遍持有的觀點,即這是由於梯度估計中的固有噪聲造成的。」 我們將在本篇文章中做更多的說明,所以讓我們一步一步來。下圖描繪了尖銳最小值和平坦最小值之間的差異。


對於尖銳的最小值,X 的相對較小的變化會導致損失的較大變化

一旦你理解了這個區別,讓我們理解作者驗證的兩個(相關的)主要主張:

使用大批量將使訓練過程有非常尖銳的損失情況。而這種尖銳的損失將降低網絡的泛化能力。
較小的批量創建更平坦的損失圖像。這是由於梯度估計中的噪聲造成的。

作者在論文中強調了這一點,聲明如下:


我們現在將查看他們提供的證據。他們設置實驗的一些方法很有趣,會教會我們很多關於設置實驗的知識。

定義銳度
銳度是一個易於掌握和可視化的直觀概念。但是它也存在有一些問題。例如機器學習對高維數據進行計算/可視化可能很費資源和時間。作者也提到了這一點, 所以他們使用更簡單的啟發式方法:通過相鄰點來進行銳度的檢查, 該函數的最大值就可以用於靈敏度的計算。

論文原文中說到:

我們採用了一種敏感性度量,雖然不完美,但在計算上是可行的,即使對於大型網絡也是如此。它基於探索解決方案的一個小鄰域並計算函數 f 在該鄰域中可以達到的最大值。我們使用該值來測量給定局部最小值處訓練函數的靈敏度。由於最大化過程是不準確的,並且為了避免被僅在 Rn 的微小子空間中獲得較大 f 值的情況所誤導,我們在整個空間 Rn 以及隨機流形中都執行了最大化

需要注意的是,作者將一定程度的交叉驗證集成到程序中。雖然從解決方案空間中獲取多個樣本似乎過於簡單,但這是一種非常強大的方法並且適用於大多數情況。如果你對他們計算的公式感興趣,它看起來像這樣。


查看相關的證明
我們了解了作者提出的基本術語/定義,讓我們看看提出的一些證據。本篇文章中無法分享論文/附錄中的所有內容,所以如果你對所有細節感興趣可以閱讀論文的原文。


在上面的圖中可以看到交叉熵損失與銳度的關係圖。從圖中可以看到,當向右移動時損失實際上越來越小。那麼這個圖表是什麼意思呢?隨着模型的成熟(損失減少),Large Batch 模型的清晰度會增加。用作者的話來說,「對於在初始點附近的較大的損失函數值,小批次和大批次 方法產生相似的銳度值。隨着損失函數的減小,與 大批次 方法相對應的迭代的銳度迅速增加,而對於 小批次 方法銳度最初保持相對恆定然後降低,這表明在探索階段之後會收斂到平坦的最小化器。」

作者還有其他幾個實驗來展示結果。除了在不同類型的網絡上進行測試外,他們還在小批量和大批量網絡上使用了熱啟動。結果也與我們所看到的非常一致。

我在論文中發現的一個有趣的觀點是,當他們證明了這種較低的泛化與使用較大批大小時的模型過擬合或過度訓練無關時。很容易假設過擬合是低泛化的原因(一般情況下我們都這麼理解),但作者反對這一點。要了解他們的論點,請查看此表:


小批量訓練通常具有更好的訓練性能。即使在我們使用小批量訓練的訓練精度較低的網絡中,我們也注意到會有更高的訓練精度。作者以下原文可以作為重點,「我們強調,泛化差距不是由於統計中常見的過擬合或過度訓練造成的。這種現象以測試準確度曲線的形式表現出來,該曲線在某個迭代峰值處,然後由於模型學習訓練數據的特性而衰減。這不是我們在實驗中觀察到的。F2和C1網絡的訓練-測試曲線見圖2,它們是其他網絡的代表。因此,旨在防止模型過擬合的早停的啟發式方法並不能夠縮小泛化差距。」


看看網絡收斂到測試精度的速度有多快

簡而言之,如果這是過度擬合的情況,將不會看到大批次方法的性能始終較低。相反通過更早的停止,我們將避免過擬合併且性能會更接近。這不是我們觀察到的。我們的學習曲線描繪了一幅截然不同的表現。


最後論文的地址如下,有興趣的可以自行閱讀:

https://arxiv.org/abs/1609.04836

編輯:王菁

校對:龔力

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 鑽石舞台 的頭像
    鑽石舞台

    鑽石舞台

    鑽石舞台 發表在 痞客邦 留言(0) 人氣()