自適應增強

[1]AdaBoost方法的自適應在於:後面的分類器會在那些被之前分類器分錯的樣本上訓練。 AdaBoost方法是一種疊代算法,在每一輪中加入一個新的弱分類器,直到達到某個預定的足夠小的錯誤率。 通過這樣的方式,AdaBoost方法能“聚焦於”那些較困難(更富信息)的樣本上。

自適應增強)的縮寫,是一種機器學習方法,由YoavFreund和RobertSchapire提出。[1]AdaBoost方法的自適應在於:後面的分類器會在那些被之前分類器分錯的樣本上訓練。AdaBoost方法對於噪聲數據和異常數據很敏感。但在一些問題中,相比於大多數學習算法,AdaBoost方法對於過擬合問題不夠敏感。AdaBoost方法中使用的分類器可能很弱(比如出現很大錯誤率),但其分類效果只要比隨機好一點(比如它的二分類錯誤率略小於0.5),就能夠改善最終模型。即使是那些錯誤率高於隨機分類器的弱分類器也是有用的,因為在最終的多個分類器的線性組合中,可以給它們賦予負係數,反過來也能提升分類效果。
AdaBoost方法是一種疊代算法,在每一輪中加入一個新的弱分類器,直到達到某個預定的足夠小的錯誤率。每一個訓練樣本都被賦予一個權重,表明它被某個分類器選入訓練集的機率。如果某個樣本點已經被準確地分類,那么在構造下一個訓練集中,它被選中的機率就被降低;相反,如果某個樣本點沒有被準確地分類,那么它的權重就得到提高。通過這樣的方式,AdaBoost方法能“聚焦於”那些較困難(更富信息)的樣本上。在具體實現上,最初令每個樣本的權重都相等,對於第k次疊代操作,我們就根據這些權重來選取樣本點,勁兒訓練分類器Ck。然後就根據這個分類器,來提高被它分錯的的樣本的權重,並降低被正確分類的樣本權重。然後,權重更新過的樣本集被用於訓練下一個分類器Ck。[2]整個訓練過程如此疊代地進行下去。

相關詞條

熱門詞條

聯絡我們