[go: nahoru, domu]

跳转到内容

過適:修订间差异

维基百科,自由的百科全书
删除的内容 添加的内容
Xpenxpen留言 | 贡献
重定向
Liangent-bot留言 | 贡献
撤销Xpenxpen于2016年6月7日 (二) 01:39的版本40389040中的繁简改动
第4行: 第4行:
}}
}}


在[[統計學]]中,'''過適'''({{lang-en|'''overfitting'''}},或稱'''過度擬合''')[[現象]]是指在調適一個[[统计模型]]時,使用過多[[參數]]。對比於可取得的資料總量來說,一個荒謬的模型只要足夠複雜,是可以完美地適應資料。過適一般可以識為違反[[奥卡姆剃刀]]原則。當可選擇的參數的自由度超過資料所包含資訊內容時,這會導致最後(調適後)模型使用任意的參數,這會減少或破壞模型一般化的能力更甚於適應資料。過適的可能性不只取決於參數個數和資料,也跟模型架構與資料的一致性有關。此外對比於資料中預期的雜訊或錯誤數量,跟模型錯誤的數量也有關。
在[[統計學]]中,'''過適'''({{lang-en|'''overfitting'''}},或稱'''過度擬合''')[[現象]]是指在調適一個[[統計模型]]時,使用過多[[參數]]。對比於可取得的資料總量來說,一個荒謬的模型只要足夠複雜,是可以完美地適應資料。過適一般可以識為違反[[奥卡姆剃刀]]原則。當可選擇的參數的自由度超過資料所包含資訊內容時,這會導致最後(調適後)模型使用任意的參數,這會減少或破壞模型一般化的能力更甚於適應資料。過適的可能性不只取決於參數個數和資料,也跟模型架構與資料的一致性有關。此外對比於資料中預期的雜訊或錯誤數量,跟模型錯誤的數量也有關。


過適現象的觀念對[[機器學習]]也是很重要的。通常一個學習[[演算法]]是藉由訓練範例來訓練的。亦即預期結果的範例是可知的。而學習者則被認為須達到可以預測出其它範例的正確的結果,因此,應適用於一般化的情況而非只是訓練時所使用的現有資料(根據它的[[歸納偏向]])。然而,學習者卻會去適應訓練資料中太特化但又隨機的特徵,特別是在當學習過程太久或範例太少時。在過適的過程中,當預測訓練範例結果的表現增加時,應用在未知資料的表現則變更差。
過適現象的觀念對[[機器學習]]也是很重要的。通常一個學習[[演算法]]是藉由訓練範例來訓練的。亦即預期結果的範例是可知的。而學習者則被認為須達到可以預測出其它範例的正確的結果,因此,應適用於一般化的情況而非只是訓練時所使用的現有資料(根據它的[[歸納偏向]])。然而,學習者卻會去適應訓練資料中太特化但又隨機的特徵,特別是在當學習過程太久或範例太少時。在過適的過程中,當預測訓練範例結果的表現增加時,應用在未知資料的表現則變更差。

2016年6月7日 (二) 01:39的版本

統計學中,過適(英語:overfitting,或稱過度擬合現象是指在調適一個統計模型時,使用過多參數。對比於可取得的資料總量來說,一個荒謬的模型只要足夠複雜,是可以完美地適應資料。過適一般可以識為違反奥卡姆剃刀原則。當可選擇的參數的自由度超過資料所包含資訊內容時,這會導致最後(調適後)模型使用任意的參數,這會減少或破壞模型一般化的能力更甚於適應資料。過適的可能性不只取決於參數個數和資料,也跟模型架構與資料的一致性有關。此外對比於資料中預期的雜訊或錯誤數量,跟模型錯誤的數量也有關。

過適現象的觀念對機器學習也是很重要的。通常一個學習演算法是藉由訓練範例來訓練的。亦即預期結果的範例是可知的。而學習者則被認為須達到可以預測出其它範例的正確的結果,因此,應適用於一般化的情況而非只是訓練時所使用的現有資料(根據它的歸納偏向)。然而,學習者卻會去適應訓練資料中太特化但又隨機的特徵,特別是在當學習過程太久或範例太少時。在過適的過程中,當預測訓練範例結果的表現增加時,應用在未知資料的表現則變更差。

在統計和機器學習中,為了避免過適現象,須要使用額外的技巧(如交叉驗證early stopping貝斯信息量準則英语Bayesian information criterion赤池信息量準則model comparison),以指出何時會有更多訓練而沒有導致更好的一般化。人工神經網路的過適過程亦被認知為過度訓練(英語:overtraining)。在treatmeant learning中,使用最小最佳支援值(英語:minimum best support value)來避免過適。

相對於過適是指,使用過多參數,以致太適應資料而非一般情況,另一種常見的現象是使用太少參數,以致於不適應資料,這則稱為乏適(英語:underfitting,或稱:擬合不足)現象。

參考文獻

外部連結

參見