国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

新網(wǎng)站前期如何做seo怎么在百度免費推廣

新網(wǎng)站前期如何做seo,怎么在百度免費推廣,龍崗營銷網(wǎng)站建設(shè),長春網(wǎng)站建設(shè)及推廣集成學(xué)習(xí)在數(shù)學(xué)建模中的應(yīng)用 一、集成學(xué)習(xí)概述(一)基知(二)相關(guān)術(shù)語(三)集成學(xué)習(xí)為何能提高性能?(四)集成學(xué)習(xí)方法 二、Bagging方法(一)裝袋&…

集成學(xué)習(xí)在數(shù)學(xué)建模中的應(yīng)用

  • 一、集成學(xué)習(xí)概述
    • (一)基知
    • (二)相關(guān)術(shù)語
    • (三)集成學(xué)習(xí)為何能提高性能?
    • (四)集成學(xué)習(xí)方法
  • 二、Bagging方法
    • (一)裝袋(Bagging)方法
    • (二)特點
    • (三)數(shù)據(jù)集劃分的其他方法
    • (四)參數(shù)設(shè)置
  • 三、Boost方法
    • (一)基知
    • (二)Boosting如何獲得多個弱分類器?
  • 四、AdaBoost算法
    • (一)基知
    • (二)弱分類器的權(quán)重
    • (三)樣本集的權(quán)重
    • (四)弱分類器的組合
    • (五)AdaBoost算法
    • (六)實例
    • (六)特點
    • (七)參數(shù)設(shè)置
  • 五、Bagging和Boost的區(qū)別
  • 六、模型的組合方法
    • (一)怎樣組合多個弱分類器?
    • (二)Averaging方法
    • (七)Stacking方法
      • (1)原理
      • (2)基礎(chǔ)訓(xùn)練過程
      • (3)交叉訓(xùn)練
      • (4)代碼示例

一、集成學(xué)習(xí)概述

(一)基知

分類器對數(shù)據(jù)集依賴強(qiáng),數(shù)據(jù)集紛雜,很難找到適用所有情況的分類器。比如,訓(xùn)練任務(wù)和目標(biāo)任務(wù)的數(shù)據(jù)分布不一致,數(shù)據(jù)過少等。

集成學(xué)習(xí)(Ensemble Learning) 是通過某種策略將多個模型集成起來,通過群體決策來提高決策準(zhǔn)確率

集成學(xué)習(xí)中的兩個核心問題是:
(1) 如何獲得多個模型?(2) 如何集成多個模型?

(二)相關(guān)術(shù)語

在這里插入圖片描述

(三)集成學(xué)習(xí)為何能提高性能?

(1)從模型的期望誤差分析

  • 設(shè)X是樣本集,yx 是樣本的真實的目標(biāo)值,對于T個不同的模型,第 t 個模型的期望平方誤差是:
    e ( f t ) = E x [ ( f t ( X ) ? y x ) 2 ] = E x [ ε t ( X ) 2 ] e(f_t)=E_x[(f_t(X)-y_x)^2]=E_x[\varepsilon_t(X)^2] e(ft?)=Ex?[(ft?(X)?yx?)2]=Ex?[εt?(X)2]
  • 集成模型 f 的期望平方誤差 e(f) 滿足:
    1 T ∑ t = 1 r E x [ ε t ( X ) 2 ] ≤ e ( f ) ≤ ∑ t = 1 r E x [ ε t ( X ) 2 ] \frac{1}{T}\sum_{t=1}^{r}E_{x}[\varepsilon_{t}(X)^{2}]\leq e(f)\leq\sum_{t=1}^{r}E_{x}[\varepsilon_{t}(X)^{2}] T1?t=1r?Ex?[εt?(X)2]e(f)t=1r?Ex?[εt?(X)2]
  • 投票規(guī)則的集成模型的期望錯誤大等于所有模型的平均期望錯誤的1/M,小于等于所有模型的平均期望錯誤
    (2)從模型的泛化誤差分析
    分類問題 f i ( X ) > 0.5 f_i(\mathbf{X}){>}0.5 fi?(X)>0.5,大部分樣本錯誤分類,投票后,集成學(xué)習(xí)器的錯誤率更高。
    回歸問題 E [ ( f i ( X ) ? y ) 2 ] > E [ ( y  ̄ ? y ) 2 ] \mathbb{E}[(f_i(\mathbb{X})-y)^2]>\mathbb{E}[(\overline{y}-y)^2] E[(fi?(X)?y)2]>E[(y??y)2],預(yù)測效果弱于均值預(yù)測,組合預(yù)測結(jié)果后,集成學(xué)習(xí)器的預(yù)測誤差更大
    在這里插入圖片描述

集成好于單個分類器的條件:

  1. 弱分類器獨立(難滿足)
  2. 弱分類器應(yīng)好于隨機(jī)猜測分類器,即 誤差<0.5(容易滿足)

(3)直觀理解集成方法對預(yù)測能力的提升

在這里插入圖片描述
提升的優(yōu)勢:
假設(shè)有25個弱分類器,且每個弱分類器的錯誤率均為0.35,采用少數(shù)服從多數(shù)的提升方式,只有當(dāng)超過13個弱分類器都對樣本x錯誤分類,才會導(dǎo)致x被誤分類。
e e n s e m b l e = ∑ i = 13 25 C 25 i ( 0.35 ) i ( 1 ? 0.35 ) 25 ? i = 0.06 e_{ ens em ble} = \sum_{i=13}^{25}C_{ 25}^{ i}(0.35)^{i}(1-0.35)^{25-i}=0.06 eensemble?=i=1325?C25i?(0.35)i(1?0.35)25?i=0.06

誤分類率降低!

(四)集成學(xué)習(xí)方法

在這里插入圖片描述
待解決的問題:

  1. 怎樣獲得不同的弱分類器?
    Bagging 和 Boosting 方法
  2. 如何將多個弱分類器組合成一個強(qiáng)分類器?
    投票法、加權(quán)平均、Stacking

二、Bagging方法

(一)裝袋(Bagging)方法

(1)Bagging方法是基于訓(xùn)練集的劃分
(又被稱為自舉匯聚法Bootstrap aggregating),對原始數(shù)據(jù)進(jìn)行自助采樣(bootstrap samples),形成T個數(shù)據(jù)集;訓(xùn)練每個數(shù)據(jù)集,獲得T個弱模型;用投票法或加權(quán)平均生成集成學(xué)習(xí)模型。
在這里插入圖片描述

自助采樣:有放回采樣,是重采樣的一種。

(2)實例
已知原數(shù)據(jù)集有10個樣本,利用裝袋法,產(chǎn)生預(yù)測模型。
在這里插入圖片描述
分別計算每個劃分點,根據(jù)信息熵或Gini系數(shù),發(fā)現(xiàn)分裂點0.35或0.75能產(chǎn)生最好的分類結(jié)果,故,采用0.35作為分類標(biāo)準(zhǔn)。決策樹單個分類器準(zhǔn)確率最高是70%。

信息熵:
E n t r o p y = ? ∑ i = 1 c p ( i ) log ? p ( i ) Entropy = -\sum_{\mathrm{i}=1}^{c} p(\mathrm{i}) \log p(i) Entropy=?i=1c?p(i)logp(i)
Gini系數(shù):
G i n i ( D ) = 1 ? ∑ i = 1 c p ( i ) 2 Gini(D) = 1 - \sum_{i=1}^{c} p(i)^{2} Gini(D)=1?i=1c?p(i)2
G i n i ( D , a ) = ∑ v = 1 V ∣ D v ∣ ∣ D ∣ G i n i ( D v ) Gini(D,a)=\sum_{v=1}^V\frac{|D_v|}{|D|}\mathrm{~Gini}\left(D_v\right) Gini(D,a)=v=1V?DDv???Gini(Dv?)
假設(shè)有c個類,樣本點屬于第 i 類的概率為 p ( i ) p(i) p(i)。信息熵和Gini系數(shù)都是用于衡量不確定性和多樣性的重要指標(biāo),它們的系數(shù)越小越好。

計算步驟:
在這里插入圖片描述
Step1:

  • 以 x = 0.35 作為劃分點,產(chǎn)生子集 {0.1, 0.2, 0.3} 和 {0.4 ~ 1}
    Gini(x=0.35)= (3/10) * [1-02-12] + (7/10) * [1-(4/7)2-(3/7)2] = 24/49
  • 類似地
    Gini(x=0.75)=(7/10) * [1-(4/7)2-(3/7)2] + (3/10) * [1-02-12] = 24/49

Step2:
重復(fù)采樣,10輪,每輪獲得分類器,準(zhǔn)確率在70%
在這里插入圖片描述
Step3:
多數(shù)表決 決定樣本的最終類別,10個樣本均正確分類。
裝袋通過降低弱分類器方差改變了泛化誤差。在這里插入圖片描述

(二)特點

  • 結(jié)構(gòu)簡單,表現(xiàn)不錯。
  • 通過隨機(jī)改變訓(xùn)練集的分布,產(chǎn)生新的訓(xùn)練子集。某些數(shù)據(jù)對象被多次采樣,對于特定的子空間,弱學(xué)習(xí)器會具有很高的分類精度。
  • 弱學(xué)習(xí)器預(yù)測能力越強(qiáng)且它們之間的差異越大,集成模型效果越好。
  • Bagging方法不偏好任何基學(xué)習(xí)器,可以降低模型的方差,對不穩(wěn)定學(xué)習(xí)算法非常有效。
  • 適合小算例集,在大規(guī)模訓(xùn)練集上效果會下降(參見改進(jìn)模型)。

(三)數(shù)據(jù)集劃分的其他方法

(1)依據(jù)數(shù)據(jù)或特征對原始訓(xùn)練數(shù)據(jù)劃分,形成多個數(shù)據(jù)集。如隨機(jī)森林(Random Forest) 方法。
(2)依據(jù)數(shù)據(jù)的類標(biāo)號對原始訓(xùn)練數(shù)據(jù)劃分,形成迭代的二分類問題。如錯誤-糾正輸出編碼方法。
(3)依據(jù)算法模型的變化,獲得不同的弱學(xué)習(xí)模型。如改變神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)或算法添加隨機(jī)性。

(四)參數(shù)設(shè)置

在這里插入圖片描述

  • n_estimators:基學(xué)習(xí)器個數(shù)。
  • criterion:分裂標(biāo)準(zhǔn),squared_error均方差;均方差等價于特征的方差減少和最小化L2正則項。friedman_mse費爾德曼均方誤差。
  • max_depth:樹的最大深度,防止過擬合。
  • min_samples_split:內(nèi)部節(jié)點再劃分所需要的最少樣本數(shù),限制是否繼續(xù)分裂。
  • min_samples_leaf:葉子節(jié)點的最少樣本數(shù),用于剪枝。
  • min_weight_fraction_leaf:葉子節(jié)點所有樣本權(quán)重的最小值。如果小于這個權(quán)重,那么和它的兄弟節(jié)點一起被剪枝。
  • max_features: None,auto考慮所有特征;log2最多考慮 log2N 個特征;sqrt最多考慮平方根個特征;整數(shù)表示特征的絕對數(shù);浮點數(shù)表示考慮的特征個數(shù)的百分比。節(jié)省建樹代價。
  • max_leaf_nodes:樹的最大葉子結(jié)點數(shù),防止過擬合。
  • min_impurity_decrease:結(jié)點分裂的純度減少的最小值,限制是否繼續(xù)分裂。
  • min_samples_leaf:葉子節(jié)點的最少樣本數(shù),用于剪枝。
  • bootstrap:布爾值,是否使用bootstrap采樣。false,全部數(shù)據(jù)參與訓(xùn)練每個棵樹。
  • oob_score:布爾值,是否采用袋外樣本(out-of-bag sample)來評估模型的好壞。與交叉驗證類似,可以理解為驗證集。當(dāng)bootstrap為真時,使用。oob_score是單顆決策樹返回的在驗證集上的R2值。
  • n_jobs:并行計算作業(yè)數(shù)量。

三、Boost方法

(一)基知

提升(Boosting)方法是一種常用的統(tǒng)計學(xué)習(xí)方法,是一種將弱學(xué)習(xí)器轉(zhuǎn)換為強(qiáng)學(xué)習(xí)器的迭代方法。在分類問題中, AdaBoost通過改變訓(xùn)練樣本的權(quán)重,學(xué)習(xí)多個分類器,并將這些分類器進(jìn)行線性組合,提升分類的性能。

代表性算法AdaBoost,是1995年由Freund和Schapire提出的。

(二)Boosting如何獲得多個弱分類器?

  1. 從原數(shù)據(jù)集中,抽樣樣本組成訓(xùn)練集;
  2. 產(chǎn)生弱學(xué)習(xí)器,去除已正確分類的樣本,保留誤分類樣本
  3. 從原數(shù)據(jù)集中,再抽取樣本,與上一輪的誤分類樣本構(gòu)成新的訓(xùn)練集;
  4. 重復(fù)(2)-(3)步驟,直至獲得T個分類器;
  5. 組合弱學(xué)習(xí)器,形成強(qiáng)學(xué)習(xí)器。
    在這里插入圖片描述

四、AdaBoost算法

(一)基知

在這里插入圖片描述

  • 問題1 怎樣獲得多個弱分類器?
    AdaBoost算法提高那些在前一輪弱分類器錯誤分類的樣本的權(quán)值降低那些被正確分類樣本的權(quán)值。
  • 問題2 如何將多個弱分類器組合成一個強(qiáng)分類器?
    AdaBoost算法采用加權(quán)表決的方法。具體地,加大分類誤差率小的弱分類器的權(quán)值,使其在表決中起到較大的作用。
    f ( x ) = α 1 f 1 ( x ) + α 2 f 2 ( x ) + . . . . . . + α T f T ( x ) f(x){=}\alpha_{1}f_{1}(x){+}\alpha_{2}f_{2}(x){+}......+\alpha_{\mathrm{T}}f_{\mathrm{T}}(x) f(x)=α1?f1?(x)+α2?f2?(x)+......+αT?fT?(x)

(二)弱分類器的權(quán)重

設(shè)訓(xùn)練集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } , y i ∈ { ? 1 , + 1 } D=\{(x_{1},y_{1}),(x_{2},y_{2}),...,(x_{N},y_{N})\}, y_{i}\in\{-1,+1\} D={(x1?,y1?),(x2?,y2?),...,(xN?,yN?)},yi?{?1,+1},產(chǎn)生T個弱分類器,其中

  • 第 j 個分類器 fj錯誤率定義為:

ε j = 1 N [ ∑ i = 1 N w i I ( f j ( x i ) ≠ y i ) ] , j = 1 , 2 , . . . , T \varepsilon_{j}=\frac{1}{N}[\sum_{i=1}^{N}w_{i}I(f_{j}(x_{i})\neq y_{i})], j=1,2,...,T εj?=N1?[i=1N?wi?I(fj?(xi?)=yi?)],j=1,2,...,T
弱分類器的誤分類率 εj 是錯誤分類樣本的加權(quán)平均,N是樣本數(shù),wi是第 i 個樣本權(quán)重,指示函數(shù) I(?) 等于0或1。wi是歸一化后的值。

  • 弱分類器 fj重要性(權(quán)重)定義為:

α j = 1 2 l n ( 1 ? ε j ε j ) , j = 1 , 2 , . . . , T \alpha_{ j}=\frac{1}{2}\mathbf{ln} (\frac{1-\varepsilon_{ j}}{\varepsilon_{ j}}), j=1,2,...,T αj?=21?ln(εj?1?εj??),j=1,2,...,T
在這里插入圖片描述

α j \alpha_{j} αj?= 0.5,αj = 0;
α j \alpha_{j} αj? < 0.5 且 α j \alpha_{j} αj?→ 0, α j \alpha_{j} αj?是一個很大的正值;
α j \alpha_{j} αj? > 0.5 且 α j \alpha_{j} αj?→ 1, α j \alpha_{j} αj?是一個很大的負(fù)值;

結(jié)論誤差大的分類器,在預(yù)測結(jié)果表決時,權(quán)重小。

(三)樣本集的權(quán)重

  • 初始樣本權(quán)重設(shè)為:
    w 1 i = 1 N , i = 1... N w_{_{1i}}=\frac{1}{N},i=1...N w1i??=N1?,i=1...N
  • 樣本權(quán)重更新操作:

Z j = ∑ i = 1 N w j i exp ? ( ? α j y i f j ( x i ) ) Z_{ j}=\sum_{i=1}^{N}w_{ ji}\exp{(-\alpha_{ j}y_{i}f_{ j}(x_{ i}))} Zj?=i=1N?wji?exp(?αj?yi?fj?(xi?))
w j + 1 , i = w j i Z j exp ? ( ? α j y i f j ( x i ) ) , i = 1... N , j = 1 , . . . , T ? w j + 1 , i = { exp ? ( ? α j ) Z j w j i , y i = f j ( x i ) exp ? ( α j ) Z j w j i , y i ≠ f j ( x i ) , α j = 1 2 ln ? 1 ? ε j ε j w_{j+1, i}=\frac{w_{ji}}{Z_{j}}\exp(-\alpha_{j}y_{i}f_{j}(x_{i})),i=1...N ,j=1,...,T\\\Rightarrow w_{j+1, i}=\begin{cases}\frac{\exp(-\alpha_{j})}{Z_{j}}w_{ji}, y_{i}=f_{j}(x_{i})\\\frac{\exp(\alpha_{j})}{Z_{j}}w_{ji}, y_{i}\neq f_{j}(x_{i})\end{cases}, \alpha_{j}=\frac{1}{2}\ln\frac{1-\varepsilon_{j}}{\varepsilon_{j}} wj+1,i?=Zj?wji??exp(?αj?yi?fj?(xi?)),i=1...N,j=1,...,T?wj+1,i?={Zj?exp(?αj?)?wji?,yi?=fj?(xi?)Zj?exp(αj?)?wji?,yi?=fj?(xi?)?,αj?=21?lnεj?1?εj??
w j + 1 , i w_{j+1,i} wj+1,i?是第 i 個樣本在 j+1 個學(xué)習(xí)器中的權(quán)重。
誤分類的樣本的權(quán)重在下一次學(xué)習(xí)中起到了更大的作用,且權(quán)重是指數(shù)級更新。
在這里插入圖片描述

(四)弱分類器的組合

強(qiáng)分類器是T個弱分類器 f j f_{j} fj?的線性組合,定義為:
C ? ( x ) = s i g n ( f ( x ) ) = s i g n ( ∑ j = 1 r α j f j ( x ) ) C^*(x)=sign(f(x))=sign(\sum_{j=1}^r\alpha_jf_j(x)) C?(x)=sign(f(x))=sign(j=1r?αj?fj?(x))
x是待分類對象, f j f_{j} fj?是第 j 個弱分類器,C* 是分類結(jié)果。
對于x,分類結(jié)果C*(x)是T個弱分類器分類結(jié)果的加權(quán)表決。

當(dāng)f(x)為負(fù)數(shù),x被分類為-1。
當(dāng)f(x)為正數(shù),x被分類為1。

(五)AdaBoost算法

輸入:訓(xùn)練集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } , y i ∈ { ? 1 , + 1 } D=\{(x_{1},y_{1}),(x_{2},y_{2}),...,(x_{N},y_{N})\}, y_{i}\in\{-1,+1\} D={(x1?,y1?),(x2?,y2?),...,(xN?,yN?)},yi?{?1,+1},T個基學(xué)習(xí)器。
輸出:最終分類器 f ( x ) f(x) f(x)。

  1. 初始化訓(xùn)練數(shù)據(jù)的權(quán)值分布, D 1 = { w 11 , w 12 , w 1 i , . . . , w 1 N } , w 1 i = 1 / N D_1=\{w_{11} ,w_{12},w_{1i},...,w_{1N}\},w_{1i}=1/N D1?={w11?,w12?,w1i?,...,w1N?},w1i?=1/N
  2. F o r j = 1...... T \mathrm{For} j=1......\mathrm{T} Forj=1......T
  3. 使用具有權(quán)值分布的訓(xùn)練集Dj進(jìn)行訓(xùn)練,得到基分類器 f j ( x ) f_{j}\left(x\right) fj?(x) X → { ? 1 , + 1 } X\to\{-1,+1\} X{?1,+1}
    X→{-1,+1}
  4. 計算 f j ( x ) f_{j}\left(x\right) fj?(x)的分類誤差率
    ε j = 1 N [ ∑ i = 1 N w i I ( f j ( x i ) ≠ y i ) ] \varepsilon_{j}=\frac{1}{N}[\sum_{i=1}^{N}w_{i}I(f_{j}(x_{i})\neq y_{i})] εj?=N1?[i=1N?wi?I(fj?(xi?)=yi?)]
  5. 計算 f j ( x ) f_{j}\left(x\right) fj?(x)的系數(shù)
    α j = 1 2 l n ( 1 ? ε j ε j ) \alpha_{j}=\frac{1}{2}\mathbf{ln}(\frac{1-\varepsilon_{j}}{\varepsilon_{j}}) αj?=21?ln(εj?1?εj??)
  6. 更新訓(xùn)練數(shù)據(jù)集的權(quán)重分布
    w j + 1 , i = w j i Z e x p ( ? α j y i f j ( x i ) ) w_{_{j+1, i}}=\frac{w_{_{ji}}}{Z}\mathbf{e} \mathbf{x} \mathbf{p}(-\alpha_{_j}y_{_i}f_{_j}(x_{_i})) wj+1,i??=Zwji???exp(?αj??yi??fj??(xi??))
  7. 由基分類器的線性組合,獲得強(qiáng)分類器 f ( x ) f\left(x\right) f(x)

(六)實例

在這里插入圖片描述

初始化權(quán)重分布: w 1 i = 0.1 , i = 1 , 2 , … , 10 \mathrm{w_{1i}}=0.1,\mathrm{i}=1,2,\ldots,10 w1i?=0.1,i=1,2,,10

第1輪迭代:
①產(chǎn)生第1個弱分類器 j = 1;在D1數(shù)據(jù)集上,閾值取2.5,分類誤差率最小 ? f 1 ( x ) = { 1 , x < 2.5 ? 1 , x > 2.5 \Rightarrow f_1(x)=\begin{cases} 1, x<2.5\\-1, x>2.5\end{cases} ?f1?(x)={1,x<2.5?1,x>2.5?
②f1在D1的上的誤差 e 1 = 0.1 × 3 = 0.3 e_1=0.1\times3=0.3 e1?=0.1×3=0.3
f = 0.4236 f 1 ( x ) f=0.4236f_1(x) f=0.4236f1?(x),對D1預(yù)測,3個樣本誤分類;
③f1的權(quán)重 α 1 = 1 2 l n 1 ? e 1 e 1 = 0.4236 \alpha_{_1}=\frac{1}{2}\mathbf{ln} \frac{1-e_{_1}}{e_{_1}}= 0.4 2 3 6 α1??=21?lne1??1?e1???=0.4236
④更新樣本權(quán)重
D 2 = ( 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.1666 , 0.1666 , 0.1666 , 0.0715 ) D_{2}=(0.0715,0.0715,0.0715,0.0715,0.0715,\boxed{0.1666,0.1666,0.1666},0.0715) D2?=(0.0715,0.0715,0.0715,0.0715,0.0715,0.1666,0.1666,0.1666?,0.0715)

第2輪迭代:
①在權(quán)值分布為D2的數(shù)據(jù)集上,閾值取8.5,分類誤差率最小,產(chǎn)生第2個弱分類器:
? f 2 ( x ) = { 1 , x < 8.5 ? 1 , x > 8.5 \Rightarrow f_2( x )=\begin{cases} 1,&x < 8 .5\\-1,&x > 8 .5\end{cases} ?f2?(x)={1,?1,?x<8.5x>8.5?
② f2在D2的上的誤差: e 2 = 0.0715 × 3 = 0.2143 e_2=0.0715\times3=0.2143 e2?=0.0715×3=0.2143
③ f2的權(quán)重: α 2 = 1 2 l n 1 ? e 2 e 2 = 0.6496 \alpha_{_2}=\frac{1}{2}\mathbf{ln}\frac{1-e_{_2}}{e_{_2}}=0.6496 α2??=21?lne2??1?e2???=0.6496
f = 0.4236 f 1 ( x ) + 0.6496 f 2 ( x ) f=0.4236f_1(x)+0.6496f_2(x) f=0.4236f1?(x)+0.6496f2?(x),對D1分類,有3個樣本誤分類;
④更新樣本權(quán)重:
D 2 = ( 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.0715 , 0.1666 , 0.1666 , 0.1666 , 0.0715 ) D_{2}=(0.0715,0.0715,0.0715,0.0715,0.0715,0.0715,\boxed{0.1666,0.1666,0.1666},0.0715) D2?=(0.0715,0.0715,0.0715,0.0715,0.0715,0.0715,0.1666,0.1666,0.1666?,0.0715)

第3輪迭代:
① 在權(quán)值分布為D3的數(shù)據(jù)集上,閾值取5.5,分類誤差率最小,產(chǎn)生第3個弱分類器:
? f 3 ( x ) = { 1 , x < 5.5 ? 1 , x > 5.5 \Rightarrow f_{3}(x)=\begin{cases} 1, x<5.5\\-1, x>5.5\end{cases} ?f3?(x)={1,x<5.5?1,x>5.5?
② f3在D3的上的誤差: e 3 = 0.0455 × 4 = 0.1820 e_3=0.0455\times4=0.1820 e3?=0.0455×4=0.1820
③ f3的權(quán)重: α 3 = 1 2 l n 1 ? e 3 e 3 = 0.7514 \alpha_{_3}=\frac{1}{2}\mathbf{ln} \frac{1-e_{_3}}{e_{_3}}= 0.7 5 1 4 α3??=21?lne3??1?e3???=0.7514
④更新樣本權(quán)重: D 4 = ( 0.125 , 0.125 , 0.125 , 0.102 , 0.102 , 0.102 , 0.065 , 0.065 , 0.065 , 0.125 ) D_{4}=(0.125,0.125,0.125,0.102,0.102,0.102,0.065,0.065,0.065,0.125) D4?=(0.125,0.125,0.125,0.102,0.102,0.102,0.065,0.065,0.065,0.125)

f ( x ) = 0.4236 f 1 ( x ) + 0.6496 f 2 ( x ) + 0.7514 f 3 ( x ) f(x)=0.4236f_1(x)+0.6496f_2(x)+0.7514f_3(x) f(x)=0.4236f1?(x)+0.6496f2?(x)+0.7514f3?(x),對D1分類,有0個樣本誤分類;生成分類器過程終止。
強(qiáng)分類器是 f ( x ) = 0.4236 f 1 ( x ) + 0.6496 f 2 ( x ) + 0.7514 f 3 ( x ) f(x)=0.4236f_1(x)+0.6496f_2(x)+0.7514f_3(x) f(x)=0.4236f1?(x)+0.6496f2?(x)+0.7514f3?(x)

達(dá)到最大迭代次數(shù)或誤分類率小于指定閾值等條件,算法終止。

(六)特點

  • 優(yōu)點:泛化錯誤率低,易編碼,可以應(yīng)用在大部分分類器上,無參數(shù)調(diào)整。
  • 缺點:對離群點敏感
  • 適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱型

提升方法的直觀理解
在這里插入圖片描述

(七)參數(shù)設(shè)置

在這里插入圖片描述

  • base_estimator:基學(xué)習(xí)器。None表示默認(rèn)學(xué)習(xí)器是深度為1的決策樹分類器。如果指定其他學(xué)習(xí)器,需給出樣本的權(quán)重。
  • n_estimators:基學(xué)習(xí)器個數(shù)。
  • learning_rate:浮點數(shù),學(xué)習(xí)率,取值[0,1]。弱學(xué)習(xí)器的權(quán)重縮減的系數(shù)。若基學(xué)習(xí)器個數(shù)較大,則學(xué)習(xí)率可適當(dāng)取大一些的值,否則取小一點的值,以免錯過最優(yōu)解。
  • algorithm:SAMME用對樣本集分類效果作為弱學(xué)習(xí)器權(quán)重,而SAMME.R使用了對樣本集分類的預(yù)測概率大小來作為弱學(xué)習(xí)器權(quán)重。SAMME.R迭代一般比SAMME快。
  • random_state:隨機(jī)種子。

另:

1. AdaBoostClassifier的對象

  • estimators_:以列表的形式返回所有的分類器。
  • classes_:類別標(biāo)簽
  • estimator_weights_:每個分類器權(quán)重
  • estimator_errors_:每個分類器的錯分率,與分類器權(quán)重相對應(yīng)。
  • feature_importances_:特征重要性,這個參數(shù)使用前提是基分類器也支持這個屬性。
    2. AdaBoostClassifier的方法
  • decision_function(X):返回決策函數(shù)值(比如svm中的決策距離)
  • fit(X,Y):在數(shù)據(jù)集(X,Y)上訓(xùn)練模型。
  • get_parms():獲取模型參數(shù)
  • predict(X):預(yù)測數(shù)據(jù)集X的結(jié)果。
  • predict_log_proba(X):預(yù)測數(shù)據(jù)集X的對數(shù)概率。
  • predict_proba(X):預(yù)測數(shù)據(jù)集X的概率值。
  • score(X,Y):輸出數(shù)據(jù)集(X,Y)在模型上的準(zhǔn)確率。
  • staged_decision_function(X):返回每個基分類器的決策函數(shù)值
  • staged_predict(X):返回每個基分類器的預(yù)測數(shù)據(jù)集X的結(jié)果。
    .- staged_predict_proba(X):返回每個基分類器的預(yù)測數(shù)據(jù)集X的概率結(jié)果。
  • **staged_score(X, Y)**返回每個基分類器的預(yù)測準(zhǔn)確率

在這里插入圖片描述
l loss:? { ‘linear’,‘square’,‘exponential’ } \text{loss: }\{\text{‘linear’,‘square',‘exponential’}\} loss:?{‘linear’,‘square’,‘exponential’},每次迭代時,采用的損失函數(shù)
在這里插入圖片描述


五、Bagging和Boost的區(qū)別

1. 樣本選擇
Bagging:訓(xùn)練集是在原始集中有放回選取的,從原始集中選出的各輪訓(xùn)練集之間是獨立的。
Boosting:每一輪的訓(xùn)練集不變,只是訓(xùn)練集中每個樣例 在分類器中的權(quán)重發(fā)生變化,而權(quán)值是根據(jù)上一輪的分類結(jié)果進(jìn)行調(diào)整。
2. 樣例權(quán)重
Bagging:使用均勻取樣,每個樣例的權(quán)重相等。
Boosting:根據(jù)錯誤率不斷調(diào)整樣例的權(quán)值,錯誤率越大則權(quán)重越大。
3. 預(yù)測模型
Bagging:所有弱學(xué)習(xí)器的權(quán)重相等。
Boosting:每個弱學(xué)習(xí)器都有相應(yīng)的權(quán)重,對于誤差小的學(xué)習(xí)器會有更大的權(quán)重。
4. 并行計算
Bagging:各個弱學(xué)習(xí)器可以并行生成。
Boosting:各個弱學(xué)習(xí)器只能順序生成,因為后一個模型參數(shù)需要前一輪模型的結(jié)
果。
5. 計算效果
Bagging:因為各個訓(xùn)練子集之間是獨立的,所以降低了弱學(xué)習(xí)器的方差,從而改進(jìn)了泛化誤差。
Boosting:因為弱學(xué)習(xí)器針對錯誤樣本學(xué)習(xí),所以降低了學(xué)習(xí)器的偏差,從而改進(jìn)了泛化誤差。


六、模型的組合方法

(一)怎樣組合多個弱分類器?

  • 多專家組合:一種并行結(jié)構(gòu),所有的弱分類器都給出各自的預(yù)測結(jié)果,通過“組合”把這些預(yù)測結(jié)果轉(zhuǎn)換為最終結(jié)果。 (eg.投票及其變種、混合專家模型)
  • 多級組合:一種串行結(jié)構(gòu),下一個分類器只在前一個分類器預(yù)測不夠準(zhǔn)的實例上進(jìn)行訓(xùn)練或檢測。( eg. 級聯(lián)算法)
    在這里插入圖片描述

(二)Averaging方法

  1. 算術(shù)平均: y ^ = 1 n ∑ i = 1 n y ^ i \hat{y}=\frac{1}{n}\sum_{i=1}^{n} \hat{y}_{i} y^?=n1?i=1n?y^?i?

  2. 加權(quán)平均: y ^ = ∑ i = 1 n ( w i y ^ i ) ∑ i = 1 n w i \widehat{y} = \frac{\sum_{i=1}^n(w_i\widehat{y}_i)}{\sum_{i=1}^nw_i} y ?=i=1n?wi?i=1n?(wi?y ?i?)?

  3. 幾何平均: y ^ = ∏ i = 1 n y ^ i n \widehat{y}=\sqrt[n]{\prod_{i=1}^n\widehat{y}_i} y ?=ni=1n?y ?i? ?

  • 算術(shù)平均的應(yīng)用:軟投票Soft voting,即計算弱分類器預(yù)測概率的均值,與概率閾值相比,獲得最終的分類結(jié)果
  • 原因:算術(shù)平均對于弱學(xué)習(xí)器學(xué)習(xí)結(jié)果相近的情況,起到的作用不大。
  • 解決:采用排序平均(Ranking averaging)。

例:已知弱學(xué)習(xí)器預(yù)測的回歸值分別為:0.35000056, 0.35000002,0.35000098,0.35000111,排序平均后的預(yù)測結(jié)果是?
![解答:先排序:
0.35000002(1), 0.35000056(2),0.35000098(3), 0.35000111(4)
再對排序歸一化或標(biāo)準(zhǔn)化:
0.35000002(0.1), 0.35000056(0.2),0.35000098(0.3), 0.35000111(0.4)
最后,求平均:
0.3500000×0.1+0.35000056×0.2+0.35000098×0.3+0.35000111×0.4](https://i-blog.csdnimg.cn/direct/f3532a1e56fd4a2e955244a3c7132d6d.png)
在這里插入圖片描述

(七)Stacking方法

(1)原理

算法通過兩層模型結(jié)構(gòu)來實現(xiàn)模型融合。在第一層(Level 0),訓(xùn)練多個基學(xué)習(xí)器,這些模型可以是同質(zhì)的也可以是異質(zhì)的。在第二層(Level 1),使用元模型或次學(xué)習(xí)器將第一層所有模型的預(yù)測結(jié)果融合起來,得到最終的預(yù)測結(jié)果。
在這里插入圖片描述

(2)基礎(chǔ)訓(xùn)練過程

Step1:首先,將訓(xùn)練數(shù)據(jù)集分為兩個部分,一部分用于訓(xùn)練基礎(chǔ)模型(也稱為基學(xué)習(xí)器或一級學(xué)習(xí)器),另一部分作為驗證集。
Step2:使用這些基礎(chǔ)模型對驗證集做出預(yù)測,生成預(yù)測結(jié)果。這些基礎(chǔ)模型可以是不同的算法,也可以是同一算法的不同參數(shù)設(shè)置。
Step3:將這些基礎(chǔ)模型的預(yù)測結(jié)果作為新的特征,與原始特征一起輸入到最終的模型(也稱為元學(xué)習(xí)器或二級學(xué)習(xí)器)中進(jìn)行訓(xùn)練。

(3)交叉訓(xùn)練

交叉訓(xùn)練提高了Stacking融合有效性,信息隔離,避免重復(fù)學(xué)習(xí)造成過擬合
在這里插入圖片描述

(4)代碼示例

在這里插入圖片描述
在這里插入圖片描述

另:

  • stack_method:選擇元學(xué)習(xí)器的訓(xùn)練數(shù)據(jù)類型:‘a(chǎn)uto’、‘predict_proba’、‘decision_function’、'predict’四個不同取值
  • passthrough:特征增強(qiáng)

在這里插入圖片描述


http://m.aloenet.com.cn/news/44913.html

相關(guān)文章:

  • 諸暨網(wǎng)站制作哪些公司制作西安網(wǎng)站制作推廣
  • 荊州網(wǎng)站建設(shè)seo門戶 site
  • 泰和網(wǎng)站制作網(wǎng)站空間
  • 什么網(wǎng)站建設(shè)最簡單騰訊3大外包公司
  • wordpress購買服務(wù)器百度seo搜索營銷新視角
  • 專門做app的網(wǎng)站內(nèi)容營銷策略
  • 銅仁市網(wǎng)站建設(shè)情況上海百度推廣電話
  • 合肥網(wǎng)站推廣 公司哪家好最好看免費觀看高清大全
  • 鄭州建網(wǎng)站多少河南整站百度快照優(yōu)化
  • 做網(wǎng)站除了廣告還有什么收入的種子搜索神器網(wǎng)頁版
  • 百度做網(wǎng)站一鍵優(yōu)化清理加速
  • 建網(wǎng)站個人主機(jī)做服務(wù)器天津seo選天津旗艦科技a
  • 重慶社區(qū)官網(wǎng)太原seo關(guān)鍵詞排名
  • 企業(yè)網(wǎng)站建設(shè)的一般要素包括6百度下載官網(wǎng)
  • 產(chǎn)品宣傳片制作公司seo網(wǎng)站關(guān)鍵詞排名優(yōu)化公司
  • 中國在菲律賓做網(wǎng)站百度知道首頁
  • 設(shè)計類專業(yè)網(wǎng)站西安核心關(guān)鍵詞排名
  • 哪個網(wǎng)站做非洲的生意站長素材
  • 做網(wǎng)站經(jīng)常加班還是appdz論壇seo
  • 購買域名后如何使用搜索網(wǎng)站排名優(yōu)化
  • 給網(wǎng)站首頁圖片做外網(wǎng)超鏈接_為什么會彈出一個服務(wù)器登錄窗口網(wǎng)頁制作成品
  • 那些網(wǎng)站可以接私活做比較好的免費網(wǎng)站
  • 北京網(wǎng)站優(yōu)化公司如何輿情分析報告模板
  • 自己在線制作logo免費頭像大連網(wǎng)絡(luò)營銷seo
  • 怎么建網(wǎng)站做推廣太原網(wǎng)站關(guān)鍵詞排名
  • 建筑方面的網(wǎng)站起飛頁自助建站平臺
  • 如何用框架做網(wǎng)站搜索引擎優(yōu)化seo的英文全稱是
  • 凡科網(wǎng)站代碼怎么短視頻營銷推廣方式
  • 天津電商網(wǎng)站建設(shè)seo服務(wù)價格表
  • java小說網(wǎng)站怎么做百度一直不收錄網(wǎng)站