国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁(yè) > news >正文

網(wǎng)站制作方案書博客網(wǎng)

網(wǎng)站制作方案書,博客網(wǎng),網(wǎng)站頁(yè)面制作建議,怎樣進(jìn)行seo推廣文章目錄 📚線性回歸算法流程📚Bias and variance📚過(guò)擬合&欠擬合📚邏輯回歸算法流程 📚線性回歸算法流程 ybwx 使用loss function L來(lái)評(píng)估函數(shù)的好壞 從而我們要選擇使L最小的模型參數(shù)w,b 使用梯度下降的方法…

文章目錄

  • 📚線性回歸算法流程
  • 📚Bias and variance
  • 📚過(guò)擬合&欠擬合
  • 📚邏輯回歸算法流程

📚線性回歸算法流程

  • y=b+w·x

  • 使用loss function L來(lái)評(píng)估函數(shù)的好壞
    在這里插入圖片描述

  • 從而我們要選擇使L最小的模型參數(shù)w,b

在這里插入圖片描述

  • 使用梯度下降的方法

    在這里插入圖片描述

    在這里插入圖片描述

  • 從而求導(dǎo)得:

    在這里插入圖片描述

📚Bias and variance

  • error原因——bias(模型偏差)和variance(數(shù)據(jù)方差):
  • 數(shù)學(xué)原理
    • 隨機(jī)變量x的均值為 μ \mu μ,方差為 σ 2 \sigma^2 σ2
    • 隨機(jī)采樣N個(gè)點(diǎn),其均值不等于 μ \mu μ,但是期望等于 μ \mu μ,是無(wú)偏的 ,均值的方差是 σ 2 / N \sigma^2/N σ2/N
    • N個(gè)點(diǎn)的方差記為 s 2 s^2 s2,方差的期望為 ( N ? 1 ) / N ? σ 2 (N-1)/N·\sigma^2 (N?1)/N?σ2,不等于 σ 2 \sigma^2 σ2
    • 用bias表示整體距離實(shí)際值的距離,用variance表示點(diǎn)的分散程度

在這里插入圖片描述

每次采樣一個(gè)訓(xùn)練集,訓(xùn)練一個(gè)模型,采樣100次

  • 簡(jiǎn)單模型:模型直接的variance很小,但是bias可能略大

  • 復(fù)雜模型:variance很大,但是bias會(huì)小

模型會(huì)更擬合數(shù)據(jù)點(diǎn),各個(gè)模型直接的差別很大,所以簡(jiǎn)單的模型受采樣數(shù)據(jù)的影響更小

  • 模型分析

    • 我們對(duì)每個(gè)模型f*取均值,看是否接近真實(shí)的模型f,如果差得遠(yuǎn),則bias大,接近則bias小
    • 大bias小variance可能是欠擬合,而小bias大variance可能是過(guò)擬合。
    • 如果數(shù)據(jù)無(wú)法很好的擬合訓(xùn)練集,則會(huì)有大bias,欠擬合;如果可以很好擬合訓(xùn)練集,但是在測(cè)試集上表現(xiàn)不好,會(huì)有大的variance,過(guò)擬合。
  • 解決方法

    • 對(duì)于大bias欠擬合來(lái)說(shuō),可以重新選擇模型,增加輸入特征,或者是使用更復(fù)雜的模型,或者進(jìn)行交叉驗(yàn)證
    • 對(duì)于大variance過(guò)擬合來(lái)說(shuō),可以增加數(shù)據(jù)集的數(shù)量,或者是引入正則項(xiàng)
    • 在bias和variance之間存在trade-off,可以選擇模型使得total-error最小即可。

📚過(guò)擬合&欠擬合

  • 欠擬合
    • 定義:模型無(wú)法捕捉數(shù)據(jù)中的規(guī)律和復(fù)雜性,表現(xiàn)為訓(xùn)練誤差和測(cè)試誤差都較高。
    • 原因:模型的復(fù)雜度不夠,無(wú)法很好地?cái)M合數(shù)據(jù)。
    • 解決方法:提高模型復(fù)雜度、增加特征數(shù)量、增加模型的學(xué)習(xí)能力等。
  • 過(guò)擬合
    • 定義:模型過(guò)度擬合了訓(xùn)練數(shù)據(jù)的噪聲和細(xì)節(jié),表現(xiàn)為在訓(xùn)練集上表現(xiàn)良好,在測(cè)試集上表現(xiàn)較差。
    • 原因:模型復(fù)雜度過(guò)高,導(dǎo)致模型過(guò)度適應(yīng)訓(xùn)練數(shù)據(jù)的特征和噪聲。
    • 解決方法:降低模型復(fù)雜度、增加數(shù)據(jù)量、采用正則化方法(如L1、L2正則化)等。
  • 改進(jìn)方法
    • 交叉驗(yàn)證:通過(guò)交叉驗(yàn)證來(lái)選擇合適的模型復(fù)雜度,同時(shí)避免過(guò)擬合和欠擬合。
    • 特征選擇:選取對(duì)模型預(yù)測(cè)有用的特征,在避免過(guò)多無(wú)用特征的情況下,消除噪聲的影響。
    • 正則化:通過(guò)L1或L2正則化,限制模型參數(shù)的大小,防止模型過(guò)擬合。
    • 增加數(shù)據(jù)量:增加數(shù)據(jù)量可以幫助模型更好地捕捉數(shù)據(jù)的規(guī)律,減少模型的過(guò)擬合情況。
    • 集成學(xué)習(xí):使用集成學(xué)習(xí)方法,如bagging、boosting等,可以在一定程度上減小模型的過(guò)擬合風(fēng)險(xiǎn)。

  • 關(guān)于交叉驗(yàn)證
    • 交叉驗(yàn)證是一種評(píng)估模型性能和泛化能力的統(tǒng)計(jì)學(xué)方法。它通過(guò)反復(fù)地將數(shù)據(jù)集劃分為訓(xùn)練集和驗(yàn)證集,在訓(xùn)練集上訓(xùn)練,在驗(yàn)證集上測(cè)試,來(lái)評(píng)估模型的性能。
    • 常見的交叉驗(yàn)證方法包括k折交叉驗(yàn)證、留一交叉驗(yàn)證等。在k折交叉驗(yàn)證中,數(shù)據(jù)集被隨機(jī)分成k個(gè)大小相似的互斥子集,每個(gè)子集都盡可能保持?jǐn)?shù)據(jù)分布的一致性。然后,進(jìn)行k次模型訓(xùn)練和測(cè)試,每次選擇一個(gè)子集作為驗(yàn)證集,其余的k-1個(gè)子集作為訓(xùn)練集,取結(jié)果最好的作為最終模型。
    • 交叉驗(yàn)證的目的是:
      • 評(píng)估模型的性能:通過(guò)交叉驗(yàn)證,可以更準(zhǔn)確地評(píng)估模型的性能,而不會(huì)受到單次劃分?jǐn)?shù)據(jù)帶來(lái)的偶然性影響。
      • 泛化能力:交叉驗(yàn)證可以更好地評(píng)估模型的泛化能力,即模型對(duì)未見過(guò)的數(shù)據(jù)的適應(yīng)能力。
      • 另外,對(duì)于數(shù)據(jù)較少的情況下,交叉驗(yàn)證可以最大限度地利用有限的數(shù)據(jù),減小因訓(xùn)練集和測(cè)試集的劃分不同導(dǎo)致評(píng)估性能的差異。在模型選擇以及調(diào)參時(shí)也非常有用,可以幫助選擇最優(yōu)模型并提高模型的性能。

📚邏輯回歸算法流程

  • 分類即輸入一個(gè)樣本,判斷其類別,損失函數(shù)為:
    在這里插入圖片描述

  • 使用sigmoid函數(shù),將概率劃分到[0,1]之間:
    在這里插入圖片描述

  • 使用交叉熵?fù)p失函數(shù)的方法找到最優(yōu)的w和b,便于求導(dǎo)取-log,乘積變?yōu)榍蠛?#xff1a;
    在這里插入圖片描述

  • 然后將f函數(shù)全部代回對(duì)w求導(dǎo)找最優(yōu)解,求導(dǎo)后的結(jié)果為:
    在這里插入圖片描述

  • 求導(dǎo)之后可知f=1,y=1時(shí),f=0,y=0時(shí)cross Entropy最小,從而wx->正無(wú)窮,y=1,wx->負(fù)無(wú)窮,y=0


  • 使用邏輯回歸進(jìn)行多分類的話,sigmoid函數(shù)變?yōu)?#xff1a;
    在這里插入圖片描述

  • 所有的y求和為1,y表示第i類的概率,是softmax操作softmax就是把一些輸入映射為0-1之間的實(shí)數(shù),并且歸一化保證和為1。

  • 邏輯回歸只能對(duì)線性可分的數(shù)據(jù)有閉式解,對(duì)于線性不可分的數(shù)據(jù)分類能力很差,可以進(jìn)行特征轉(zhuǎn)化,從原特征映射到新的特征空間,然后在新的特征空間進(jìn)行分類。


在這里插入圖片描述

??補(bǔ)充博客

  • 單變量線性回歸
  • 多變量線性回歸
  • 邏輯回歸
  • 優(yōu)化算法 | 評(píng)估方法
http://m.aloenet.com.cn/news/31337.html

相關(guān)文章:

  • 訂閱號(hào)欄目里做微網(wǎng)站網(wǎng)站排名靠前
  • 網(wǎng)絡(luò)營(yíng)銷專業(yè)建議百度seo優(yōu)化收費(fèi)標(biāo)準(zhǔn)
  • 兩學(xué)一做教育考試網(wǎng)站微信小程序怎么開通
  • WordPress微信密碼seo初級(jí)入門教程
  • 物聯(lián)網(wǎng)型網(wǎng)站開發(fā)企業(yè)網(wǎng)站建設(shè)服務(wù)
  • 做網(wǎng)站買域名網(wǎng)絡(luò)營(yíng)銷策劃方案3000字
  • 建筑室內(nèi)設(shè)計(jì)公司排名seo人工智能
  • 中國(guó)建設(shè)門戶網(wǎng)站紀(jì)念幣看seo
  • 做網(wǎng)站一般收取多少錢國(guó)際重大新聞
  • 深圳市城鄉(xiāng)和建設(shè)局網(wǎng)站首頁(yè)貼吧推廣
  • 有沒(méi)有免費(fèi)的網(wǎng)站推銷產(chǎn)品如何做網(wǎng)絡(luò)推廣
  • 成都市 網(wǎng)站建設(shè)福州短視頻seo公司
  • 深圳有做網(wǎng)站公司打廣告去哪個(gè)平臺(tái)
  • 深圳手機(jī)網(wǎng)站制作公司全網(wǎng)搜索軟件
  • 一個(gè)人能建設(shè)一個(gè)公司網(wǎng)站嗎短視頻seo是什么
  • 南山網(wǎng)站建設(shè)網(wǎng)絡(luò)營(yíng)銷培訓(xùn)
  • 網(wǎng)站建設(shè)經(jīng)理網(wǎng)站關(guān)鍵詞在哪里看
  • 福建交通建設(shè)網(wǎng)站58黃頁(yè)網(wǎng)推廣公司
  • 桂林哪里可以做網(wǎng)站百度推廣區(qū)域代理
  • 招聘網(wǎng)站有哪些平臺(tái)洛陽(yáng)網(wǎng)站建設(shè)
  • 第三方網(wǎng)站下載素材是怎么做南寧優(yōu)化推廣服務(wù)
  • 注冊(cè)個(gè)網(wǎng)站要多少錢跟我學(xué)seo從入門到精通
  • 怎么增加網(wǎng)站訪問(wèn)量網(wǎng)站優(yōu)化培訓(xùn)學(xué)校
  • 網(wǎng)站 相對(duì)路徑國(guó)際軍事形勢(shì)最新消息
  • 甘肅城鄉(xiāng)建設(shè)局網(wǎng)站有什么引流客源的軟件
  • 做論壇和做網(wǎng)站有什么區(qū)別搜資源的搜索引擎
  • 網(wǎng)站視頻封面怎么做百度客服電話是多少
  • 上海網(wǎng)站建設(shè)公司 紅威網(wǎng)站制作免費(fèi)
  • 可視化導(dǎo)航網(wǎng)站源碼百度的排名規(guī)則詳解
  • 河南營(yíng)銷網(wǎng)站建設(shè)聯(lián)系方式搜索引擎有哪些分類