国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

怎樣推廣網(wǎng)站網(wǎng)絡(luò)廣告營銷

怎樣推廣網(wǎng)站,網(wǎng)絡(luò)廣告營銷,南京做網(wǎng)站建設(shè)的公司排名,零基礎(chǔ)一個(gè)人做網(wǎng)站相關(guān)文章: 神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù) 神經(jīng)網(wǎng)絡(luò)(系統(tǒng)性學(xué)習(xí)一):入門篇 神經(jīng)網(wǎng)絡(luò)(系統(tǒng)性學(xué)習(xí)二):單層神經(jīng)網(wǎng)絡(luò)(感知機(jī)) 多層感知機(jī)(MLP) 多層感…

相關(guān)文章:

神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù)

神經(jīng)網(wǎng)絡(luò)(系統(tǒng)性學(xué)習(xí)一):入門篇

神經(jīng)網(wǎng)絡(luò)(系統(tǒng)性學(xué)習(xí)二):單層神經(jīng)網(wǎng)絡(luò)(感知機(jī))


多層感知機(jī)(MLP)

多層感知機(jī)(MLP)是一種經(jīng)典的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network),通常用于解決分類、回歸、監(jiān)督學(xué)習(xí)任務(wù)。它由一個(gè)輸入層、一個(gè)或多個(gè)隱藏層和一個(gè)輸出層組成。

網(wǎng)絡(luò)結(jié)構(gòu)

  • 輸入層:接收數(shù)據(jù)輸入,特征維度等于數(shù)據(jù)的特征數(shù)。

  • 隱藏層:一個(gè)或多個(gè)隱藏層,每層包含若干個(gè)神經(jīng)元,負(fù)責(zé)提取數(shù)據(jù)的特征。

  • 輸出層:根據(jù)任務(wù)(分類或回歸)輸出最終的結(jié)果。

008ba30f281948f5a27376f5e98358bc.png

主要參數(shù)

  • 權(quán)重(Weights):連接各層神經(jīng)元的參數(shù),決定信號的強(qiáng)弱。

  • 偏置:為每個(gè)神經(jīng)元添加額外的靈活性。

  • 超參數(shù):學(xué)習(xí)率、隱藏層數(shù)、每個(gè)隱藏層的神經(jīng)元數(shù)等

特別強(qiáng)調(diào):每個(gè)神經(jīng)元之間的權(quán)重和偏置絕大多數(shù)時(shí)候不相同!!!

核心步驟

以隱藏層只有一層為例。

(一)初始化權(quán)重和偏置

初始化權(quán)重和偏置矩陣。即對每個(gè)神經(jīng)元之間的權(quán)重和偏置隨機(jī)設(shè)定一個(gè)初始值。

1.1 避免對稱性問題

如果所有權(quán)重都初始化為相同的值(比如都為0),反向傳播計(jì)算的梯度對所有權(quán)重的更新將是完全相同的。這會導(dǎo)致所有神經(jīng)元學(xué)習(xí)到相同的特征,從而失去模型的表達(dá)能力。

1.2 權(quán)重的初始化

權(quán)重的初始化影響網(wǎng)絡(luò)的輸入和輸出值的分布。如果初始化值過大,可能導(dǎo)致激活函數(shù)的輸出進(jìn)入飽和區(qū)(如Sigmoid激活函數(shù)趨近于0或1),使得梯度變得極小,網(wǎng)絡(luò)難以訓(xùn)練(梯度消失問題)。如果初始化值過小,網(wǎng)絡(luò)學(xué)習(xí)速度會很慢。

權(quán)重可以初始化為均值為0的小隨機(jī)值。

常見方法包括:

  • 均勻分布:隨機(jī)生成值在 [?a,a] 區(qū)間內(nèi)。

  • 正態(tài)分布:隨機(jī)生成值符合 eq?N%280%2C%20%5Csigma%5E2%29。

1.3 偏置的作用

偏置的初始化相對簡單,通常設(shè)為零或一個(gè)小的隨機(jī)值即可。它的作用是為神經(jīng)元提供一個(gè)額外的自由度,允許模型學(xué)習(xí)非零輸出。

(二)選擇損失函數(shù)、激活函數(shù)

對于分類問題,常用交叉熵?fù)p失函數(shù),對于回歸問題,常用均方誤差損失函數(shù)。以MSE損失函數(shù)為例,我們假定損失函數(shù)為L:

eq?L%20%3D%20%5Cfrac%7B1%7D%7B2%7D%20%5Csum_%7Bl%3D1%7D%5Em%20%28y_l%20-%20t_l%29%5E2

其中,?eq?y_l?是預(yù)測值,eq?t_l?是真實(shí)標(biāo)簽。

激活函數(shù)的選擇參考文章:常見的激活函數(shù)

(三)前向傳播

1、從輸入層到隱藏層

假設(shè)輸入層的神經(jīng)元為 eq?x_1%2C%20x_2%2C%20%5Cdots%2C%20x_n,隱藏層的神經(jīng)元為 eq?h_1%2C%20h_2%2C%20%5Cdots%2C%20h_k?(隱藏層有 k?個(gè)神經(jīng)元)。輸入到第 j?個(gè)隱藏層神經(jīng)元 hj 的計(jì)算公式如下:

eq?z_j%20%3D%20w_%7Bj1%7Dx_1%20+%20w_%7Bj2%7Dx_2%20+%20%5Cdots%20+%20w_%7Bjn%7Dx_n%20+%20b_j

其中:

  • eq?w_%7Bji%7D 是第 j?個(gè)隱藏層神經(jīng)元與第 i?個(gè)輸入神經(jīng)元之間的權(quán)重。

  • xi? 是輸入層第 i?個(gè)神經(jīng)元的輸入值。

  • bj? 是第 j?個(gè)隱藏層神經(jīng)元的偏置。

經(jīng)過激活函數(shù) eq?%5Csigma%28z_j%29,得到隱藏層神經(jīng)元的輸出:

eq?h_j%20%3D%20%5Csigma%28z_j%29%20%3D%20%5Csigma%28w_%7Bj1%7Dx_1%20+%20w_%7Bj2%7Dx_2%20+%20%5Cdots%20+%20w_%7Bjn%7Dx_n%20+%20b_j%29

2、從隱藏層到輸出層

隱藏層的輸出 eq?h_1%2C%20h_2%2C%20%5Cdots%2C%20h_k? 將作為輸入傳遞到輸出層的神經(jīng)元。假設(shè)輸出層有 m?個(gè)神經(jīng)元,輸出層的第 eq?l?個(gè)神經(jīng)元的計(jì)算公式為:

eq?z%27_l%20%3D%20w%27_%7Bl1%7Dh_1%20+%20w%27_%7Bl2%7Dh_2%20+%20%5Cdots%20+%20w%27_%7Blk%7Dh_k%20+%20b%27_l

其中:

  • eq?w%27_%7Bli%7D?是第?eq?l 個(gè)輸出層神經(jīng)元與第 i?個(gè)隱藏層神經(jīng)元之間的權(quán)重。

  • eq?h_i? 是隱藏層第 i 個(gè)神經(jīng)元的輸出值。

  • eq?b%27_l? 是第?eq?l 個(gè)輸出層神經(jīng)元的偏置。

同樣,經(jīng)過激活函數(shù)(通常是Softmax或Sigmoid)后,得到輸出層的輸出:

eq?y_l%20%3D%20%5Csigma%28z%27_l%29%20%3D%20%5Csigma%28w%27_%7Bl1%7Dh_1%20+%20w%27_%7Bl2%7Dh_2%20+%20%5Cdots%20+%20w%27_%7Blk%7Dh_k%20+%20b%27_l%29

反向傳播與權(quán)重更新

(四)誤差計(jì)算與反向傳播

訓(xùn)練MLP時(shí),使用反向傳播算法來更新網(wǎng)絡(luò)中的權(quán)重和偏置。反向傳播算法基于鏈?zhǔn)椒▌t計(jì)算損失函數(shù)對每個(gè)權(quán)重和偏置的梯度,然后使用梯度下降法(默認(rèn)使用全批量梯度下降)來更新參數(shù)。

假設(shè)損失函數(shù)為 L,權(quán)重為 w,偏置為 b,則每個(gè)權(quán)重和偏置的更新規(guī)則為:

eq?w_%7Bji%7D%20%5Cleftarrow%20w_%7Bji%7D%20-%20%5Ceta%20%5Cfrac%7B%5Cpartial%20L%7D%7B%5Cpartial%20w_%7Bji%7D%7D

eq?b_j%20%5Cleftarrow%20b_j%20-%20%5Ceta%20%5Cfrac%7B%5Cpartial%20L%7D%7B%5Cpartial%20b_j%7D

其中 η 是學(xué)習(xí)率,eq?%5Cfrac%7B%5Cpartial%20L%7D%7B%5Cpartial%20w_%7Bji%7D%7D?和 eq?%5Cfrac%7B%5Cpartial%20L%7D%7B%5Cpartial%20b_j%7D? 是損失函數(shù)關(guān)于權(quán)重和偏置的偏導(dǎo)數(shù)。

(五)迭代過程

重復(fù)步驟三和步驟四,不斷迭代更新權(quán)重和偏置。

終止條件:達(dá)到最大迭代次數(shù)、損失收斂、目標(biāo)性能達(dá)標(biāo)等。

注:整個(gè)過程只以一個(gè)隱藏層為例,如果有多個(gè)隱藏層,從隱藏層到隱藏層之間的傳遞也是類似的。也是以上一層的輸出作為該層的輸入,并通過激活函數(shù)將該層輸入轉(zhuǎn)化為該層的輸出;其次就是注意每個(gè)神經(jīng)元之間的權(quán)重和偏置不一樣。

MLP優(yōu)缺點(diǎn)總結(jié)

ff8917d60afc41519efde2157e448941.png

????????MLP 是一種通用的神經(jīng)網(wǎng)絡(luò)模型,廣泛用于分類、回歸、特征提取和強(qiáng)化學(xué)習(xí)等任務(wù)。盡管它的能力和表現(xiàn)已經(jīng)被更復(fù)雜的模型(如卷積神經(jīng)網(wǎng)絡(luò) CNN 和循環(huán)神經(jīng)網(wǎng)絡(luò) RNN)在某些領(lǐng)域超越,但由于其簡單性和強(qiáng)大的非線性擬合能力,MLP仍然是很多基礎(chǔ)任務(wù)和小型數(shù)據(jù)集問題中的首選模型。同時(shí),它常常作為其他復(fù)雜模型中的子模塊,為解決復(fù)雜問題提供基礎(chǔ)支持。

?

# 若對大噶有幫助的話,希望點(diǎn)個(gè)贊支持一下叭!

?

http://m.aloenet.com.cn/news/43826.html

相關(guān)文章:

  • 動態(tài)網(wǎng)站開發(fā)教程seo怎么刷排名
  • 網(wǎng)站用wordpress還是wp網(wǎng)址大全瀏覽器
  • 中國建設(shè)銀行網(wǎng)站濟(jì)南網(wǎng)點(diǎn)品牌軟文
  • 怎么在電腦上自己做網(wǎng)站如何做網(wǎng)站推廣的策略
  • 美發(fā)網(wǎng)站怎么做商品關(guān)鍵詞舉例
  • 企業(yè)建設(shè)網(wǎng)站應(yīng)該一般多少錢谷歌搜索優(yōu)化seo
  • 好的網(wǎng)站模板快速建網(wǎng)站
  • 網(wǎng)站建設(shè)風(fēng)格要求巨量引擎app
  • 聊城網(wǎng)站建設(shè)基本流程java培訓(xùn)學(xué)費(fèi)多少錢
  • 長沙建設(shè)網(wǎng)站企業(yè)蘋果自研搜索引擎或?yàn)樘娲雀?/a>
  • 優(yōu)質(zhì)的網(wǎng)站制作如何免費(fèi)引流推廣
  • 濟(jì)南網(wǎng)站怎么做seo中南建設(shè)集團(tuán)有限公司
  • 南寧模板做網(wǎng)站搜索引擎優(yōu)化seo專員招聘
  • 網(wǎng)站項(xiàng)目運(yùn)營怎樣免費(fèi)制作網(wǎng)頁
  • 建設(shè)銀行網(wǎng)站安全性分析什么是seo搜索優(yōu)化
  • 河北建設(shè)工程招標(biāo)信息網(wǎng)官網(wǎng)企業(yè)網(wǎng)站設(shè)計(jì)優(yōu)化公司
  • 西寧的網(wǎng)站建設(shè)公司凡科建站怎么建網(wǎng)站
  • 上海網(wǎng)站制作網(wǎng)絡(luò)策劃與營銷
  • 舟山公司做網(wǎng)站線上推廣是做什么的
  • 做網(wǎng)站的公司經(jīng)營范圍怎么寫微信小程序怎么做
  • wordpress怎么仿站資訊門戶類網(wǎng)站有哪些
  • 旺旺號查詢網(wǎng)站怎么做好的seo網(wǎng)站
  • 網(wǎng)站圖片鏈接是怎么做的百度關(guān)鍵詞排名技術(shù)
  • 上海企樂網(wǎng)站制作公司河南專業(yè)網(wǎng)站建設(shè)
  • 佛山網(wǎng)站建設(shè)怎樣做搜索引擎營銷的主要方法
  • 重慶網(wǎng)站建設(shè)挑夾夾蟲徐州seo網(wǎng)站推廣
  • 新橋?qū)I(yè)網(wǎng)站建設(shè)智能建站平臺
  • 做美食網(wǎng)站的需求寧波seo快速優(yōu)化
  • 冠縣網(wǎng)站建設(shè)價(jià)格百度推廣客戶端電腦版
  • 免費(fèi)搭網(wǎng)站常州seo第一人