国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

在什么網(wǎng)站可以接活做梅州網(wǎng)絡(luò)推廣

在什么網(wǎng)站可以接活做,梅州網(wǎng)絡(luò)推廣,品牌網(wǎng)站建設(shè)有哪些方面,想開個(gè)網(wǎng)站怎樣開公司原文標(biāo)題為:DA-DETR: Domain Adaptive Detection Transformer with Information Fusion;發(fā)表于CVPR2023 一、概述 本文所描述的模型基于DETR,DETR網(wǎng)絡(luò)是一種基于Transformer的目標(biāo)檢測網(wǎng)絡(luò),詳細(xì)原理可以參見往期文章:…

原文標(biāo)題為:DA-DETR: Domain Adaptive Detection Transformer with Information Fusion;發(fā)表于CVPR2023

一、概述

? ? ? ? 本文所描述的模型基于DETR,DETR網(wǎng)絡(luò)是一種基于Transformer的目標(biāo)檢測網(wǎng)絡(luò),詳細(xì)原理可以參見往期文章:[自注意力神經(jīng)網(wǎng)絡(luò)]DETR目標(biāo)檢測網(wǎng)絡(luò)。本文在DETR模型的基礎(chǔ)上,引入了信息融合機(jī)制,可以有效的實(shí)現(xiàn)從有標(biāo)記的源域無標(biāo)記的目標(biāo)域之間的轉(zhuǎn)移。

? ? ? ? 相較于傳統(tǒng)的兩段式網(wǎng)絡(luò)(Two-Stage;如Faster RCNN),DETR可以通過CNN骨干網(wǎng)絡(luò)獲得低層次的定位特征(如對象周圍的邊緣)通過Transformer Head獲得全局像素間的關(guān)系和高級語義特征。融合這兩種不同層次的信息可以有效的解決域自適應(yīng)問題。

? ? ? ? 本文創(chuàng)造性的提出了CTBlender(CNN-Transformer Blender)的概念。其原理是使用Transformer Head中的高級語義特征有條件的調(diào)節(jié)CNN主干中的低級特征。CTBlender由兩個(gè)組件構(gòu)成:

? ? ? ? ? ? ? ? ①分裂-合并融合(split-merge fusion;SMF):將CNN特征分為多個(gè)具有不同語義的組;再通過Transformer捕獲這些語義信息;然后將這些通過并排合并(便于不同組之間有效的通信)

? ? ? ? ? ? ? ? ②多尺度聚合融合(scale aggregation fusion;SAF):通過融合多尺度特征的語義信息和本地化信息來聚合SMF獲得的特征。

二、模型&方法

? ? ? ? 1.Deformable-MSA

? ? ? ? DETR采用“編碼器-解碼器”模式,對于給定的圖像x,先由骨干網(wǎng)絡(luò)G生成特征向量f,然后通過Transformer對其進(jìn)行編解碼,Transformer由多頭注意力模塊組成,可以定義為公式:

????????????????MSA(z_q,f)=\sum^H_{h=1}P_H[\sum SA_{hqk} \cdot {P_H}'f_k];其中MSA是由H個(gè)單頭注意力構(gòu)成,z_qf_k表示查詢元素和關(guān)鍵元素,P_H \in R^{d \times d_h}{P_H}' \in R^{d \times d_h}為可學(xué)習(xí)的投影權(quán)重,而SA_{hqk}一種縮放的點(diǎn)注意力(將查詢和鍵值映射到輸出中),可以描述為公式:

????????????????SA_{hqk} \propto exp(\frac{Z_q^TU_m^TV_mf_c}{\sqrt{d_h}});其中U_m,V_m均為可學(xué)習(xí)權(quán)重。

? ? ? ? 本文提出了一種Deformable-Transformer(可變形Transformer)來代替?zhèn)鹘y(tǒng)的Transformer,這種結(jié)構(gòu)擁有更快的收斂速度,其可以表述為:

?????????????????D-MSA(Z_q,p_q,f)=\sum^H_{h=1}P_H[\sum_kSA_{hqk}\cdot {P_H}'f(p_q+\delta p_{hqk})];其中\delta p_{hqk}為第k個(gè)采樣點(diǎn)的偏移量,SA_{hqk}為關(guān)注權(quán)重,改結(jié)構(gòu)可以有效的緩解DERT收斂慢的問題,同時(shí)可變形的特點(diǎn)也適合從骨干網(wǎng)絡(luò)中融合多尺度特征結(jié)構(gòu)。

? ? ? ? 2.網(wǎng)絡(luò)結(jié)構(gòu)

? ? ? ? 網(wǎng)絡(luò)總體結(jié)構(gòu)如上圖所示,整個(gè)網(wǎng)絡(luò)可以被描述為公式:

????????????????L_{det}=l(T(G(x_s)),y_s);其中x_s為源域圖像,y_s為源域標(biāo)簽,G為骨干網(wǎng)絡(luò),T為DERT Head,l為匈牙利損失函數(shù)。

? ? ? ? 從結(jié)構(gòu)圖可以看出,與傳統(tǒng)DERT相比,其最大的區(qū)別是加入了CTBlender模塊用于進(jìn)行非監(jiān)督的域適應(yīng)訓(xùn)練。故其用于監(jiān)督學(xué)習(xí)的分支①與傳統(tǒng)DERT相同,通過將損失函數(shù)L_{det}前向傳遞即可完成訓(xùn)練。

? ? ? ? 對于無監(jiān)督訓(xùn)練,CTBlender以源圖目標(biāo)圖的CNN的多尺度特征向量f^l(l=1,2,3,4)和Transformer編碼的語義向量p^l(l=1,2,3,4)作為輸入,CTBlender的輸出將作為鑒別器(Discriminator)的輸入,計(jì)算得出用于域間對齊的對抗損失函數(shù)L_{adv},可以表述為公式:

? ? ? ??????????L_{adv}=E_{(f,p)}\in D_s log C_d(H(f,p))+E_{(f,p)}\in D_t log(1-C_d(H(f,p)));其中f=G(x),p=E(G(x))G是骨干網(wǎng)絡(luò)函數(shù),E為Transformer編碼器函數(shù),H為CTBlender函數(shù)C_d為鑒別器。

? ? ? ? DA-DERT的總體優(yōu)化函數(shù)可以描述為:\underset{C_d}{max}\, min L_{det}(G,T)-\lambda L _{adv}(H,C_d)

? ? ? ? 3.CTBlender

? ? ? ? CTBlender由兩個(gè)模塊組成:SMF(負(fù)責(zé)混合CNN和Transformer的特征)和SAF(負(fù)責(zé)融合不同尺寸的加權(quán)特征圖),其具體結(jié)構(gòu)如下:

? ? ? ? ? ? ? ? ①SMF

? ? ? ? ? ? ? ? ?由于SMF對每層的操作都是一樣的,原文選擇l=1時(shí)的數(shù)據(jù)進(jìn)行展示。首先將CNN的特征圖f^1和Transformer的語義特征p^1拆分(split)為多個(gè)組,(f^1p^1沿著通道均分為K個(gè)組)并通過空間(Spatial-wise)和通道(Channel-wise)兩個(gè)方向進(jìn)行融合;融合后的特征與信道進(jìn)行合并(merge)。

? ? ? ? ? ? ? ? 空間融合:分裂的p^1特征首先進(jìn)行歸一化,然后通過可學(xué)習(xí)權(quán)重圖對偏置圖(bias map)進(jìn)行重加權(quán),可以描述為公式:

????????????????????????\hat{p}^1_{ks}=f_s(w_s \cdot GN(p_k^1)+b_s);其中f_s()的輸出范圍限定在[0,1]

? ? ? ? ? ? ? ? 通道融合:分裂的p^1通過全局池化進(jìn)行壓縮,然后通過可學(xué)習(xí)權(quán)重圖對偏置圖(bias map)進(jìn)行重加權(quán),可以描述為公式:

????????????????????????\hat{p}^1_{kc}=f_s(w_c \cdot GAP(p_k^1)+b_c);其中GAP為全局平均池化(Global Average Pooling),f_s()的輸出范圍限定在[0,1]

? ? ? ? ? ? ? ? 利用上面求出的權(quán)重\hat{p}^1_{ks}\hat{p}^1_{kc}在對應(yīng)的方向上對分裂后的特征圖f_k^1進(jìn)行重新加權(quán),得到加權(quán)后的特征圖\hat{f}_k^1,然后沿著通道方向?qū)?img referrerpolicy="no-referrer" alt="\hat{f}^1_k" class="mathcode" src="https://latex.csdn.net/eq?%5Chat%7Bf%7D%5E1_k" />進(jìn)行K次混洗(shuffle),將混洗后的特征圖融合為\hat{f}^1

? ? ? ? ? ? ? ? ②SAF

? ? ? ? ? ? ? ? ?將SMF得到的多尺度加權(quán)特征圖組\hat{f}=\{\hat{f}^l\}^L_{l=1}通過全局平均池化(GAP)壓縮為向量組u=\{u^l\}^L_{l=1}。首先通過逐元素求和的方法將通道方向的向量求和為u_m;然后通過全連接層將向量u_m和對應(yīng)的權(quán)重向量\alpha^l連接(\alpha^l \in R^{c \times 1 \times 1});最后將文本信息嵌入到向量V_a中,可描述為公式:V_a=\sum^L_{l=1}\hat{f}^l \cdot \alpha^l。

http://m.aloenet.com.cn/news/33581.html

相關(guān)文章:

  • 布料市場做哪個(gè)網(wǎng)站好代寫軟文
  • 動漫網(wǎng)站設(shè)計(jì)方案華為手機(jī)軟文范文300
  • 網(wǎng)站群如何做網(wǎng)站seo快速優(yōu)化軟件
  • 單位網(wǎng)站中文域名到期續(xù)費(fèi)seo的培訓(xùn)班
  • 梧州網(wǎng)站建設(shè)設(shè)計(jì)百度服務(wù)電話在線人工
  • 做網(wǎng)站用什么字體字號seo技術(shù)優(yōu)化服務(wù)
  • wordpress換域名了 登陸不了五年級下冊數(shù)學(xué)優(yōu)化設(shè)計(jì)答案
  • 域名 備案 沒有網(wǎng)站嗎網(wǎng)絡(luò)營銷的有哪些特點(diǎn)
  • 怎么自己做網(wǎng)站嚇別人佛山seo聯(lián)系方式
  • 剛注冊公司怎么做網(wǎng)站seo案例分析100例
  • 云推廣關(guān)鍵詞優(yōu)化是怎么弄的
  • 公司網(wǎng)站的管理和維護(hù)uc瀏覽網(wǎng)頁版進(jìn)入
  • 制作網(wǎng)站步驟新媒體營銷案例ppt
  • 網(wǎng)頁設(shè)計(jì)的動態(tài)網(wǎng)站怎么做騰訊企點(diǎn)官網(wǎng)下載
  • 前端和網(wǎng)站建設(shè)的區(qū)別友情手機(jī)站
  • 宜興建設(shè)局網(wǎng)站長沙seo行者seo09
  • wordpress采集處理樣式廣東優(yōu)化疫情防控措施
  • 做網(wǎng)站3個(gè)月搜索引擎營銷流程是什么?
  • 簡約風(fēng)格網(wǎng)站代哥seo
  • 男和女做暖暖網(wǎng)站網(wǎng)絡(luò)銷售怎么找客戶
  • 做網(wǎng)站練手優(yōu)化大師電腦版
  • seo黑帽技術(shù)工具陜西seo顧問服務(wù)
  • 真人做爰網(wǎng)站怎么提交網(wǎng)址讓百度收錄
  • 做網(wǎng)站常用代碼向右浮動怎么寫凡科網(wǎng)怎么建網(wǎng)站
  • 有了 ftp服務(wù)器密碼 怎么改網(wǎng)站給我免費(fèi)播放片高清在線觀看
  • 網(wǎng)站域名代辦百度搜索鏈接
  • 國外做的好的醫(yī)療網(wǎng)站網(wǎng)站域名服務(wù)器查詢
  • 怎么自己做個(gè)網(wǎng)站搜索引擎優(yōu)化論文
  • 做決定網(wǎng)站域名注冊后怎么使用
  • java做網(wǎng)站需要數(shù)據(jù)庫嗎站長之家音效素材