国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當前位置: 首頁 > news >正文

企業(yè)網站建設服務公司搜索引擎優(yōu)化工具

企業(yè)網站建設服務公司,搜索引擎優(yōu)化工具,寶安做網站公司,濰坊網站制作多少錢文章鏈接:https://arxiv.org/pdf/2407.17020 git鏈接:https://hyangyu.github.io/EAFormer/ 亮點直擊 為了在文本邊緣區(qū)域實現更好的分割性能,本文提出了邊緣感知Transformer(EAFormer),該方法明確預測文…

文章鏈接:https://arxiv.org/pdf/2407.17020

git鏈接:https://hyangyu.github.io/EAFormer/

亮點直擊

  • 為了在文本邊緣區(qū)域實現更好的分割性能,本文提出了邊緣感知Transformer(EAFormer),該方法明確預測文本邊緣,并利用這些邊緣來引導后續(xù)的編碼器。
  • 針對COCO_TS和MLT_S數據集的注釋質量較低的問題,對這些數據集進行了重新標注,以提高EAFormer在這兩個數據集上的實驗結果的可靠性。
  • 在六個場景文本分割基準上的廣泛實驗表明,所提出的EAFormer能夠達到最先進的性能,尤其在文本邊緣區(qū)域表現更佳。

場景文本分割旨在從場景圖像中裁剪文本,這通常用于幫助生成模型編輯或去除文本?,F有的文本分割方法通常涉及各種文本相關的監(jiān)督以獲得更好的性能。然而,大多數方法忽略了文本邊緣的重要性,而文本邊緣對下游應用至關重要。本文提出了邊緣感知Transformer(Edge-Aware Transformers),簡稱EAFormer,以更準確地分割文本,特別是文本的邊緣。

具體而言,首先設計了一個文本邊緣提取器,以檢測邊緣并濾除非文本區(qū)域的邊緣。然后,提出了一個邊緣引導編碼器,使模型更加關注文本邊緣。最后,采用了一個基于MLP的解碼器來預測文本mask。在常用基準上進行了廣泛的實驗,以驗證EAFormer的有效性。實驗結果表明,所提出的方法在文本邊緣的分割上優(yōu)于以前的方法。考慮到一些基準數據集(如COCO_TS和MLT_S)的注釋不夠準確,無法公平評估本文的方法,重新標注了這些數據集。通過實驗觀察到,當使用更準確的注釋進行訓練時,本文的方法能夠獲得更高的性能提升。

方法

本節(jié)詳細介紹了所提出的EAFormer。首先,介紹EAFormer的提出動機。然后,詳細說明EAFormer的每個模塊,包括文本邊緣提取器、邊緣引導編碼器和文本分割解碼器。最后,介紹了本文方法的損失函數。

動機

不可否認,文本邊緣對場景文本分割任務至關重要,尤其是對于其下游任務如文本擦除。準確分割文本邊緣可以為文本擦除模型提供更多的背景信息,以填補文本區(qū)域。如下圖1所示,利用一個預訓練的修復模型,輸入不同類型的文本mask,以在場景圖像中擦除文本。通過實驗觀察到,文本邊界框mask過于粗糙,無法為修復模型提供更多的背景信息。此外,邊緣分割不準確的文本mask使得修復模型錯誤地將屬于文本的像素視為背景,導致擦除效果不佳。只有提供具有準確邊緣分割的文本mask時,修復模型才能生成令人滿意的文本擦除結果。

盡管PGTSNet已經意識到文本邊緣的重要性,并使用了二元交叉熵損失來檢測文本邊緣的像素,但它未能明確地將易于獲取的文本邊緣信息作為輸入信息之一。為了驗證其感知文本邊緣的能力,對主干網絡輸出的特征進行了K均值聚類,其中K設置為3,分別代表背景、文本邊緣和文本中心。通過下圖2中的可視化結果,觀察到該方法在感知文本邊緣方面仍存在一定的不足。

此外,研究者們發(fā)現傳統(tǒng)的邊緣檢測算法可以獲得準確的文本邊緣,這可能有助于場景文本分割任務。然而,由于傳統(tǒng)的邊緣檢測方法無法區(qū)分文本區(qū)域和非文本區(qū)域,因此大多數邊緣都被檢測到了非文本區(qū)域。如果直接將邊緣檢測結果作為輸入來輔助文本分割,可能會使文本分割模型產生混淆,從而對其性能產生不利影響。

邊緣感知Transformer(EAFormer)

如下圖3所示,所提出的EAFormer由三個模塊組成:文本邊緣提取器、邊緣引導編碼器和文本分割解碼器。給定輸入的場景文本圖像 X ∈ R 3 × H × W X \in \mathbb{R}^{3 \times H \times W} XR3×H×W,文本邊緣提取器用于獲得文本區(qū)域的邊緣 E t E_t Et?。然后,文本圖像 X X X 和檢測到的文本邊緣 E t E_t Et? 被輸入到邊緣引導編碼器中,以提取邊緣感知特征。最后,文本分割解碼器以編碼器生成的特征作為輸入,生成相應的文本mask M t M_t Mt?。

文本邊緣提取器。 由于文本邊緣對場景文本分割任務至關重要,研究者們提出了一個文本邊緣提取器以獲得文本區(qū)域的邊緣。首先,使用傳統(tǒng)的邊緣檢測算法Canny來獲取整個輸入圖像的邊緣 E w E_w Ew?。如前所述, E w E_w Ew? 中的非文本區(qū)域的邊緣可能對文本分割產生負面影響。因此,在文本邊緣提取器中引入了一個輕量級的文本檢測模型來執(zhí)行邊緣過濾。具體而言,首先使用類似ResNet的[16] 主干網絡提取多級視覺特征 F d = { F 1 d , F 2 d , F 3 d , F 4 d } F^d = \{F^d_1, F^d_2, F^d_3, F^d_4\} Fd={F1d?,F2d?,F3d?,F4d?},其中 $F^d_i \in \mathbb{R}^{C_i \times H_i \times W_i} $表示ResNet-like主干網絡第 i i i-層的特征(有關文本檢測主干網絡的更多細節(jié)介紹見補充材料)。然后,采用文本檢測頭來預測文本區(qū)域的mask M a M_a Ma?,可以表示為

其中, Conv 1 × 1 ( ? ) \text{Conv}_{1 \times 1}(\cdot) Conv1×1?(?) Concat ( ? ) \text{Concat}(\cdot) Concat(?) 分別表示1 × 1卷積層和拼接操作。借助文本區(qū)域的mask $M_a $,可以通過對文本區(qū)域mask M a M_a Ma? 和檢測到的邊緣 E w E_w Ew? 進行逐像素相乘,過濾掉非文本區(qū)域的邊緣。因此,文本區(qū)域的邊緣 E t E_t Et? 可以通過以下方式獲得:

值得一提的是,在進行乘法操作之前對 E w E_w Ew?施加了軟argmax操作,因為聯(lián)合優(yōu)化文本檢測和分割分支可以實現更好的文本檢測性能。然后,經過過濾的文本邊緣 E t E_t Et? 被輸入到接下來的邊緣引導編碼器中,以增強其區(qū)分文本邊緣周圍像素的能力。

邊緣引導編碼器。 由于SegFormer在語義分割中表現出色,采用它作為邊緣引導編碼器的基礎框架。如前面圖3所示,邊緣引導編碼器由四個階段組成,過濾后的文本邊緣在第一個階段被合并。每個編碼階段包含三個子模塊:重疊補丁embedding、有效自注意力和前饋網絡。重疊補丁embedding用于提取每個補丁周圍的局部特征。隨后,這些特征被輸入到自注意力層中,以挖掘像素之間的相關性?;咀宰⒁饬拥墓饺缦?#xff1a;

其中, Q Q Q、 K K K V V V 是通過對相同特征應用不同的embedding層獲得的。為了減少計算成本,遵循 [43] 引入了空間降維操作來處理 K K K V V V。有關空間降維的更多細節(jié)見補充材料。最后,對于第 i i i 階段,使用前饋網絡生成輸出特征 F i s F^s_i Fis?。與此不同的是,在第一個階段的前饋網絡之后額外引入了一個對稱交叉注意力層,以融合提取的邊緣引導 E t E_t Et?。具體而言,對稱交叉注意力層包括兩個交叉注意力操作,分別在第一個階段的特征 F 1 s F^s_1 F1s?和邊緣引導 E t E_t Et? 之間進行。一方面, E t E_t Et? 被視為查詢(Query),以提取邊緣感知的視覺信息 F e v F^{ev} Fev,其中 F 1 s F^s_1 F1s? 被視為鍵(Key)和值(Value);另一方面, F 1 s F^s_1 F1s? 被用作查詢(Query),進一步挖掘有用的文本邊緣信息 F t e F^{te} Fte,其中 E t E_t Et? 被視為鍵(Key)和值(Value)。

因此,第一個階段的最終輸出 F ^ 1 s \hat{F}^s_1 F^1s? 可以表示為:

其中, SA ( ? ) \text{SA}(\cdot) SA(?) 代表上述的自注意力操作, ⊕ \oplus 表示逐像素相加。隨后, F ^ 1 s \hat{F}^s_1 F^1s?和其他階段的輸出被輸入到文本分割解碼器中。

文本分割解碼器。 類似于之前的方法,采用幾個MLP層來融合特征并預測最終的文本mask M t M_t Mt?。首先,通過相應的MLP層統(tǒng)一四個階段輸出的通道維度。然后,這些特征被上采樣到相同的分辨率,并通過一個MLP層進一步融合。最后,融合后的特征用于預測文本mask。假設第 i i i 階段特征的分辨率為 H i × W i × C i H_i \times W_i \times C_i Hi?×Wi?×Ci?,解碼過程可以表示為:

其中, MLP ( C in , C out ) ( ? ) \text{MLP}(\text{C}_{\text{in}}, \text{C}_{\text{out}})(\cdot) MLP(Cin?,Cout?)(?)表示MLP中輸入特征和輸出特征的通道數分別為 C in \text{C}_{\text{in}} Cin? C out \text{C}_{\text{out}} Cout? Fuse ( ? ) \text{Fuse}(\cdot) Fuse(?)表示輸入特征首先被拼接在一起,然后通過MLP層在通道維度上進行降維。

損失函數

以前的文本分割方法通常引入各種損失函數來提高性能,這可能會帶來選擇適當超參數的困難。在所提出的EAFormer中,僅使用了兩種交叉熵損失:文本檢測損失 L det L_{\text{det}} Ldet? 和文本分割損失 L seg L_{\text{seg}} Lseg? 進行優(yōu)化,它們可以表示為:

其中, λ \lambda λ 是用于平衡 L det L_{\text{det}} Ldet? L seg L_{\text{seg}} Lseg? 的超參數; M ^ a \hat{M}_a M^a? M ^ t \hat{M}_t M^t? 分別是 M a M_a Ma? M t M_t Mt? 的真實標注。請注意,用于 M a M_a Ma? 的邊界框級別監(jiān)督可以從語義級別的標注中獲得,這意味著所提出的方法與之前的方法一樣,僅需要語義級別的標注。

實驗

實施細節(jié)

所提出的方法使用PyTorch實現,所有實驗都在8個NVIDIA RTX 4090 GPU上進行。采用AdamW優(yōu)化器,所有實驗中的初始學習率設置為 6 × 1 0 ? 5 6 \times 10^{-5} 6×10?5,權重衰減設為0.01。批量大小設置為4。與之前的方法 [32,41,45] 一樣,在訓練階段也采用了一些數據增強操作,如隨機裁剪和翻轉。不同于現有方法使用預訓練模型來檢測文本區(qū)域或識別字符,所提出的EAFormer中的所有模塊都是聯(lián)合訓練的。換句話說,訓練EAFormer時沒有使用額外的數據集。Canny邊緣檢測的兩個閾值分別設置為100和200。為了評估所提出方法的性能,同時使用前景交并比(fgIoU)和前景像素F值。fgIoU的度量標準采用百分比格式,F值采用小數格式。

實驗結果

定量比較。 為了全面評估EAFormer,研究者們在英文和雙語文本分割數據集上進行了實驗。下表2顯示了在五個英文文本分割數據集上的實驗結果。

與之前的方法相比,EAFormer在大多數基準測試中在前景交并比(fgIoU)和F值上都有明顯的提升。例如,在TextSeg數據集上,EAFormer在fgIoU和F值上分別超越了之前的SOTA方法TextFormer 0.64% 和0.6%。盡管原始的COCO_TS和MLT_S數據集有粗糙的注釋,所提出的EAFormer仍然能表現出更好的性能,例如在COCO_TS數據集上比 TFT 提升了7.63%的fgIoU。考慮到基于不準確注釋的實驗結果不夠令人信服,重新標注了COCO_TS和MLT_S的訓練數據集和測試數據集。基于重新標注的數據集的實驗結果顯示在下表3中。實驗表明,當使用注釋更準確的數據集進行訓練和測試時,EAFormer仍然能夠實現顯著的性能提升。與原始數據集的結果相比,重新標注數據集上的性能似乎下降了很多。

以下兩個原因可能解釋了這一現象:

  1. 數據集中有許多模糊的文本,這確實給模型處理文本邊緣帶來了挑戰(zhàn);
  2. 重新標注的測試數據集更為準確,評估中沒有忽略的區(qū)域。

此外,還在雙語文本分割數據集BTS上進行了實驗,結果顯示在下表4中。盡管PGTSNet不公平地引入了一個預訓練的文本檢測器,EAFormer在fgIoU/F值上仍然能實現1.6%/2.8%的提升,這驗證了所提出方法的有效性。由于引入了一個輕量級的文本檢測頭,不可避免地增加了更多參數。評估了參數數量和推理速度。與之前的SOTA方法TextFormer(85M參數和每張圖像0.42秒)相比,所提出的模型有92M參數,平均每張圖像需要0.47秒。雖然參數數量略有增加,但本文的方法仍能顯著提升性能。

定性比較。 研究者們還通過可視化將EAFormer與之前的方法在分割質量上進行了比較。如圖5所示,所提出的EAFormer在文本邊緣的表現優(yōu)于之前的方法,這得益于引入的邊緣信息。此外,對于COCO_TS和MLT_S,比較了基于原始和修改后注釋的分割結果。盡管上表3表明,當使用重新標注的數據集進行訓練和測試時,本文的方法性能有所下降,但下圖5中的可視化結果表明,本文的模型在重新標注的數據集上能夠實現更好的分割結果。

消融研究

超參數 λ \lambda λ。 在訓練EAFormer時,使用了兩種損失函數進行優(yōu)化。超參數 λ \lambda λ 用于平衡 L det L_{\text{det}} Ldet? L seg L_{\text{seg}} Lseg? 的權重,適當的 λ \lambda λ 可能會帶來更好的性能。因此,進行了幾次實驗來選擇 λ \lambda λ,范圍為 {0.1, 0.5, 1.0, 5.0, 10.0},實驗結果見下表5。當 λ \lambda λ 設置為1.0時,EAFormer在TextSeg數據集上達到了最佳性能,相比于基線模型,其fgIoU/F值分別提高了3.47% 和2.3%。表5的結果表明,當 λ \lambda λ 范圍在 {0.5, 1.0, 5.0, 10.0} 時,對性能的影響較小。然而,如果 λ \lambda λ 設置為0.1,則EAFormer的性能不佳,這可能是由于過小的 λ \lambda λ 使得文本檢測模塊難以收斂,從而進一步影響文本分割的性能。因此,在本文中,將 λ \lambda λ 設置為1.0。

邊緣過濾和邊緣引導。 在所提出的EAFormer中,文本邊緣提取器中的邊緣過濾和邊緣引導編碼器中的邊緣引導是兩個關鍵組件。為了評估這兩種策略的性能提升效果,進行了消融實驗,結果見下表6。請注意,當僅使用邊緣過濾時,提取的邊緣信息與輸入圖像拼接后輸入到基于SegFormer的編碼器中。如表6所示,引入邊緣過濾可以顯著提升性能。然而,如果僅引入邊緣引導,本文的方法性能較差。一個可能的原因是非文本區(qū)域的邊緣引入了更多的干擾信息,導致模型無法有效利用提取的邊緣來輔助文本分割。因此,邊緣過濾和邊緣引導對本文的方法都是必要的,當兩者都被采用時,EAFormer能夠實現SOTA性能。

討論

過濾非文本區(qū)域的邊緣。 在文本邊緣提取器模塊中,提出了過濾非文本區(qū)域邊緣信息的方法,以避免這些信息對模型性能的負面影響。在消融實驗部分中,可以得知,過濾非文本區(qū)域的邊緣信息可以明顯提高性能。通過可視化(見補充材料),觀察到,當所有邊緣信息用于輔助分割時,模型會錯誤地認為具有邊緣信息的區(qū)域應該被分類為前景。因此,為了給模型提供明確的邊緣引導,所提出的方法僅保留文本區(qū)域的邊緣信息作為輸入。

在不同層引入文本邊緣。 在邊緣引導編碼器中,通過對稱交叉注意機制僅在第一階段提取增強的邊緣特征信息。眾所周知,低層特征對文本邊緣信息更為敏感。在下圖6中對不同階段的特征進行聚類結果的可視化,結果表明只有第一階段的特征關注邊緣信息。因此,在早期階段引入檢測到的邊緣是合理且有效的。還嘗試在其他階段引入邊緣引導進行實驗。實驗結果表明,檢測到的邊緣引入的階段越高,EAFormer的性能提升越小。特別是,當在第三或第四階段引入檢測到的邊緣時,EAFormer的性能甚至低于基線。

利用現成的文本檢測器。 在文本邊緣提取器中,采用了一個輕量級的文本檢測器,包括一個基于ResNet的骨干網絡和一個MLP解碼器。實際上,可以利用一個在文本檢測數據集上預訓練的現成文本檢測器,這可以幫助EAFormer在實際應用中取得更好的性能。由于這可能對之前的方法不公平,只探討了EAFormer的性能上限。在實驗中,使用預訓練的DBNet 替換輕量級文本檢測器模塊,EAFormer在TextSeg上的性能可以達到新的SOTA水平(fgIoU/F值分別為90.16%和95.2%)。

與之前邊緣引導方法的區(qū)別。 實際上,將邊緣信息融入分割中是一個被廣泛探索的策略。然而,本文的方法與之前的工作仍有一些區(qū)別。首先,BCANet和 BSNet需要邊緣監(jiān)督,而本文的方法直接使用Canny提取邊緣。盡管EGCAN也使用Canny,但本文的方法額外引入了邊緣過濾以保留有用的邊緣信息,這特別為文本分割設計。此外,EGCAN在所有編碼器層中融合邊緣信息,而本文的方法通過設計的對稱交叉注意機制僅在第一層融合邊緣信息。

局限性。 為了過濾非文本區(qū)域的邊緣,引入了一個輕量級的文本檢測器,這可能會略微增加可學習參數的數量。此外,僅利用了現成的邊緣檢測算法Canny來提取文本邊緣,而沒有使用更先進的深度學習邊緣檢測方法。引入SOTA邊緣檢測方法可能會進一步提高本文方法的性能。

結論

本文提出了邊緣感知Transformer(Edge-Aware Transformers),稱為EAFormer,以解決文本邊緣處文本分割不準確的問題。具體而言,采用傳統(tǒng)的邊緣檢測算法Canny來提取邊緣。為了避免涉及非文本區(qū)域的邊緣,引入了一個輕量級文本檢測模塊,用于過濾掉無用的邊緣,以進行文本分割。此外,基于SegFormer,提出了一個邊緣引導編碼器,以增強其感知文本邊緣的能力。考慮到某些數據集的低質量注釋可能影響實驗結果的可信度,對這些數據集進行了重新標注。在公開可用的基準測試上進行了廣泛的實驗,SOTA結果驗證了EAFormer在文本分割任務中的有效性。

參考文獻

[1]EAFormer: Scene Text Segmentation with Edge-Aware Transformers

http://m.aloenet.com.cn/news/31112.html

相關文章:

  • 北京建站推廣全網推廣公司
  • b2c網站怎么做google關鍵詞搜索技巧
  • 網站平臺免費游戲推廣員每天做什么
  • 學校網站建設調研報告天津疫情最新情況
  • 做網站平臺營銷網站建站公司
  • 哪些網站專門做細胞的好的搜索引擎推薦
  • wordpress評論框加游戲優(yōu)化大師官方下載
  • 中英網站開發(fā)青島官網seo方法
  • 網站測試頁面怎么做網站推廣途徑和推廣要點
  • 天津門戶網站開發(fā)國家免費技能培訓官網
  • 睢縣網站建設如何創(chuàng)建一個app平臺
  • 新公司注冊在哪個網站全國31省市疫情最新消息今天
  • 做網站用什么工具百度推廣四川成都地區(qū)服務中心
  • 做網站要學java嗎網站seo 工具
  • 新公司注冊工商核名系統(tǒng)網站優(yōu)化外包
  • 高端用戶群瀏覽網站石家莊網站seo
  • 西安手機網站建設公司排名查關鍵詞熱度的網站
  • 怎樣建立一個營銷的公司網站抖音seo搜索優(yōu)化
  • 卓越 網站建設 深圳西鄉(xiāng)競價托管
  • 電子商務網站規(guī)劃的原則是什么seo技術博客
  • 全國網站制作公司石家莊seo外包公司
  • 網站開發(fā)周期石家莊關鍵詞排名提升
  • 海淀網站建設公司廣告推廣賺錢
  • 佛山優(yōu)化網站排名收費關鍵詞推廣優(yōu)化外包
  • 騰寧網絡做網站抖音seo怎么收費
  • 學網絡推廣哪個培訓機構好windows優(yōu)化大師官方免費下載
  • 用asp做網站怎么美觀seo網站關鍵詞快速排名
  • 國際交友網站做英文客服seo項目分析
  • 網站建設如何做報價會計培訓班有用嗎
  • 外貿網站怎么做網站關鍵詞推廣