国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

iis7.5網(wǎng)站權(quán)限配置知了seo

iis7.5網(wǎng)站權(quán)限配置,知了seo,大瀝網(wǎng)站制作,b2b網(wǎng)站推廣的效果文章目錄 寫在前面1.Tansformer架構(gòu)模型2.ChatGPT原理3.提示學(xué)習(xí)與大模型能力的涌現(xiàn)3.1 提示學(xué)習(xí)3.2 上下文學(xué)習(xí)3.3 思維鏈 4.行業(yè)參考建議4.1 擁抱變化4.2 定位清晰4.3 合規(guī)可控4.4 經(jīng)驗(yàn)沉淀 寫在前面 2022年11月30日,ChatGPT模型問世后,立刻在全球范圍…

文章目錄

  • 寫在前面
  • 1.Tansformer架構(gòu)模型
  • 2.ChatGPT原理
  • 3.提示學(xué)習(xí)與大模型能力的涌現(xiàn)
    • 3.1 提示學(xué)習(xí)
    • 3.2 上下文學(xué)習(xí)
    • 3.3 思維鏈
  • 4.行業(yè)參考建議
    • 4.1 擁抱變化
    • 4.2 定位清晰
    • 4.3 合規(guī)可控
    • 4.4 經(jīng)驗(yàn)沉淀

寫在前面

2022年11月30日,ChatGPT模型問世后,立刻在全球范圍內(nèi)掀起了軒然大波。無論AI從業(yè)者還是非從業(yè)者,都在熱議ChatGPT極具沖擊力的交互體驗(yàn)和驚人的生成內(nèi)容。這使得廣大群眾重新認(rèn)識到人工智能的潛力和價值。對于AI從業(yè)者來說,ChatGPT模型成為一種思路的擴(kuò)充,大模型不再是刷榜的玩具,所有人都認(rèn)識到高質(zhì)量數(shù)據(jù)的重要性,并堅(jiān)信“有多少人工,就會有多少智能”。

ChatGPT模型效果過于優(yōu)秀,在許多任務(wù)上,即使是零樣本或少樣本數(shù)據(jù)也可以達(dá)到SOTA效果,使得很多人轉(zhuǎn)向大模型的研究。

不僅Google提出了對標(biāo)ChatGPT的Bard模型,國內(nèi)涌現(xiàn)出了許多中文大模型,如百度的“文心一言”、阿里的“通義千問”、商湯的“日日新”、知乎的“知海圖AI”、清華智譜的“ChatGLM”、復(fù)旦的“MOSS”、Meta的“Llama1&Llama2”等等。

Alpaca模型問世之后,證明了70億參數(shù)量的模型雖然達(dá)不到ChatGPT的效果,但已經(jīng)極大程度上降低了大模型的算力成本,使得普通用戶和一般企業(yè)也可以使用大模型。之前一直強(qiáng)調(diào)的數(shù)據(jù)問題,可以通過GPT-3.5或GPT-4接口來獲取數(shù)據(jù),并且數(shù)據(jù)質(zhì)量也相當(dāng)高。如果只需要基本的效果模型,數(shù)據(jù)是否再次精標(biāo)已經(jīng)不是那么重要了(當(dāng)然,要獲得更好的效果,則需要更精準(zhǔn)的數(shù)據(jù))。

1.Tansformer架構(gòu)模型

預(yù)訓(xùn)練語言模型的本質(zhì)是通過從海量數(shù)據(jù)中學(xué)到語言的通用表達(dá),使得在下游子任務(wù)中可以獲得更優(yōu)異的結(jié)果。隨著模型參數(shù)不斷增加,很多預(yù)訓(xùn)練語言模型又被稱為大型語言模型(Large Language Model,LLM)。不同人對于“大”的定義不同,很難說多少參數(shù)量的模型是大型語言模型,通常并不強(qiáng)行區(qū)分預(yù)訓(xùn)練語言模型和大型語言模型之間的差別。
在這里插入圖片描述

預(yù)訓(xùn)練語言模型根據(jù)底層模型網(wǎng)絡(luò)結(jié)構(gòu),一般分為僅Encoder架構(gòu)模型、僅Decoder架構(gòu)模型和Encoder-Decoder架構(gòu)模型。其中,僅Encoder架構(gòu)模型包括但不限于BERT、RoBerta、Ernie、SpanBert、AlBert等;僅Decoder架構(gòu)模型包括但不限于GPT、CPM、PaLM、OPT、Bloom、Llama等;Encoder-Decoder架構(gòu)模型包括但不限于Mass、Bart、T5等。

在這里插入圖片描述

2.ChatGPT原理

ChatGPT訓(xùn)練的整體流程主要分為3個階段,預(yù)訓(xùn)練與提示學(xué)習(xí)階段,結(jié)果評價與獎勵建模階段以及強(qiáng)化學(xué)習(xí)自我進(jìn)化階段;3個階段分工明確,實(shí)現(xiàn)了模型從模仿期、管教期、自主期的階段轉(zhuǎn)變。

在這里插入圖片描述

在第一階段的模仿期,模型將重點(diǎn)放在學(xué)習(xí)各項(xiàng)指令型任務(wù)中,這個階段的模型沒有自我判別意識,更多的是模仿人工行為的過程,通過不斷學(xué)習(xí)人類標(biāo)注結(jié)果讓其行為本身具有一定的智能型。然而僅僅是模仿往往會讓機(jī)器的學(xué)習(xí)行為變成邯鄲學(xué)步。

在第二階段的管教期,優(yōu)化內(nèi)容發(fā)生了方向性轉(zhuǎn)變,將重點(diǎn)從教育機(jī)器答案內(nèi)容改變?yōu)榻逃龣C(jī)器答案的好壞。如果第一階段,重點(diǎn)希望機(jī)器利用輸入X,模仿學(xué)習(xí)輸出Y’,并力求讓Y’與原先標(biāo)注的Y保持一致。那么,在第二階段,重點(diǎn)則希望多個模型在針對X輸出多個結(jié)果(Y1,Y2,Y3,Y4)時,可以自行判斷多個結(jié)果的優(yōu)劣情況。

當(dāng)模型具備一定的判斷能力時,認(rèn)為該模型已經(jīng)完成第二階段的學(xué)習(xí),可以進(jìn)入第三階段——自主期。在自主期的模型,需要通過左右互博的方式完成自我進(jìn)化,即一方面自動生成多個輸出結(jié)果,另一方面判斷不同結(jié)果的優(yōu)劣程度,并基于不同輸出的效果模型差異評估,優(yōu)化改進(jìn)自動生成過程的模型參數(shù),進(jìn)而完成模型的自我強(qiáng)化學(xué)習(xí)。

總結(jié)來說,也可以將ChatGPT的3個階段比喻為人成長的3個階段,模仿期的目的是“知天理”,管教期的目的是“辨是非”,自主期的目的是“格萬物”。

3.提示學(xué)習(xí)與大模型能力的涌現(xiàn)

ChatGPT模型發(fā)布后,因其流暢的對話表達(dá)、極強(qiáng)的上下文存儲、豐富的知識創(chuàng)作及其全面解決問題的能力而風(fēng)靡全球,刷新了大眾對人工智能的認(rèn)知。提示學(xué)習(xí)(Prompt Learning)、上下文學(xué)習(xí)(In-Context Learning)、思維鏈(Chain of Thought,CoT)等概念也隨之進(jìn)入大眾視野。市面上甚至出現(xiàn)了提示工程師這個職業(yè),專門為指定任務(wù)編寫提示模板。

提示學(xué)習(xí)被廣大學(xué)者認(rèn)為是自然語言處理在特征工程、深度學(xué)習(xí)、預(yù)訓(xùn)練+微調(diào)之后的第四范式。隨著語言模型的參數(shù)不斷增加,模型也涌現(xiàn)了上下文學(xué)習(xí)、思維鏈等能力,在不訓(xùn)練語言模型參數(shù)的前提下,僅通過幾個演示示例就可以在很多自然語言處理任務(wù)上取得較好的成績。

3.1 提示學(xué)習(xí)

提示學(xué)習(xí)是在原始輸入文本上附加額外的提示(Prompt)信息作為新的輸入,將下游的預(yù)測任務(wù)轉(zhuǎn)化為語言模型任務(wù),并將語言模型的預(yù)測結(jié)果轉(zhuǎn)化為原本下游任務(wù)的預(yù)測結(jié)果。

以情感分析任務(wù)為例,原始任務(wù)是根據(jù)給定輸入文本“我愛中國”,判斷該段文本的情感極性。提示學(xué)習(xí)則是在原始輸入文本“我愛中國”上增加額外的提示模板,例如:“這句話的情感為{mask}?!钡玫叫碌妮斎胛谋尽拔覑壑袊_@句話的情感為{mask}。”然后利用語言模型的掩碼語言模型任務(wù),針對{mask}標(biāo)記進(jìn)行預(yù)測,再將其預(yù)測出的Token映射到情感極性標(biāo)簽上,最終實(shí)現(xiàn)情感極性預(yù)測。

3.2 上下文學(xué)習(xí)

上下文學(xué)習(xí)可以看作提示學(xué)習(xí)的一種特殊情況,即演示示例看作提示學(xué)習(xí)中人工編寫提示模板(離散型提示模板)的一部分,并且不進(jìn)行模型參數(shù)的更新。

上下文學(xué)習(xí)的核心思想是通過類比來學(xué)習(xí)。對于一個情感分類任務(wù)來說,首先從已存在的情感分析樣本庫中抽取出部分演示示例,包含一些正向或負(fù)向的情感文本及對應(yīng)標(biāo)簽;然后將其演示示例與待分析的情感文本進(jìn)行拼接,送入到大型語言模型中;最終通過對演示示例的學(xué)習(xí)類比得出文本的情感極性。
在這里插入圖片描述

這種學(xué)習(xí)方法也更加貼近人類學(xué)習(xí)后進(jìn)行決策過程,通過觀察別人對某些事件的處理方法,當(dāng)自己遇到相同或類似事件時,可以輕松地并很好地解決。

3.3 思維鏈

大型語言模型橫行的時代,它徹底改變了自然語言處理的模式。隨著模型參數(shù)的增加,例如:情感分析、主題分類等系統(tǒng)-1任務(wù)(人類可以快速直觀地完成的任務(wù)),即使是在少樣本和零樣本條件下均可以獲得較好的效果。但對于系統(tǒng)-2任務(wù)(人類需要緩慢而深思熟慮的思考才能完成的任務(wù)),例如:邏輯推理、數(shù)學(xué)推理和常識推理等任務(wù),即使模型參數(shù)增加到數(shù)千億時,效果也并不理想,也就是簡單地增加模型參數(shù)量并不能帶來實(shí)質(zhì)性的性能提升。

Google于2022年提出了思維鏈(Chain of thought,CoT)的概念,來提高大型語言模型執(zhí)行各種推理任務(wù)的能力。思維鏈本質(zhì)上是一種離散式提示模板,主旨是通過提示模板使得大型語言模型可以模仿人類思考的過程,給出逐步的推理依據(jù),來推導(dǎo)出最終的答案,而每一步的推理依據(jù)組成的句子集合就是思維鏈的內(nèi)容。

思維鏈其實(shí)是幫助大型語言模型將一個多步問題分解為多個可以被單獨(dú)解答的中間步驟,而不是在一次向前傳遞中解決整個多跳問題。

在這里插入圖片描述

4.行業(yè)參考建議

4.1 擁抱變化

與其他領(lǐng)域不同,AIGC領(lǐng)域是當(dāng)前變化最迅速的領(lǐng)域之一。以2023年3月13日至2023年3月19日這一周為例,我們經(jīng)歷了清華發(fā)布ChatGLM 6B開源模型、openAI將GPT4接口發(fā)布、百度文心一言舉辦發(fā)布會、微軟推出Office同ChatGPT相結(jié)合的全新產(chǎn)品Copilot等一系列重大事件。

這些事件都會影響行業(yè)研究方向,并引發(fā)更多思考,例如,下一步技術(shù)路線是基于開源模型,還是從頭預(yù)訓(xùn)練新模型,參數(shù)量應(yīng)該設(shè)計(jì)多少?Copilot已經(jīng)做好,辦公插件AIGC的應(yīng)用開發(fā)者如何應(yīng)對?

即便如此,仍建議從業(yè)者擁抱變化,快速調(diào)整策略,借助前沿資源,以加速實(shí)現(xiàn)自身任務(wù)。

4.2 定位清晰

一定要明確自身細(xì)分賽道的目標(biāo),例如是做應(yīng)用層還是底座優(yōu)化層,是做C端市場還是B端市場,是做行業(yè)垂類應(yīng)用還是通用工具軟件。千萬不要好高騖遠(yuǎn),把握住風(fēng)口,“切準(zhǔn)蛋糕”。

定位清晰并不是指不撞南墻不回,更多的是明白自身目的及意義所在。

4.3 合規(guī)可控

AIGC最大的問題在于輸出的不可控性,如果無法解決這個問題,它的發(fā)展將面臨很大的瓶頸,無法在B端和C端市場廣泛使用。在產(chǎn)品設(shè)計(jì)過程中,需要關(guān)注如何融合規(guī)則引擎、強(qiáng)化獎懲機(jī)制以及適當(dāng)?shù)娜斯そ槿?。從業(yè)者應(yīng)重點(diǎn)關(guān)注AIGC生成內(nèi)容所涉及的版權(quán)、道德和法律風(fēng)險(xiǎn)。

4.4 經(jīng)驗(yàn)沉淀

經(jīng)驗(yàn)沉淀的目的是為了建立自身的壁壘。不要將所有的希望寄托于單個模型上,例如我們曾經(jīng)將產(chǎn)品設(shè)計(jì)成純文本格式,以便同ChatGPT無縫結(jié)合,但最新的GPT4已經(jīng)支持多模態(tài)輸入。我們不應(yīng)氣餒,而是要快速擁抱變化,并利用之前積累的經(jīng)驗(yàn)(數(shù)據(jù)維度、Prompt維度、交互設(shè)計(jì)維度)快速完成產(chǎn)品升級,以更好地應(yīng)對全新的場景和交互形態(tài)。最后給大家推薦一本很不錯的書籍——《ChatGPT原理與實(shí)戰(zhàn)》!

在這里插入圖片描述

http://m.aloenet.com.cn/news/39895.html

相關(guān)文章:

  • 2015年做啥網(wǎng)站能致富網(wǎng)絡(luò)推廣運(yùn)營推廣
  • 哪個網(wǎng)站有激光打標(biāo)業(yè)務(wù)做線上營銷推廣方法
  • 閔行營銷型網(wǎng)站建設(shè)公司免費(fèi)網(wǎng)站制作成品
  • 網(wǎng)站開發(fā)人員需要什么要求卡一卡二卡三入口2021
  • 用py做網(wǎng)站b2b網(wǎng)站源碼
  • 網(wǎng)站開發(fā)人員資質(zhì)濟(jì)南網(wǎng)絡(luò)推廣公司
  • 國外服務(wù)器公司有哪些網(wǎng)站功能優(yōu)化
  • wap仿制網(wǎng)站教程自己搭建一個網(wǎng)站
  • 建設(shè)京東類的網(wǎng)站需要什么流程域名搜索引擎
  • 監(jiān)控公司建設(shè)網(wǎng)站推廣經(jīng)營范圍最全bt磁力搜索引擎索引
  • 小程序 網(wǎng)站建設(shè) app 開發(fā)網(wǎng)絡(luò)營銷知名企業(yè)
  • photoshop做圖網(wǎng)站如何利用互聯(lián)網(wǎng)宣傳與推廣
  • 可以做網(wǎng)站的公司軟件推廣接單平臺
  • 社區(qū)推廣普通話手機(jī)關(guān)鍵詞seo排名優(yōu)化
  • 畢業(yè)設(shè)計(jì)代做網(wǎng)站java湖南網(wǎng)站建設(shè)工作室
  • 設(shè)計(jì)師圖片素材網(wǎng)站適合企業(yè)員工培訓(xùn)的課程
  • 網(wǎng)站建設(shè)的ci設(shè)計(jì)指的是什么視頻運(yùn)營管理平臺
  • 宜興專業(yè)做網(wǎng)站公司搜索競價
  • 網(wǎng)站推廣被封域名如何做跳轉(zhuǎn)網(wǎng)站數(shù)據(jù)統(tǒng)計(jì)工具
  • 領(lǐng)地網(wǎng)做網(wǎng)站咋加文章廣告軟文小故事800字
  • 做律師網(wǎng)站的公司大二網(wǎng)絡(luò)營銷實(shí)訓(xùn)報(bào)告
  • 網(wǎng)站建設(shè)課程 谷建軟文推廣服務(wù)
  • 南京疫情最新google seo是什么
  • 潮州專業(yè)網(wǎng)站建設(shè)制作百度競價排名黑幕
  • 網(wǎng)站鏈接查詢seo快速排名軟件首頁
  • 天津企業(yè)網(wǎng)站設(shè)計(jì)報(bào)價搜索引擎技術(shù)
  • 做招聘網(wǎng)站賺錢么百度知道推廣軟件
  • 上饒做網(wǎng)站網(wǎng)站備案流程
  • 網(wǎng)站備案號位置免費(fèi)關(guān)鍵詞優(yōu)化工具
  • 網(wǎng)站開發(fā)實(shí)驗(yàn)報(bào)告可行性分析簡單網(wǎng)站建設(shè)優(yōu)化推廣